More

    Технолошките гиганти сакаат да ја ограничат вештачката интелигенција: „Постои сериозен ризик…

    spot_img

    Технолошкиот магнат Илон Маск, како и голем број експерти, во средата повикаа на запирање на развојот на моќни системи за вештачка интелигенција за да може прво да се проучи колку тие всушност се безбедни.Отвореното писмо, потпишано од повеќе од илјада луѓе, вклучително и Маск и ко-основачот на Apple, Стив Возниак, беше поттикнато од објавувањето на програмата GPT-4 развиена од компанијата OpenAI со поддршка на Microsoft, пренесува Science Alert.

    Компанијата вели дека најновиот модел е многу помоќен од претходната верзија, која се користеше за ChatGPT – алатка способна да составува долги текстови до најкратките прашања.

    „Системите за вештачка интелигенција со интелигенција слична на човекот може да претставуваат значителен ризик за општеството и човечката раса“, се вели во писмото, насловено „Стоп за масивните експерименти со вештачка интелигенција“.

    „Моќните системи за вештачка интелигенција треба да почнат да се развиваат само кога ќе бидеме убедени дека нивните последици ќе бидат позитивни, а ризиците лесно решливи“, пишува тој.

    Маск беше еден од почетните инвеститори во OpenAI и со години седеше во управниот одбор на таа компанија. Неговата компанија Тесла развива системи за вештачка интелигенција, меѓу другото, за потребите на технологијата на автомобили без возач.

    Писмото го потпишаа гласните критичари, но и конкуренти на OpenAI, како директорот на компанијата Stability AI, Емад Мостаќ.

    Канадскиот пионер за вештачка интелигенција Јошуа Бенџо, исто така, го потпиша писмото и предупреди на виртуелна прес-конференција во Монтреал дека „општеството не е подготвено“ за оваа моќна алатка и нејзината потенцијална злоупотреба.

    „Да забавиме. Треба да развиеме подобри ограничувања“, рече тој, повикувајќи на детална меѓународна дебата за вештачката интелигенција и нејзините импликации, „исто како што направивме за нуклеарното оружје“.

    „Кредибилен и лојален“
    Во писмото се цитира блог-пост напишана од основачот на OpenAI Сем Алтман. Тој изјави дека „во одреден момент може да биде важно да се добие независна анализа пред да започнеме со обука на идните системи“.

    “Се сложуваме. Тој момент е сега“, пишуваат авторите на отвореното писмо. „Според тоа, ги повикуваме сите развивачи на вештачка интелигенција да паузираат најмалку шест месеци во развојот на системи помоќни од системот GPT-4“.

    Тие ги повикаа владите да се приклучат на разговорот и да воведат мораториуми доколку компаниите одбијат да го прекинат истражувањето.

    Шест месеци би требало да бидат доволни за развој на безбедносни протоколи и системи за ракување со вештачката интелигенција, но и за фокусирано истражување за вештачката интелигенција да биде безбедна, точна, „кредибилна и лојална“.

    Во писмото не се наведени никакви конкретни опасности од GPT-4.

    Сепак, истражувачите, вклучително и Гери Маркус од Универзитетот во Њујорк, кој го потпиша писмото, долго време предупредуваа дека четботите се големи лажговци со потенцијал да шират дезинформации во масовни размери.

    Сепак, авторот Кори Доктору ја нарекува индустријата за вештачка интелигенција надуена шема и тврди дека и потенцијалот и заканите што ги претставуваат системите за вештачка интелигенција се масовно претерани.

    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img