Повеќе стотици познати личности, меѓу кои научници, технолошки визионери, религиозни водачи, медиумски магнати и интелектуалци, потпишаа отворено писмо со кое се бара да се паузира развојот на вештачката интелигенција, додека не се докаже дека таа е безбедна и корисна за човештвото. Имиња како Стив Вознијак, Стив Бенон, Ричард Бренсон и Принцот Хари, го потпишаа овој алармантен повик.
Отвореното писмо, објавено од Иницијативата Future of Life Institute, повикува на шестмесечна пауза во развојот на системи помоќни од GPT-4, предупредувајќи дека трката во создавање „дигитални суперумови“ излегла од контрола и претставува сериозен ризик за човештвото.
Во писмото се наведува дека напредната АИ може да стане пресвртница во историјата на животот на Земјата, но за тоа не постои соодветно планирање, контрола и безбедносна рамка.
Авторите прашуваат: Дали ќе дозволиме машините да ги преплават медиумите со пропаганда и невистини? Дали ќе ги замениме сите човечки работни места? Дали ќе создадеме немашински умови кои ќе нѐ надминат и ќе нѐ заменат?
Во писмото се нагласува дека овие одлуки не смеат да се остават во рацете на неколку неизбрани технолошки лидери и дека моќните АИ системи треба да се развиваат само ако е докажано дека се безбедни и општествено корисни. Потписниците ја поддржуваат тезата на OpenAI дека е неопходен независен надзор пред тренинг на идни генерации на јазичните модели, додавајќи дека „времето за тоа е сега“.
Тие бараат јавна и проверлива пауза од најмалку шест месеци, во која лабораториите и независните експерти би развиле заеднички безбедносни протоколи, под надзор на надворешни тела. Не се предлага запирање на истражувањата во целост, туку прекин на опасната трка за сè поголеми, непредвидливи и непрозрачни системи. Наместо тоа, истражувањето треба да се насочи кон зголемување на точноста, безбедноста, транспарентноста и доверливоста на постојните системи.
Во исто време, се бара од владите и технолошките компании да изградат силни механизми за управување со АИ, со регулаторни тела, системи за надзор, водени траги за синтетички содржини и јасна одговорност за штетите што може да ги предизвика вештачката интелигенција.
„Човештвото може да ужива во просперитетна иднина со АИ, ако сега притиснеме пауза и ја искористиме оваа технологија за општо добро“, се наведува во писмото. „Ајде да уживаме во едно долго ‘лето на АИ’, наместо да влетаме неподготвени во есен на колапс.“



























