Со отворено писмо се укажува на ризиците за човештвото

Lorita
By Lorita
3 Min Read
Disclosure: This website may contain affiliate links, which means I may earn a commission if you click on the link and make a purchase. I only recommend products or services that I personally use and believe will add value to my readers. Your support is appreciated!
- Advertisement -
Ad image

Повеќе стотици познати личности, меѓу кои научници, технолошки визионери, религиозни водачи, медиумски магнати и интелектуалци, потпишаа отворено писмо со кое се бара да се паузира развојот на вештачката интелигенција, додека не се докаже дека таа е безбедна и корисна за човештвото. Имиња како Стив Вознијак, Стив Бенон, Ричард Бренсон и Принцот Хари, го потпишаа овој алармантен повик.

Отвореното писмо, објавено од Иницијативата Future of Life Institute, повикува на шестмесечна пауза во развојот на системи помоќни од GPT-4, предупредувајќи дека трката во создавање „дигитални суперумови“ излегла од контрола и претставува сериозен ризик за човештвото.

Во писмото се наведува дека напредната АИ може да стане пресвртница во историјата на животот на Земјата, но за тоа не постои соодветно планирање, контрола и безбедносна рамка.

Авторите прашуваат: Дали ќе дозволиме машините да ги преплават медиумите со пропаганда и невистини? Дали ќе ги замениме сите човечки работни места? Дали ќе создадеме немашински умови кои ќе нѐ надминат и ќе нѐ заменат?

Во писмото се нагласува дека овие одлуки не смеат да се остават во рацете на неколку неизбрани технолошки лидери и дека моќните АИ системи треба да се развиваат само ако е докажано дека се безбедни и општествено корисни. Потписниците ја поддржуваат тезата на OpenAI дека е неопходен независен надзор пред тренинг на идни генерации на јазичните модели, додавајќи дека „времето за тоа е сега“.

Тие бараат јавна и проверлива пауза од најмалку шест месеци, во која лабораториите и независните експерти би развиле заеднички безбедносни протоколи, под надзор на надворешни тела. Не се предлага запирање на истражувањата во целост, туку прекин на опасната трка за сè поголеми, непредвидливи и непрозрачни системи. Наместо тоа, истражувањето треба да се насочи кон зголемување на точноста, безбедноста, транспарентноста и доверливоста на постојните системи.

Во исто време, се бара од владите и технолошките компании да изградат силни механизми за управување со АИ, со регулаторни тела, системи за надзор, водени траги за синтетички содржини и јасна одговорност за штетите што може да ги предизвика вештачката интелигенција.

„Човештвото може да ужива во просперитетна иднина со АИ, ако сега притиснеме пауза и ја искористиме оваа технологија за општо добро“, се наведува во писмото. „Ајде да уживаме во едно долго ‘лето на АИ’, наместо да влетаме неподготвени во есен на колапс.“

Share This Article