More

    Лидерите на моќните компании во паника: Помогнете ни да ја регулираме вештачката интелигенција

    spot_img

    Вештачката интелигенција напредува со неверојатна брзина, дури и за поимите на оние кои се во првите редови на нејзиниот развој. Поради ова се почесто се слушаат повици за државна помош, но не на финансиски, туку на регулатива.Лидерите на најголемите компании во светот вообичаено се борат против секаков вид владини регулативи, се залагаат за слободни пазари и се водат од реториката за „преживување на најсилните“, што само потврдува дека навистина се во паника кога станува збор за вештачката интелигенција.

    Тоа најдобро го потврдуваат повиците до американските власти, но и до властите на другите земји во светот, на челниците на Google и OpenAI, компанијата која стои зад мегапопуларниот ChatGPT. Тие сакаат стандарди и регулативи од едноставни причини – јасно да се постават граници, насоки и општи правила за развој на исклучително напредна технологија и нејзиното влијание врз општеството како целина.

    Целта е да не се „излезе од контрола“, пред се затоа што може да се користи за оружје, сајбер војна, дезинформации и лажни вести и многу други начини кои би ја поништиле нејзината прогресивна улога во поширока смисла.

    „За да имаме драматично попросперитетна иднина, треба да знаеме како да управуваме со ризикот. Затоа што веќе би било тешко и опасно да се запре создавањето на суперинтелигенција. Затоа ни се потребни појасни насоки, за секој поединец да има целосна контрола како да се користи вештачката интелигенција и за кои цели. Сè уште не ги знаеме механизмите што би воспоставиле регулација и, соодветно, контрола, но подготвени сме да експериментираме“, напиша извршниот директор на OpenAI Сем Алтман на официјалниот блог.

    Иако тоа не го кажа експлицитно, најголемиот проблем со вештачката интелигенција е што дури и на сегашното ниво може да се манипулира и користи за морално сомнителни работи. Имитира човечки гласови, може да уредува видео и фотографија за да изгледа автентично, да дава совети за хакирање, несвесно да шири дезинформации и генерално да прави се што ќе побара поединец.

    Ако сè продолжи во сегашната насока, прашање на време е кога вештачката интелигенција ќе може да се користи за воени цели. Таа нема совест, етички или морални сомнежи, работи како што и е кажано и може да доведе до катастрофално сценарио. Затоа е дојдено време меѓународното тело да ја контролира, како што е Меѓународната агенција за атомска енергија (МААЕ) на Обединетите нации, ја надгледува, регулира и ограничува употребата на нуклеарната енергија.

    Не е чудно што челниците на компаниите кои се занимаваат со вештачка интелигенција повикуваат на такво нешто, бидејќи тоа би ги ослободило од непотребната одговорност, што би било преголем товар за нив. Исто така, на овој начин би ја направиле технологијата достапна за сите, а не само за неколку компании во светот. Што не враќа на одговорност.

    „Вештачката интелигенција треба да се регулира на начин што ќе ги балансира иновациите и потенцијалната штета. Сè уште верувам дека оваа технологија е премногу важна за да не биде регулирана и премногу важна за да не биде добро регулирана. Во овој поглед, меѓународната соработка е клучна“, рече Сундар Пичаи, извршен директор на Google, за Фајненшл тајмс и додаде:

    „Ова е најмоќната технологија со која се соочило човештвото.

    Она што треба да се направи е да не се оди во насока на ограничувања „спакувани“ во регулативи, како што предупреди поранешниот извршен директор на Google, Ерик Шмит.

    „Би сакал да постигнам договор меѓу клучните играчи и на тој начин да избегнам трка до дното“, живописен беше Шмит.

    Дека кажаното има смисла потврдува и големата студија на престижниот американски универзитет Стенфорд на оваа тема. Дури 36 отсто од експертите во него ја потврдуваат важноста на вештачката интелигенција, но забележуваат и дека нејзините одлуки може да доведат до нуклеарна катастрофа, поради што е неопходно да се работи на превенција и да се спречи да направи такво нешто доколку открие се во погрешни раце.

    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img
    spot_img