Компјутерскиот експерт и човекот кој често се нарекува „татко на вештачката интелигенција“, Џефри Хинтон, ги промени своите предвидувања и проценки за веројатноста дека напредната технологија може да доведе до истребување на човештвото. Тој сега проценува дека има „само“ 10 до 20 проценти шанси за такво сценарио во следните 30 години.
Хинтон, кој оваа година ја доби Нобеловата награда за физика за неговата работа и придонес во развојот на вештачката интелигенција, претходно изјави дека има околу 10 отсто шанси вештачката интелигенција да го уништи човештвото.
За време на интервјуто на Би-Би-Си Радио 4, кога водителот го прашал дали ја променил анализата на потенцијалната апокалипса предизвикана од вештачката интелигенција, тој одговорил: „Не, 10 до 20 проценти“.
Изненаден од тој одговор, уредникот забележал: „Па, ќе се качите!“ На што Хинтон рече: „Се разбира. Видете, никогаш во историјата не сме се занимавале со работи поинтелигентни од нас“.
„Колку примери знаете за поинтелигентни работи кои контролираат помалку интелигентни работи? Многу малку, како мајка и дете. „Еволуцијата вложи многу труд за да му овозможи на детето да ја контролира мајката, но ова е единствениот пример за кој знам“, вели британско-канадскиот експерт.
Како почесен професор на Универзитетот во Торонто, Хинтон тврди дека луѓето ќе бидат како мали деца во споредба со интелигенцијата на моќните системи за вештачка интелигенција.
„Замислете се себеси како тригодишно дете. Ќе бидеме тригодишни деца“, додаде Хинтон.
Минатата година, Хинтон се најде во центарот на вниманието кога ја напушти својата работа во Google за слободно да зборува за ризиците што ги носи неограничениот развој на вештачката интелигенција, особено загрижен за можноста луѓето да ја користат технологијата едни против други.
Инаку, главната причина за загриженоста на голем дел од стручната јавност е тоа што развојот на генеративна вештачка интелигенција, односно системи попаметни од луѓето, може да претставува егзистенцијална закана со тоа што ќе успее да избега од човечката контрола.