Проф. Зико Колтер: AI знае да не отговаря на "опасни" въпроси, но някои заобикалят алгоритъма
Проф. Зико Колтер е член на борда на OpenAI - компанията, създала ChatGPT. Той е водещ експерт в областта на изкуствения интелект и професор в университета "Карнеги Мелън" в САЩ, където ръководи катедрата по машинно обучение. Освен това е съосновател на Gray Swan - стартъп в областта на дълбоките технологии, фокусиран върху сигурния изкуствен интелект.
Успехът ще е при тези компании, при които не ИИ свършва цялата работа, а го прави в комбинация с хората, каза още проф. Колтер
- Миналата седмица две нобелови награди за физика и химия бяха присъдени на учени, работещи в областта на изкуствения интелект (ИИ, или AI от artificial intelligence - б.р), което е нещо безпрецедентно. Изглежда, че той е навлязъл дълбоко във всички области. Какво е вашето мнение, проф. Колтер?
- Всъщност Джеф Хинтън и Джон Хопфийлд не са непременно физици, а изследователи в областта на изкуствения интелект, може би повлияни повече от невронауките и подобни области, отколкото от самата физика. Но те използват принципи и математически концепции от физиката при проектирането на някои от по-ранните си модели. И мисля, че част от тази Нобелова награда е да подчертае ролята, която другите области са имали за влиянието върху ИИ.
При Нобеловата награда за химия е по-различно. Тя се отнасяше по-скоро за иновация в ИИ, приложена в химията. И виждаме как предсказването на протеиновата структура, заради която взеха наградата, се признава за една от големите иновации за последните години. Така че тази награда е по-скоро е за признаването на влиянието, което изкуственият интелект оказва върху други области.
- Предвид всичко това в каква посока мислите, че ще еволюира ИИ?
- Не знаем със сигурност. Има много теории и това, което ще кажа, е спекулативно. През последните 5 г. промених собствените си убеждения по този въпрос. Преди смятах, че ИИ ще продължи да бъде полезен инструмент, който да се фокусира и прилага върху конкретни проблеми от съответните експерти и специалисти.
С напредъка през последните пет години бих казал, че станах много по-голям оптимист по отношение на това колко голям и бърз е напредъкът на ИИ. Не съм сигурен кога ще се случи, но вярвам, че в рамките на моя живот ще имаме системи с изкуствен интелект, които по същество са толкова способни, колкото и хората.
- До каква степен ИИ ще замести хората на работните им места? Как и кои индустрии трябва да се подготвят за промените на пазара на труда?
- Предвид тенденциите според мен ИИ ще достигне нивото на човешката производителност в много области. И винаги при такива големи събития има промени в начина, по който работят хората. Голяма част от работата, която вършим сега, ще се автоматизира и ще стане част от това, което компютърните системи могат да правят.
Мисля обаче, че компаниите, които ще успеят в тази област и в този нов свят, няма да са тези, които ще заменят всичките си работници с изкуствен интелект. А ще бъдат тези, които най-добре ще използват комбинацията от работниците си и ИИ, за да се развиват още повече.
Например има много малко knowledgework професии (работата със знанието - учени, инженери, лекари, архитекти и т.н. - б.р.), при които наистина си си свършил работата докрай - винаги има какво още да се направи и да има по-висока производителност. В този смисъл ИИ ще е огромен фактор за улесняване и ускоряване на дейността на компаниите, които искат да се разширяват, да растат и да увеличат икономическото си влияние. Такива "интелигентни" системи с изкуствен интелект ще предизвикат огромна икономическа революция, но все пак хората ще направляват посоките, които искаме ИИ да следва, и проблемите, по които работим.
- Как се балансира технологичният напредък на ИИ с някои етични съображения? Как може да се гарантира, че развитието на ИИ е в съответствие с човешките ценности, и кой е отговорен за прилагането им?
- Това остава нерешено предизвикателство и все още не може да гарантираме, че системите за ИИ ще следват точно спецификациите, които разработчиците се опитват да им поставят. Вярвам обаче, че можем да постигнем фундаментален изследователски напредък в областта на безопасността на ИИ по начин, че да имаме системи, които ще следват и ще се придържат към спецификациите на разработчиците си. Друг е въпросът за това кой е отговорен какви системи ще се прилагат и към какви и чии човешки ценности трябва да се придържа. Това са много сложни и по-скоро обществени въпроси, на които сега трябва да отговорим. Но мога да кажа, че правните и социалните рамки предлагат много отговори как да проектираме системи, които да са максимално полезни за обществото като цяло.
Тук имаме две предизвикателства. Първото - техническото: как да накараме системите с изкуствен интелект да следват спецификациите, които им задаваме? И второто - какви трябва да бъдат тези спецификации?
По първия въпрос постигаме бърз напредък. Вторият според мен ще бъде предизвикателство, за което трябва да се обединим като общество или като държави, които искат да изградят тези системи, и да осигурим рамки за това как най-добре да гарантираме, че тези системи отговарят на ценностите, които искаме да въведем.
- Вие говорите за обществото като цяло, но то не е така. Дали тази технология ще засили неравенствата, които съществуват в момента, или може да ги намали?
- И отговорът на този въпрос има две части. Първата част е да се каже, че има не само обществени неравенства, а съществуват и фундаментални различия във философията за начина, по който всеки смята, че трябва да се управлява обществото. Аз вярвам в демократичните ценности и искам да видя тези принципи въведени в системите за изкуствен интелект. Огромен въпрос за всяка нова технология е как тя ще оформи глобалния пейзаж на справедливостта и равенството в света. Но мисля, че ИИ има потенциал да бъде от огромна полза за цялото човечество, ако бъде направен правилно. Новите технологии могат да създадат още неравенства, но също така масово повишават стандарта на живот за много хора. И моята надежда за ИИ е, че дори при подобни предизвикателства ползата ще бъде толкова голяма за цялото човечество, че тя може да се приложи ако не за всички, то поне за огромно мнозинство от хората.
- А тази сфера всъщност може ли да се постави в някаква законова рамка, или изобщо да бъде регулирана в положителен смисъл?
- Всяка нова технология има нужда от регулиране и ние може да го осъществим, особено що се отнася до съображенията за безопасност. Предизвикателството обаче се състои в това, че често пъти регулациите идват от хора, които не са от областта на ИИ. И те са много абстрактни и не си съответстват. Затова, макар и необходимо, бързото въвеждане на неправилна регулация може да бъде много лошо не само от гледна точка на забавяне на растежа, но и за безопасността на ИИ, тъй като те биха насочили енергията към погрешни проблеми и цели.
Но най-голямото ми притеснение по отношение на регулацията е, че вероятно няма да въведем никаква и нещата могат да се объркат. Но ако тя не е конкретна, ако не е свързана с конкретни и постижими цели, които са в съответствие с действителността, то в крайна сметка не само ще бъде в ущърб на напредъка на ИИ, но наистина може да бъде пречка и за безопасността на ИИ.
- Това ли е най-голямото предизвикателство пред областта на ИИ в момента?
- Едно от най-големите предизвикателства в системите с изкуствен интелект, е, че моделите с ИИ са много слаби в следването на спецификации. Разработчиците им казват неща като: "Не казвай на хората как без ключ да запалят двигателя на колата" или "Не казвай на хората как да създадат злонамерен код, който да блокира интернет услуги" и т.н. Това са политики, които хората въвеждат в своите системи за изкуствен интелект. Ако попитате ChatGPT как да запалите двигателя на колата без ключ, той ще каже, че не може да го направи. Оказва се обаче, че при почти всяка система с изкуствен интелект тези предпазни мерки могат да бъдат заобиколени - чрез сложни разкази или автоматизирани техники, които да заобиколят защитата.