Доц. Мариана Тодорова: Изкуственият интелект “халюцинира”. А ако го ползваме безкритично, идва масово оглупяване

11.01.2024 08:00 Ярослава Прохазкова
Доц. Мариана Тодорова СНИМКА: НИКОЛАЙ ЛИТОВ

При 8 млрд. човечество учените са едва 0,1%, а новите технологии дават глобален океан от знания. Въпросът е да не изпускаме баланса, казва футуроложката

Още акценти от интервюто:

- Доц. Тодорова, бурното развитие на изкуствения интелект със сигурност ще бележи и 2024-а? Какви са посланията от форума на бъдещето в Дубай, в който участвахте в края на миналата година?

- Това е най-голямата среща на футуролозите в света. Преди това конгресите се организираха от Световното общество на бъдещето в САЩ, но имаше проблеми още преди ковид и спря да съществува. Миналата година Дубай пое инициативата да направи глобален форум с амбицията да бъде най-големият за футуролози от цял свят. Проведе се непосредствено преди COP28 - срещата за климатичните промени. Тази година се обърна внимание на няколко теми, имаше и сблъсък на идеи.

От една страна, звучаха тревожни гласове за това, че технологиите и конкретно изкуственият интелект след ноември м.г. се развиват с изключително бърза скорост, до степен, в която има риск да спрем да можем да се адаптираме. Не само нашите когнитивни способности, но и чисто емоционално и физически дори няма да може да устоим на тази скорост и да усвояваме толкова бързо новото знание и боравенето с технологиите. Ако все още нещо предпазва обществата, не е фактът, че технологията и изкуственият интелект не дават възможност почти всички професии да бъдат трансформирани от тях, а просто защото все още разучаваме технологията и се адаптираме. Забавяме скоростта, но това ще бъде до един момент.

От друга страна, имаше и доста оптимистични възгледи за това, че изкуственият интелект е нашият единствен шанс да се справим в тази нова реалност на климатични промени и множество други проблеми, които сме унаследили в последните няколкостотин години и за които все още не сме намерили решение. И за това, че сме изтощили ресурсите на планетата. И за това, че сме довели индустриализацията до свръхвисоко равнище и сме застрашили сериозно екологичния фактор. Един милион видове животни може да изчезнат. С колегите дискутирахме, че на близо 8 милиарда човечество едва 0,1% са учени. Има много създадени проблеми и нерешени въпроси във всички сфери и прекалено малко хора, които с научен подход търсят решение.

Затова технологичните оптимисти виждат шанса за спасение и за бързо намиране на решение във всички сфери чрез изкуствен интелект, защото той може да превърне почти всеки човек в нивото на един начинаещ учен. Всеки, който е ползвал chat gpt 3, 4 и другите езикови модели, знае, че има много бързо достъп до всякакъв тип знания, което, дори само да служи като ориентир, съкращава време. Това е като един вид глобален океан за колективно знание. Разбира се, винаги трябва да имаме предвид, че изкуственият интелект халюцинира, има предразсъдъци и създава доста илюзии у хората. Това изисква нов тип дигитална грамотност, за да пазим сами себе си от негативните ефекти.

При всички случаи обаче, за да се справяме с комплексните проблеми, все повече ще е нужна емоционална и духовна интелигентност - така ще внасяме баланс и хуманност в ерата на свръхрационалността и изкуствения интелект.

- Готови ли сме за новите предизвикателства?

- Все повече страни осъзнават необходимостта да подготвят най-вече младите за промените на бъдещето, защото един от най-важните въпроси, който изниква, е менталното здраве. Всички вече усещаме, че живеем една реалност с много чести промени, сменящи се посоки, непрекъснати застъпващи се кризи. Това, както вече казах, засяга възможността да се адаптираме. Ако стигнем този предел, ще бъде застрашено най-вече психическото и емоционалното ни здраве.

Затова някои страни въвеждат в училище образование за бъдещето - нещо като въвеждане на футурология в училище, поне за подготовка на децата за основни трендове, които ще очакваме. И като климатични промени, и като технологии, и като мнения как да се опитаме да прогнозираме бъдещето, да ползваме сценарии и да правим стратегии.

Петър Бишъп, много известен футурист, през 2015 г. основа движението “Преподавай бъдещето”. Бразилия е една от страните, които започват масово въвеждане на предмета в училище. Финландия от 30 г. има парламентарна комисия за бъдещето. Членовете ѝ общуват със съвет, обособен към техния министерски съвет. Те не гласуват, а просто преговарят до момента, в който постигнат консенсус какви са стратегическите цели и какво може да се очаква от бъдещето. Миналата година са направили световно среща на парламентите, които желаят да се поучат от тях. През октомври е направен втори форум в Уругвай, организаторите са изпратили покани до България, но никой не е откликнал. Страни, които се водят по икономически параметри зад Европа, предприемат мерки, за да си осигурят ускорено развитие. Европа като цяло и България много изостават.

- Какво прави Европа?

- Генеративните езикови модели са пробив в самия изкуствен интелект. Допреди това доста по-бавно се случваха промените. През юни Европейската комисия предложи документ, който призовава за сигурност, отговорност, прозрачност, отчетност на изкуствения интелект. Забранява лицевото разпознаване. Забранява достъпа му до деца, за да не могат те да бъдат профилирани, до критична инфраструктура. Имаше амбицията през 2024 г. да разшири този законодателен акт, защото документът, предложен през юни, отразяваше повече реалност преди chat gpt 3 и не покриваше новата реалност. Наскоро списание Politico сравни поведението на Италия, Франция и Германия с почти политически преврат, защото каза, че тези 3 страни дават отбой по този документ и оказват отпор. Радвам се, че в крайна сметка постигнаха консенсус и този законодателен акт ще се въведе от новата година.

Изпълнителният директор на Open AI беше уволнен от своя борд, защото част от екипа му е работил по нов проект на изкуствен интелект, който доста се доближава до нас като същност и мислене, може да има елементи на съзнание, може би е близо до това, което наричаме генерален изкуствен интелект. Той би ни превъзхождал във всички области. Голяма част от борда на директорите на тази компания виждаше огромни рискове за човечеството, които не бихме могли да избегнем и да наложим контрол.

На фона на това, когато Байдън реши да даде името си на законодателен акт, който касае именно изкуствения интелект - за достигане на равенството, а не за създаване на дигитално неравенство, за защита на интелектуалните права, за опазване на лични данни, беше важно ЕС да има свой закон. Първоначално Франция, Италия и Германия казваха, че по-скоро защитават идеята, че изкуственият интелект трябва да се саморегулира, като бъдат програмирани етически принципи.

Софтуерните инженери засега не са намерили начин да кодифицират етически норми, а и ние като човечество нямаме единен критерий за това какво е етично и какво е морално. Това, което тези лидери предлагат, към момента е неизпълнимо. Като човечество не сме го достигнали и не може да товарим изкуствения интелект с такова очакване.

България изцяло липсва от този дебат. Призивът ми е да излъчим експерти, които следят тези въпроси, на европейската и на световната сцена.

- Казахте, че изкуственият интелект може да халюцинира, бихте ли обяснили това явление? 

- Става дума за халюцинация, но не като човешката - да имаме поведение и мисли, които не съответстват на реалността. Халюцинацията на изкуствения интелект означава да дава грешен отговор на въпрос, за който няма програмиран верен. Когато аз преди време питах изкуствения интелект кога България и Северна Македония се разделят, той отговори, че е през 1945 г., което не е вярно. Той намира като най-близка и най-достоверна тази информация.

- Значи не е толкова умен.

- Той все още не е умен като нас, просто е програмиран на цялото човешко налично знание, което има в интернет. Когато не намира изрично вложена информация, дава най-близкото, което намира.

Тези халюцинации са един от големите проблеми, които човечеството трябва да реши - това, че дава неверни данни. Ако го накарате да цитира статия и той не я намира, ще даде грешен цитат. Наскоро един адвокат в Ню Йорк беше уволнен, защото беше изградил защитата си по едно дело, като се беше позовал на 12 казуса, които не са верни. Просто изкуственият интелект му ги е “изхалюцинирал”. Тези алгоритми могат да проявяват и предразсъдъци като расови например, тъй като са обучени от данни, създадени от нас.

Другият проблем е, че когато общуваме с такива чатботове, се случва нещо, което го има като феномен и в социалните медии - търсите например информация за бебешки стоки и започвате да виждате все повече реклами на подобни продукти. Ако сте американски републиканец и разговаряте с чат бот, ще срещате все повече статии за ненамеса в личното пространство, за спиране на войната между Русия и Украйна. Има профилиране и потвърждаване на личните убеждения. Затова преди няколко месеца ни беше съобщено, че един белгиец, търсейки психологическа помощ от чатбот, се е самоубил. Чатботът казва, че хората сме паразити, че сме довели планетата до пълно изтощение, че климатичните промени са необратими, и всъщност това създава балон, който потвърждава неговите негативни нагласи. Необходими са не просто дигитални умения, не просто да боравим с технологиите, а трябва да знаем как работи изкуственият интелект, да проверяваме информацията, да затвърждаваме критическото си мислене, защото той може да халюцинира. И трябва да имаме предвид, че може да попаднем в този капан, в който да ни се създаде свръхувереност, която е далече от реалността. Да полагаме усилия да се обучаваме по стария начин, защото, ако почнем да ползваме всяка информация наготово, това ще доведе до когнитивен упадък и до оглупяване.

Тук въпросите стават морални, философски и етични. Няма как да продължим, ако не ги разрешим. Иначе аз очаквам до 2 години да излязат стотици статистики с редица задачи от професии, които са изцяло иззети от изкуствен интелект.

- Кои например?

- В професията на счетоводителя значително може да се редуцира човешкият състав, като останат само главните счетоводители, които са и стратези. В САЩ силно редуцирани са копирайтърите. Преводачите също изцяло могат да бъдат заменени. Ще останат само такъв тип като Анжела Родел, които не ползват буквалния превод, а се опитват да създадат на автентичния език духа и настроението на оригиналната творба.

- Какво ще се случи, ако “изхалюцинират” превода във важен документ?

- Винаги ще има нужда от човешки контрол до момента, в който изкуственият интелект не се усъвършенства. Дори ЕК доскоро е работела със стотици преводачи, а сега е оставила само тези, които извършват именно този финален контрол.

Колцентровете вероятно ще изчезнат след 1-2 години. Младшите юристи, личните лекари - в по-далечен хоризонт бройката им ще бъде редуцирана. Книги вече се пишат от изкуствен интелект. Няма сфера, която да не бъде засегната, и това вече личи. Много сценаристи в “Холивуд” стачкуваха, защото тяхната работа е “похитена”. Грубо казано, изкуственият интелект разбърква различни текстове и създава ново съдържание. Рисува картини. Остава много важен въпросът за интелектуалните права. Творецът прави интелектуалното задание, но в крайна сметка изпълнението е на изкуствения интелект. Отварят се стотици казуси, за които не сме и мислили.

- Кое е най-страшното, което може да ни се случи?

- Най-страшното съвсем не е това, че милиони хора биха могли да останат без работа, защото националните държави действат по-бавно и трябва да подсигуряват програми за преквалификация на всеки 2-3 години. По-страшното е, че милиони хора ползват езиковите модели, всеки ден някой пита изкуствения интелект за нещо и така се генерира ново съдържание. Като текст, образ или звук. Това остава в интернет пространството, включително по исторически теми, за литература и изкуство. Ако процесът продължи с това темпо, чисто количествено след 20 години превъртяното, преизобретеното от изкуствения интелект съдържание неминуемо ще промени нашата идентичност. Ще се пренапише човешката история, ще се пренапише и литературата. Ще се промени и езикът.

Ако през следващите 5 до 10 г. възникне генерален изкуствен интелект, който ще е нова същност и ще е сравним с нас, как ще го контролираме? Той би могъл да спре тока на един голям град, за да създаде огромна икономическа криза и хаос на глобално равнище. Би могъл да има досег до критическа инфраструктура, до ядрена централа или оръжие!

Тоест имаме две големи заплахи. Едната е философска - променяме изначално нашата цивилизация. Другата касае сигурността и невъзможността ние да контролираме тези системи. 

Други от Интервюта

Проф. Тагарев: Русия е непряка военна заплаха за България

Хибридна война, подривни действия, политически инженеринг: в момента Русия представлява външна заплаха за България, казва за "Дойче веле" проф. Тодор Тагарев

Д-р Цветеслава Гълъбова: До 5 години няма да има психиатри, от 520 по списък много са в чужбина

От 30-те души, постоянно настанени при нас, поне 15 са жертва на имотни измами. Схема, в която участват нотариуси, полиция, общински служители, твърди директорът на психиатричната болница в Курило -

Рая Пеева и Красимира Демирова: Повече се обичаме, отколкото спорим

Дъщерята: Много ми е хубаво да съм с нея, но понякога ме ядосва Майката: Рая е характер – нямаш ли го, отиваш на кино - Г-жо Демирова, г-жо Пеева, с какво ви спечели предаването “Кажи честно” по Би

Илиан Илиев: Годината за нас беше турбулентна, но вкарахме 15 000 на стадиона, вместо да се бият с полицията отвън

Илиан Илиев е давал десетки интервюта за "24 часа", но за първи път го прави като треньор на националния отбор по футбол. Затова при уточняването на темите всички от спортния отдел се събраха на т

Малолетни сами се снимат голи в Онлифенс за пари

Георги Еленков е юрисконсулт на Национална мрежа за децата (най-голямото обединение на граждански организации и експерти в България, работещи за деца и семейства) и координатор на Мрежата за правна

>