адв. Стефан Ангелов, ПДИ


Бележки и размисли след конференцията „Навигиране в променящия се свят“ на участвалите в обученията от Центъра по Световен ред и на Фондация Фридрих Науман (Северна Америка) [1][2]

адв. Стефан Ангелов

 

От години се говори за напредъка на технологиите с изкуствен интелект. Днес те са все по близо до широко използване в различни сфери. Развитието на конкуренцията в новите технологии вече не е съсредоточено върху данните, а върху развитието на изкуствен(и) интелект(и). Основната конкуренция се случва между САЩ и Китай, докато ЕС изостава. Според оценки на Голдман Сакс и други 1/4 от работните места или ок. 300 милиона работни места в САЩ и Европа могат да бъдат автоматизирани, т.е. хората да бъдат заместени от роботи.

 

Новите технологии с изкуствен интелект (ИИ), които се имат предвид тук, се наричат общо на английски „generative artificial intelligence“. Това може да се преведе доста автоматично като „генеративен ИИ“ или с използването на дума със славянски корен „пораждащ ИИ“, по-долу ще използваме втория превод.

 

Докладът на Голдман Сакс, определя технологиите с пораждащ ИИ, като ChatGPT, DALL-E и LaMDA, като отличаващи се с три основни характеристики: 1) техният общ, а не специализиран характер на използване, 2) техните способности за създаване на нови, сякаш дадени от човек отговори вместо просто описание или интерпретация на вече съществуваща информация и 3) достъпните им интерфейси, които разбират и отговарят с естествен език, изображения, аудио и видео.

 

Пораждащият ИИ ще промени начина на мислене – лаптопите ще станат помощници в мисленето, но това е само върхът на айсберга. Роботите напреднаха много в последните години. Представете си робот с такова ниво на ИИ. Някои модели ИИ могат да заместят интериорни дизайнери и архитекти, други могат да пишат научни статии. Разликата между хората, които имат технологията и тези, които нямат, ще стане огромна.

 

Изкуственият интелект не е просто някъде в бъдещето, а вече навлиза в ежедневието на много хора. Макар и несъвършени, пораждащите ИИ и конкретно големите езикови модели като ChatGPT вече се използват в Танзания чрез приложението Мтабе за предоставяне на учебно съдържание на ученици, които не могат да си позволят учебници и нямат достъп до интернет. Тази функционалност се предоставя под формата на въпроси и отговори чрез кратки мобилни съобщения (SMS), което освобождава ползвателя от нуждата да има връзка с интернет. Следващо развитие, предвидeно от Мтабе, е създаването на услуга, която отново чрез кратки мобилни съобщения ще използва ChatGPT да превежда и обяснява на работници трудовите им договори, сключени на чужд и непознат език.

 

Този пример от една страна показва част от преките ползи, които пораждащите ИИ могат още днес да донесат на хората, но, от друга, поражда и доста въпроси. В описаните ситуации единственият източник на информация е пораждащият ИИ. Както обаче скорошна статия в New Yorker обяснява, ChatGPT е по-скоро неясна картинка на мрежата. Той е построен така че да не дава цитати на конкретни документи или информация, а отговори с подобна на човешка реч, зад които стоят статистически приближения. Иначе казано повечето от отговорите на ChatGPT не са гарантирано верни, а статистически приблизително вероятни. Ако обаче този или подобен пораждащ ИИ се превърне в наш помощник в мисленето и бъде внедрен като посредник в отношенията ни с например администрацията, както вече се случва в някои американски градове, как ще разбираме дали това, което ни казва е пълната и точна истина? Функционирането на големите езикови модели и предхождащите ги дълбоки невронни мрежи е толкова сложно, че често дори специалист в сферата трудно може да провери и проследи на обратно „мисловния“ им процес. Със сигурност няма да има достатъчно специалисти, които при нужда да могат да проверят за достоверност всяко или дори една част от решенията на пораждащите ИИ.

 

Следователно въвеждането на ИИ като посредници в човешките отношения всъщност е заплаха за прозрачността и обективността в тях. Освен това, решението на този очертаващ се проблем, предвид сложността на технологиите и обема на обработвана информация, най-вероятно няма да се осланя единствено на човешкия фактор. Решението също ще се търси и отвъд проблема с прозрачността на алгоритмите. Един човек експерт в ИИ може и да разбере как работи един алгоритъм, но трудно ще проследи приложението на алгоритъма в стотиците хиляди итерации, изграждащи дори само един „мисловен“ процес. Отново технологиите ще имат ключова роля. Вероятното ни бъдеще се очертава в сътрудничество с помощници в мисленето, които ще извършват проверки за нашите цели и ще удостоверяват верността на информацията, пък било то и когато информацията е обяснението на един документ или договор на чужд език.



[1] Conference for World Order and Globalization Hub, International Experts, „Navigating a World in Upheaval:

The FNF World Order and Globalization Hub Alumni Conference“, 26-30 Март 2023, Атланта, Джорджия, САЩ https://www.facebook.com/photo.php?fbid=517083990597614&set=a.160916622881021&type=3

[2]Горните редове са вдъхновени от данните и коментарите изложени от участниците в сесиите „Икономиката след пандемията и бъдещето на труда“ и „Навигиране в пресечната точка между бизнес и човешки права“. Благодаря на всички за ценните идеи и думи. Неточностите, грешките и недомислията са изцяло на автора.

 

© 2023 Програма Достъп до Информация
Материалите в Информационния бюлетин на Програма Достъп до Информация са обект на авторско право.
При цитиране позоваването на източника е задължително.