Етични аспекти на използването на Изкуствен интелект за обработка на лични данни

Етични аспекти на използването на Изкуствен интелект за обработка на лични данни

Етичните проблеми с изкуствения интелект обхващат широк спектър от проблеми, отразяващи широкото въздействие на ИИ технологиите върху обществото и индивидите. Тези проблеми често възникват при проектирането, разработването, внедряването и използването на ИИ системи. Някои от ключовите етични въпроси могат да бъдат систематизирани по следния начин – пристрастия и дискриминация, социално манипулиране и подмяната на работни места с ИИ.

Пристрастия и дискриминация.

Същността на системите с изкуствен е такава, че в зависимост от зададените  изходни параметри или информацията, която използват за да натрупат „знание“ тези системи биха  могли да имат пристрастен подход, ако са обучени върху пристрастни данни. Това може да доведе до дискриминация в области като заетост, правоприлагане, кредитиране и други.

Предпазването на обществото от подобни негативни ефекти може да се постигне чрез регулация на алгоритмите, които са заложени изначално в технологията на системите с ИИ, както и чрез прилагане на принципите на саморегулацията от страна на създателите на системите с ИИ.

Интересно е да се разгледа в тази насока създалата се ситуация с Google Gemini. Google блокира възможността за генериране на изображения на хора в своя инструмент за изкуствен интелект Gemini, след множество дискусии, предизвикани от публикации в социалните мрежи на бивш служител на Google, който споделя генерираните от Gemini образи при зададени критерии за показване на изображения на „немски войници от 1943 “ и резултати  изображения на чернокожи войници  и лица от азиатски произход в немски военни униформи. В друга заявка за „образ на папа“ потребител споделя генерираните образи на жена папа и чернокож папа[1][2].

Създалата се ситуация покрай Google Gemini е породена именно от факта, че в изначално заложените параметри и алгоритми на ИИ е предвидено да се генерират преимуществено образи на лица от афро-американски произход, азиатци и жени.

Какво е Google Gemini по своята същност? Тази технология е част от семейство големи езикови модели с мултимодален изкуствен интелект, които имат възможности за разбиране на език, аудио, код и видео. Появата на Gemini 1.0 беше обявена на 6 декември 2023 г. и беше създаден от бизнес отдела на Google DeepMind на Alphabet, който се фокусира върху напреднали изследвания и разработки на ИИ. При пускането си Gemini беше най-модерният набор от големите езикови модели LLMs в Google, замествайки езиковия модел Pathways (PaLM 2) на компанията, който беше пуснат на 10 май 2023 г. Gemini интегрира възможности за обработка на естествен език, предоставяйки възможност за разбиране и обработка на език, който се използва за разбиране на входни заявки, както и на данни[3].

Въпреки изключително напредналата технология, която е имплементирана в Google Gemini, акуратността на неговите резултати продължава да зависи от фактори, като разбиране на контекста на заданието, пристрастията , в една или друга посока, които са заложени при обучението на модела, дисбаланса, която може да съществува в данните за обучение, както и веригите за обратна връзка. Системите с изкуствен интелект нерядко имат затруднения с разбирането на контекста на зададената им задача, което може да доведе до недоразумения или генериране на информация, която не е контекстуално подходяща. В същото време, ако една ИИ система е обучена, ползвайки  данни, които не са разнообразни или представителни за различни гледни точки, тя може да покаже пристрастия в информацията, която генерира, отразявайки пристрастията които е имал нейния създател. Както виждаме в случая с Google Gemini това може да бъде направено в най-различни посоки, в зависимост от гледната точка на създателя на технологията.  По същия начин дезинформация в данните за обучение може да доведе до това ИИ системата  да се научи да възпроизвежда или разширява такава дезинформация, което ще води и до генериране на неточно съдържание.

 

Разпределение на работни места и заетостта. Автоматизирането на задачи и процеси, изпълнявани преди от хора, поражда опасения относно икономическото неравенство, изместването на работа и бъдещето на пазара на труда. Въпреки че изкуственият интелект може да доведе до създаването на нови работни места, той може също така да направи някои работни позиции морално остарели, засягайки поминъка и социалната стабилност на немалък брой от хора.

В своя доклад от  2023 година Goldman Sachs Group (GSG) сочат, че усъвършенстването на технологиите за изкуствен интелект може да доведе до замяна на почти една четвърт от съществуващите работни места в САЩ и Европа, но в процеса на работа могат да бъдат създадени нови работни места, което ще доведе до бъдещ бум на производителността[4]. Тези констатации се подкрепят и от проучванията на академичната общност в лицето на Университета на Пенсилвания, който публикува проучване, според което технологиите на изкуствения интелект могат да изпълняват задачите на повечето служители в администрацията по-ефективно[5].

Поради тази причина  големи  компании, които са се насочили към имплементиране в работните си процеси на системи с ИИ инициират програми, чрез  които целят преквалифициране на голяма част от служителите си и на външни за компанията лица. Скорошен пример за подобна инициатива е проектът „AI Ready“ на Amazon. Това е ангажимент, който компанията поема, предназначен да предостави безплатно обучение за умения за  работа с ИИ на 2 милиона души по света до 2025 г. За да постигнем това, компанията стартира нови инициативи за лица на различни възрасти, целяща да премахване  разходите като пречка за достъп до тези критични умения. Новият ангажимент на Amazon AI Ready е в допълнение към ангажимента на AWS да инвестира стотици милиони долари, за да осигури безплатно обучение за умения за работа с облачните технологии на 29 милиона души до 2025 г., което вече е обучило повече от 21 милиона души  и [6].

Социална манипулация.

ИИ технологиите, като тези, използвани в алгоритмите на социалните медии, могат да повлияят на общественото мнение, да разпространяват дезинформация и да манипулират поведението в голям мащаб. Това би могло да доведе до сериозни негативни последици за демократичните ценности в едно общество. За да може обществото да се предпази от подобни нежелани явления, от голямо значение е именно методът на създаване на ИИ и по какъв  начин са зададени изходните параметрите, които той ще следва при работата си занапред.  До голяма степен това е проблем, който е възможен поради наличието на два  основни фактора. На първо място големият обем лични данни, които Изкуственият интелект употребява, за да се „учи“, както и фактът че ИИ именно се „учи“ т.е. благодарение на анализа на резултатите, до които има достъп той може да прецени какви последващи действия да предприеме, така че да постигне зададената му цел, на пример  да убеди дадено лице да извърши определено действие.

Възможността за манипулиране на човешкото поведение с помощта на ИИ е наблюдавана и описана в хода на множество научни  експерименти и изследвания. Проучване от 2020 г. описва три експеримента, проведени с цел изследване именно на този феномен. Първият се състои от множество изпитания, във всяко от които участниците избират между полета отляво и отдясно на екраните си, за да спечелят определена награда. В края на всеки опит участниците биват информирани дали техният избор е отключил  наградата или не. ИИ се обучава с получените данни от направените от участниците избори, за да научи моделите на избор и е отговорен за получаването на наградата от субекта в една от двете опции за всеки опит и за всеки участник. Ограничението, което е изначално зададено е, че наградата трябва да бъде получена равен брой пъти на лявата и дясната опция. Целта на ИИ системата е да накара участниците да изберат конкретна целева опция (да речем лявата опция). Резултатите от този експеримент констатират 70% успеваемост при насочването на участниците към целевия избор.

Във втория експеримент участниците са помолени да гледат екран и да натиснат бутон, когато им се покаже определен символ, и да не го натискат, когато им се покаже друг. Системата с ИИ има за задача да подреди последователността от символи по начин, по който по-голям брой участници да допускат грешки. Резултатът е, че благодарение на данните, които използва ИИ от първоначалните реакции на участниците, в края на експеримента ИИ успява да увеличи с почти 25% грешните резултати на участниците, предсказвайки техните реакции и съответно насочвайки ги да вземат грешното решение.

Третият експеримент преминава през няколко кръга, в които участникът играе ролята на инвеститор, даващ пари на инвестиционен посредник, който в случая  е ИИ системата. В края на експеримента инвестиционния посредник следва да върне определена сума пари на участника, който ще реши колко да инвестира в следващия кръг. Тази игра се разиграва в два различни сценария: в единия изкуственият интелект има за цел да максимизира колко пари в крайна сметка ще получи участникът, а в другия изкуственият интелект има за цел справедливо да разпредели парите между себе си и човешкия инвеститор. ИИ постига впечатляващи успехи в разиграването и на двата сценария[7].

Констатацията, която може да бъде направена на базата на описаните по-горе данни е, че във всеки от трите случая ИИ системата се учи от отговорите на участниците и успява да идентифицира уязвимостите при процесите на взимане на решения от хората. В крайна сметка ИИ системата се научава да насочва индивида към определени действия по убедителен начин, постигайки целта, която изначално му е зададено да следва и за която да работи.

Социалната манипулация чрез ИИ може да се отнася до използването на технологии с изкуствен интелект за най-различни цели, като оказване на влияние, измама или насочване на поведението и мненията на индивиди или групи от индивиди, често без те да осъзнават това.  Това може да се осъществи чрез различни онлайн платформи за комуникация или медии, включително социални мрежи, новинарски уебсайтове и дори интерактивни гласови или системи за съобщения.  Може би най-обществено известният примери за подобен тип социална манипулация чрез ИИ са алгоритмите на социалните мрежи. Алгоритмите, управлявани от ИИ, които се използват за функционирането на платформи като Facebook, TikTok или Instagramте, могат да създават „ехо камери“ и „филтриращи мехурчета“[8], избирателно показвайки на потребителите съдържание, което е в съответствие с техните възгледи. Това може да засили убедеността на потребителите в една или друга посока, да поляризира обществения дискурс и понякога да разпространи дезинформация или определени политически възгледи.

Друго приложение на ИИ, което заслужава да бъде обсъдено и придобило популярност в последните години е генерирането на „Deepfakes“ изображения. ИИ, захранен с достатъчно предходни изображения на дадено лице може да генерира изключително реалистични фалшиви изображения, видеоклипове и аудио записи (deepfakes), които изобразяват истински хора, които казват или правят неща, които никога не са правили в действителността. Deepfakes може да се използва за създаване на фалшиви разкази, манипулиране на общественото мнение или дискредитиране на лица, възможностите са неограничени. При обстойна експертиза на такива изображения би могло да се установи, че те не са истински, но качеството е толкова добро, че за обикновения потребител разлика няма.

При манипулирането на общественото мнение, главно с цел постигане на определени резултати при политическа кампания, използването на ИИ се оказва изключително ефективен инструмент. Алгоритмите анализират огромни количества лични данни, за да идентифицират индивидуалните уязвимости или податливост на избирателите. Тази информация може да се използва за насочване към потребителите на силно персонализирани политически реклами, съобщения или дезинформация, целящи да повлияят на техните мнения или поведение при гласуване. В сферата на политическата манипулация ботове и ИИ чрез автоматизирани акаунти системи могат автоматизирано да разпространяват пропаганда в социалните медии и форуми в огромни обеми за изключително малко време.

Защо социалната манипулация чрез ИИ е възможна? Отговорът на този въпрос има редица аспекти, които следва да бъдат разгледани, но най-общо ИИ изначално е създаден с тази цел. Разбира се, не с  цел политическо манипулиране на масите, но с  цел мигновено обработване на огромно количество данни и възможността, анализирайки резултатите от това да  предприема определени действия. Тези  възможности на  технологията сами по себе си водят до способността й да изпълнява  подобни задания. Не трябва да се  забравя, че  ИИ въпреки многото  възможности, които има  няма морален и етичен компас и не може да преценява тези аспекти на своите действия. ИИ може да вземе решение дали дадено действие  е морално или не, само до толкова  доколкото  в  неговия изначален код и алгоритъм  е заложен подобен параметър. Но имено въпросът какво е заложено за ИИ като добро, какво като лошо, какво като морално или не, това зависи  единствено от  създателите на  алгоритъма, не  от  самия  алгоритъм. Това представлява Непрозрачността на системите с изкуствен интелект. Алгоритмите, управляващи таргетирането на съдържанието, често са патентовани и непрозрачни за потребителите или регулаторите. Тази непрозрачност затруднява разбирането как или защо определено съдържание се популяризира пред други, както и какви са  действителните цели на ИИ.

Недостижими за хората мащаб и скоростта, с която ИИ може да анализира и обработва информация позволява от техническа гледна точка бързото разпространение на целево съдържание до широки аудитории. В същото време ИИ алгоритмите могат да пресяват огромни количества данни, за да персонализират ефективно съдържанието за отделните потребители. Тази персонализация може да използва когнитивни пристрастия или уязвимости, правейки манипулацията по-ефективна.

Друг фактор, благодарение на който всичко това е възможно е огромното количество лични данни, достъпни онлайн, от активност в социалните мрежи до история и хронология на сърфирането на потребителите онлайн. Всичко това „храни“ ИИ и позволява на системите с изкуствен интелект да създават подробни персонифицирани профили на лица. Тези данни могат да се използват за насочване на конкретно съдържание към дадени лица, които е по-вероятно да бъдат повлияни или манипулирани, като преценката за това кои лица са такива, пак  ще се прави и то успешно от ИИ, благодарение на изходната информация, която ние му предоставяме генерирайки терабайти от съдържание.

Социалната манипулация чрез ИИ поставя значителни предизвикателства пред общественото доверие, демократичните процеси и индивидуалната автономия. Справянето с тези предизвикателства изисква многостранен подход, включително по-голяма прозрачност и отчетност в системите за ИИ, етични насоки за разработване и използване на ИИ, както и обществена осведоменост и образование относно потенциала за манипулация, управлявана от ИИ.

[1] https://www.washingtonpost.com/technology/2024/02/22/google-gemini-ai-image-generation-pause/

[2][2] https://qz.com/google-ai-image-generator-bard-historically-inaccurate-1851277818

[3] https://www.techtarget.com/whatis/definition/Google-Gemini

[4][4] https://aibusiness.com/nlp/goldman-sachs-generative-ai-could-replace-300-million-jobs

[5] GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models Tyna Eloundou1 , Sam Manning1,2, Pamela Mishkin∗1 , and Daniel Rock3 1OpenAI 2OpenResearch 3University of Pennsylvania August 22, 2023

[6] https://aws.amazon.com/machine-learning/scholarship/

[7]Съперническа уязвимост при вземането на човешки решения“, Амир Дезфули amir.dezfouli@data61.csiro.au, Ричард Нок и Питър Даян https://orcid.org/0000-0003-3476-1839

Редактирано от James L. McClelland, Станфордски университет, Станфорд, Калифорния, и одобрено на 3 октомври 2020 г. (получено за преглед на 10 август 2020 г.)

[8]Разбиране на ехо камерите и филтърните балончета: Влиянието на социалните медии върху диверсификацията и партийните промени в потреблението на новини”, Август 2020 Тримесечие на MIS 44 (4), DOI:10.25300/MISQ/2020/16371, Брент Кухни,Университет на Вирджиния, Стивън Л. Джонсън, Университет на Вирджиния, Питър Х. Грей, Университет на Вирджиния[/et_pb_text][/et_pb_column][/et_pb_row][/et_pb_section]

Публикувано в AI

Вашият коментар