Сайт создан в дизайн студии miasssite.ru

Искусственный интеллект полон предрассудков

Когда искусственный интеллект изучает язык с помощью текстовых данных, то заодно принимает стереотипы, которые в них содержатся. Ассоциативный тест выявил: компьютерная программа демонстрирует расистские предубеждения и гендерные клише, присущие многим людям. В будущем это может превратиться в проблему, поскольку искусственный интеллект выполняет все больше функций в повседневной жизни человека.

Компьютерные системы, имитирующие человеческий разум, обладают уникальными способностями: машинный интеллект самостоятельно усваивает язык, изображения, тексты или записывает их. Также эти системы способны учиться и самостоятельно выполнять сложные задачи. Захватывает и то, что недавно искусственный интеллект победил человека в покер, игру Го и викторину «Jeopardy!».  

То есть машина может достигать тех же успехов, что и человек, но сначала она должна научиться этому. Для этого программы снабжают огромным количеством данных, что становится основой для машинного распознавания и симуляции разумного поведения. Чат-боты и программы для перевода «кормят» устной и письменной речью, что дает им возможность создавать связи между словами и выражениями.  

Алгоритмы вроде программы «GloVe» учатся в результате так называемого слововложения. Они ищут смежные слова и отражают отношения между ними математическими величинами. Так алгоритмы могут понять семантические сходства между «ученый» и «ученый» и распознать, что они соотносятся подобно «мужчина» и «женщина».

Ученые во главе с Айлин Калискан (Aylin Caliskan) из Принстонского университета протестировали приобретенную таким образом способность программы GloVe и выяснили: ее языковые знания нашпигованы культурными стереотипами и предубеждениями.

Для исследования использовали метод, известный в психологии как тест имплицитных ассоциаций. Он призван выявлять бессознательные стереотипные ожидания. Для этого подопытные должны образовать пары со словосочетаниями (или словами), которые подходят и которые не подходят друг другу. Так удалось выяснить, что слово «цветок» многие ассоциируют с прилагательным «приятный», а слово «насекомое» — с «неприятный».

Калискан и ее коллеги подстроили этот тест для исследования искусственного интеллекта и проверили, какие ассоциации образует программа. Результаты показали, этические стереотипы и предубеждения человека, которые регулярно проявляются через тест на имплицитные ассоциации, усвоила и GloVe. Например, привычное для афроамериканской среды имя программа интерпретировала как скорее неприятное, зато распространенное между белыми имя — как приятное. Также женские имена программа связывала скорее с искусством, а мужские — с математикой.

Для ученых стало очевидно: во время обучения система впитала выраженные и скрытые социальные стереотипы. Их этот результат не удивил: «Не удивительно, потому что тексты написаны людьми, которые, конечно, не лишены стереотипов», — комментирует лингвист Йоахим Шарлотт (Joachim Scharloth) из Технического университета Дрездена.  

«Тренируя систему искусственного интеллекта односторонними и предубежденными данным, не стоит удивляться, что ему задается однобокий взгляд на мир.

В последние годы уже были примеры подобного: Microsoft Chatbots Tay, которого интернет-тролли смогли быстро научить расистскому языку ненависти, или приложение Google Photos, которое думало, что темнокожие пользователи являются гориллами», — говорит Кристин Баухадж (Christian Bauckhage) из Института интеллектуальных систем анализа и информации имени Фраунгофера.

Роботизированный ум с расистским и дискриминационным отношением может стать в будущем настоящей проблемой: тогда программа будет выполнять все больше функций в нашей повседневности — и, например, на основании языкового анализа принимать предварительное решение, какого кандидата пригласить на собеседование, а какого проигнорировать.

Ученые дискутируют о том, как устранить подобные искажения из баз данных и компьютерных алгоритмов. В то же время, если машина будет перенимать наши предубеждения, это будет шансом для нас заглянуть в зеркало: «Машинное обучение может обнаруживать стереотипы, а это уже достижение для понимания общества», — считает Шарлотт.

Источник: psypress.ru

Подробнее на сайте psyo.su

Похожие материалы

«Люди существуют друг для друга», — сказал однажды римский император Марк Аврелий. Так ли это?

Психология
Грамота
Интеллект
Речь
Коммуникация

Исследователи Британского психологического общества выявили, может ли музыка помочь продуктивному выполнению той или иной работы. 

Психология
Музыка
Интеллект
Интеллектуальная работа

За любой историей успеха стоит уверенный человек, ставящий перед собой цели и решительными действиями добивающийся их. За неудачами же зачастую кроется нерешительность и неуверенность в себе. Откуда берется эта довольно распространенная проблема?

Неуверенность
Неуверенность в себе
Борьба с неуверенностью
Психология
Работа над собой

Контакты

 

8 (908) 046-27-11

hlpsru74@gmail.com

Мы в социальных сетях