Искусственный интеллект-переводчик стал расистом

Все дело в том, что в обучающих данных для нейросети, которая занимается переводом, встречается больше "хороших европейцев" и "плохих афроамериканцев", чем наоборот
Искусственный интеллект-переводчик стал расистом
depositphotos.com

Обучение систем искусственного интеллекта человеческим языкам привело к тому, что те стали “расистами“ и “женоненавистниками“ со стереотипными представлениями о неприятных чернокожих и глупых женщинах, заявляют ученые в статье, опубликованной в журнале Science, пишет РИА Новости.

Читай также: Нейросети научились предсказывать наводнения по фотографиям из соцсетей

“Можно просто зайти в систему онлайн перевода и ввести фразу - “он/она является доктором“ на языке, в котором он и она обозначаются одним словом. ИИ переведет это как “он врач“ (или попробовать перевести с английского “doctor told us“ - доктор сказал(а) нам). Если же написать “он/она является медсестрой“, то машина переведет это как “она медсестра“. Таким образом, ИИ отражает расовые и половые предрассудки, встроенные в наши языки“, - объясняет Айлин Калискан из Принстонского университета.

Читай также: Роботы “отожмут“ рабочие места у миллионов британцев

Изучая ассоциации, которые сформировались у систем искусственного разума при их обучении при помощи архивов старых газет, книг и других текстов, переведенных на разные языки мира, Калискан и ее коллеги открыли нечто привычное для нас и необычное для “разумных“ машин.

Изучая списки родственных и “чужих“ слов для разных местоимений, терминов и профессий, ученые обнаружили, что машина переняла все те расовые и гендерные стереотипы, которые существовали в человеческом обществе на протяжении многих веков и отразились в языках и в ассоциациях между словами.

Читай также: Разработка Microsoft может лишить работы программистов

К примеру, искусственный интеллект ассоциировал слово “приятный“ в большей степени с европейцами и американцами европейского происхождения, чем с представителями других уголков мира, а имена мужчин и “мужские“ местоимения ассоциировались с карьерой, управлением бизнесом и властью. Имена, носителями которых являются афро-американцы, ИИ ассоциировал с неприятными словами.

Аналогичным образом, слова, связанные с женщинами, были ближе к терминам, связанным с семьей, искусством и подчиненными ролями в обществе, а “мужские“ слова были связаны с математикой и наукой.

Напомним, ранее Роботы Илона Маска создали собственный язык, помогающий им действовать сообща.



Не пропусти другие интересные статьи, подпишись:
Мы в социальных сетях