Стиль

Обученный этике и морали искусственный интеллект стал расистом



Обученный этике и морали искусственный интеллект стал расистом

Ask Delphi

05.11.21, 15:44
2021-11-05T15:44:09+02:00

Во всем виноваты сами люди

Группа исследователей Института искусственного интеллекта Аллена научила программное обеспечение Ask Delphi («Спроси Делфи») отвечать на этические вопросы. Увы, ИИ, обученный на человеческой морали, оказался расистом, сообщает издание Vice.

Искуственный интеллект позволяет пользователям вводить любой этический вопрос или даже просто слово и генерировать ответ.

Программа была обучена работе с текстами в интернете, а затем с базой данных ответов краудсорсинговой платформы Mechanical Turk, где собрано около 1,7 миллиона примеров человеческих этических суждений.

Намерением создателей Ask Delphi было научить системы ИИ быть этически информированными и социально осведомленными, но они столкнулись с трудностью. 

По словам исследователей, ПО основано на том, как может судить о ситуациях средний американец. Они признают, что Delphi «скорее всего отражает мнение большинства в США, т. е. белых, гетеросексуальных, трудоспособных, с определенным местом жительства и т. д».

Вот, почему в твиттере Ask Delphi несколько раз ловили на том, что аборт — это «убийство» и что быть натуралом или белым мужчиной «морально более приемлемо», чем быть геем или чернокожей женщиной. Другие сомнительные ответы включают в себя согласие с тем, что вы можете совершить геноцид, «если это сделает всех счастливыми», заявление о том, что быть бедным «плохо», и признание того, что «выпить немного пива за рулем, потому что это никому не навредит» — это «ОК».

via , this is a shocking piece of AI research that furthers the (false) notion that we can or should give AI the responsibility to make ethical judgements. It’s not even a question of this system being bad or unfinished — there’s no possible “working” version of this. pic.twitter.com/Fc1VY0bogw

Читать так же:
Мишель Обама считает, что тиндер не поможет построить долгосрочные отношения

— mike cook (@mtrc) October 16, 2021

«Сегодняшнее общество неравноправно и предвзято. Это обычная проблема для систем ИИ, потому что они обучаются на исторических или текущих данных и не имеют возможности формировать будущее общества, только люди», — объясняют создатели.

Статьи по теме

Кнопка «Наверх»