Читать нас в Telegram
© flickr.com

Недавнее исследование ученых из Массачусетского технологического института раскрыло подробности процесса анализа данных искусственным интеллектом, который нередко руководствуется сексистскими и расистскими стереотипами в принятии решений. Сразу несколько систем, участвовавших в эксперименте, продемонстрировали подверженность человеческим предрассудкам.

Британская газета «The Daily Mail» пишет, что после получения результатов исследования команда ученых взялась перепрограммировать искусственный интеллект, устраняя предыдущие неполадки. По словам Ирен Чен, работающей в Массачусетском технологическом институте, компьютерные специалисты обычно торопятся с выводом, что единственный способ устранить элементы расизма и сексизма в алгоритмах искусственного интеллекта — улучшить программный код. Качество алгоритмов прямо пропорционально данным, за счет которых они работают. Исследование, проведенное Чен совместно с Дэвидом Сонтагом и Фредриком Д. Йоханнсоном, показывает, что большее количество доступных данных может радикально изменить ситуацию в лучшую сторону.

В одном из экспериментов команда рассматривала систему, которая предсказывала доход человека, исходя из имеющейся информации. Как показал анализ, в 50% случаев алгоритм склонен предсказывать, что доход женщины будет в среднем меньше, чем доход мужчины. Увеличив объем доступных данных в 10 раз, ученые обнаружили, что фактор подобной ошибки уменьшился на 40%.

Более того, при исследовании системы, которая используется в больницах и предсказывает выживаемость пациентов, перенесших тяжелые операции, точность предсказаний была намного меньше для представителей монголоидной расы, чем для европеоидов и негроидов. Однако ученые утверждают, что применение техники расширенного анализа может существенно понизить точность предсказания для пациентов, не относящихся к монголоидной расе. Это показывает, что большее количество доступных данных не всегда может исправить ошибки в алгоритме. Вместо этого ученые должны получать больше информации о дискриминированных группах.

Новый метод ставит еще один вопрос для исследователей в области машинного обучения о том, как наладить эффективный анализ данных без существующей дискриминации.

Как работает машинное обучение в системах, основанных на искусственном интеллекте?

Системы искусственного интеллекта имеют в своей основе искусственные нейронные сети (ИНС), которые экстраполируют технику запоминания информации и обучения, используемую человеческим мозгом, на механические системы. ИНС тренируются находить закономерности в доступных источниках информации, включая речь, текст и изображения. Повышение точности анализа данных — одна из фундаментальных предпосылок, предшествующих последним разработкам в области искусственного интеллекта.

«Обычный» искусственный интеллект использует входящие данные, для того чтобы рассказать алгоритму о предмете анализа, оперируя при этом огромным количеством информации.

Практическое применение машинного обучения включает в себя сервисы перевода Google, опознавание лиц по фотографиям в Facebook и фильтры в Snapchat, которые сканируют лица, перед тем как применить визуальный эффект в режиме онлайн.

Процесс введения данных часто занимает много времени и обычно ограничен потоком информации об одном аспекте изучаемого объекта. Новый тип ИНС — генеративно-состязательная нейронная сеть — противопоставляет возможности сразу двух разных роботов с искусственным интеллектом, провоцируя менее сообразительную систему обучаться за счет второй без участия человека. Этот метод значительно повышает эффективность и скорость машинного обучения, в то же время увеличивая качество анализа данных.

Источник: The psychobabble behind the ‘AI is racist’ claim