Искусственный интеллект может развиваться и без предварительного воздействия человеческих предубеждений. Компьютерные симуляции с умными ботами свидетельствуют: компьютерный разум принимает предвзятую поведение, наблюдая за другими машинами и копируя их действия. Так возникает динамика, известная и в человеческом сообществе, сообщают ученые на сайте Кардиффского университета.
Компьютерные системы, подражают человеческий интеллект, наделены невероятными умениями: мозг машины самостоятельно способен проанализировать язык, картинки и тексты, он может даже их создавать. Кроме того, машины учатся друг у друга и с легкостью справляются со сложными задачами. Со временем в нашей повседневной жизни все больше задач выполнять искусственный интеллект (ИИ).
И сейчас вырисовывается проблема: ввиду того, что свои умения эти системы часто усваивали на основании данных, которые предоставила человек, они перенимали человеческие предубеждения. В результате развивается, в частности, расистский или сексистский ум.
Но мало того: недавно ученые доказали, что искусственный интеллект может развивать собственные стереотипы и без нашего, человеческого, воздействия.
Для своего исследования Роджер Уитакер (Roger Withaker) и его коллеги из Кардиффского университета с помощью компьютерной симуляции проанализировали, как возникают и набирают обороты предубеждения. В своей модели они объединили 100 разумных ботов в игре «дата-взять», в которой машины отдавали деньги кому-то из команды или участнику за пределами собственной группы. Кого выбрать, виртуальные субъекты решали на основании собственной игровой стратегии и репутации других индивидов. Кто с кем взаимодействовал, а кого лишали пожертвований?
« Осуществляя эту симуляцию тысячи раз, мы смогли распознать, как может развиваться предубеждения относительно другого и условия этому способствуют», - пояснил Уитакер.
Результаты показали, что дольше ученые осуществляли симуляцию, то упередженишимы становились боты. Со временем в них появлялась тенденция все чаще лишать денег субъектов из других групп и обмениваться исключительно в пределах собственной группы.
Коротко говоря: работы все сильнее развивали предубеждения относительно « другого ». При этом Уитакер с коллегами заметил: умные боты приспосабливали свои игровые стратегии, копируя других участников - тех, что в кратчайшие сроки собрали больше денег, то есть самых успешных. Так возникают группы участников, ведут себя подобно и, как следствие, отграничиваются от не связанных с ними субъектами. Особенно высоким уровень предубеждений был тогда, когда вместо большого количества групп внутри виртуальной популяции было скорее немного.
Боты научились своей предвзятости сугубо через копирование других компьютерных мозгов. « Это доказывает, что для развития предубеждений не нужны высшие когнитивные способности », - написали ученые. По их мнению, то, что искусственный интеллект не требует никаких данных, сделанных человеком, чтобы стать предвзятым - достаточно того, чтобы его окружали другие машины.
« Многие ИИ-разработок основывается на автономии и самоконтроле. Это значит: поведение таких машин будет также влиять на поведение других машин вокруг. Наше исследование показывает, что теоретически может произойти с актерами, которые регулярно зависят от чужих ресурсов , - констатирует Уитакер. - Так мы доказали, что коллективный интеллект разумных машин потенциально уязвим к явлению, не чуждого и для человеческой среды », - констатирует команда.
Все(5) |
---|
Искусственный интеллект | Сергей Марков vs Алексей Турчин - Искусственный интеллект | Большие дебаты | Искусственный интеллект IBM без спроса учился на чужих фото - Россия 24 | Искусственный интеллект. Доступ неограничен / Фильм в HD | Чем опасен искусственный интеллект | Охотники за будущим |
Комментарии на отзыв: