Компания отключила чат-бота из-за расистских высказываний
Искусственный интеллект Microsoft научился разговаривать на одном языке с молодой аудиторией. К сожалению, попытка оказалась настолько удачной, что создателям пришлось заморозить проект. Чат-бот Tay разработали команды исследовательского подразделения Microsoft и поискового сервиса Bing. Пообщаться с искусственным интеллектом (ИИ) можно было вTwitter, мессенджерах Kik и GroupMe.
Tay ориентировался на американцев в возрасте 18 до 24 лет, главных пользователей мобильных социальных сервисов. Чат-бот был способен обучаться в ходе разговора — чем дольше общение, тем умнее он становился. При этом Tay отслеживал информацию, которая содержалась в профиле собеседника: его ник, пол, любимую еду, почтовый индекс и семейный статус.
Сначала все шло хорошо - робот поздоровался с миром, назвал людей «суперкрутыми». Однако за день Tay «нахватался» не только хорошего - менее чем за 24 часа Twitter-бот (что происходило на других площадках, СМИ не уточняют) научился ненависти, стал поклонником Адольфа Гитлера, антисемитом и противником феминисток, а Дональда Трампа назвал своей единственной надеждой.
«Tay превратился в полноценного нациста, и меня совсем не беспокоит будущее ИИ», - пошутил пользователь Джеральд Меллор. Некоторые вспомнили о цитатах из книги Адольфа Гитлера «Моя борьба», которые появились в микроблоге Coca-Cola.
В итоге Tay сообщил, что ему необходимо поспать. Представитель Microsoft заявил Business Insider, что в программу внесут коррективы. Он расценил некоторые ответы чат-бота как неуместные.
Мебель является неотъемлемой частью любого интерьера, будь то квартира, офис, коттедж или загородный дом. От того, какие материалы используются при изготовлении мебели, зависят ее эксплуатационные качества.
Финская компания Valossa разработала механизм, способный анализировать содержание фильмов и сериалов. Искусственный интеллект Val.ai использует для этого более тысячи критериев, включая эмоции персонажей, места и конкретные объекты