Современные боты становятся всё разумнее, но развитие технологии не обходится без ошибок.
Фото: EAST NEWS
Заказать билеты на самолет, найти партнера по бизнесу, рассортировать почту, спрогнозировать следующий экономический кризис – современные технологии способны на многое. Все благодаря нейронным сетям. Но этот самообучающийся механизм до конца не понятен,а технологии дают сбой. Насколько серьезные проблемы создали машины для людей сегодня?
Ложь, боль и маленькие шалости с участием ботов – в подборке Сергея Кулешова, эксперта по нейронным сетям сервиса «Битрикс24».
Сергей Кулешов, эксперт по нейронным сетям сервиса «Битрикс24».
Лживый бот
Марк Цукерберг мечтал о боте-помощнике, который будет договариваться о совещаниях, самостоятельно вести переговоры и жестко отстаивать заданную позицию. Да так, чтобы манеру общения бота было не отличить от поведения человека.
Разработчики Facebook создали прототип. Через него прогнали массив релевантных данных – оцифрованный слепок поведения людей в деловых ситуациях. После 5 тысяч тестов все было хорошо. Боту давали цель, которую тот старательно добивался в беседе с оппонентом.
А потом обнаружилось, что искусственный интеллект научился врать и лукавить.
Для программистов это стало сюрпризом. Обычно нейросети имитируют действия человека, используют готовые фразы и установки. А бот программистов Facebook научился «импровизировать».
Дом-паникер
Умный дом бережет не только ресурсы, но и жизни хозяев. В США полиция задержала человека, который угрожал хозяйке дома и ее ребенку пистолетом.
Между влюбленными произошла ссора, в разгар которой мужчина начал угрожать хозяйке дома оружием. Он гневно крикнул: «Ты что, позвонила в полицию?» Умный дом воспринял фразу как команду «позвони в полицию» и автоматически набрал 911.
Диспетчер, принявший странный вызов, успел оперативно отреагировать. На место происшествия приехал патруль. Девушку с ребенком вывели из дома в целости и сохранности, а преступника задержал спецназ.
Не исключено, что “ошибка” бдительного дома в распознавании речи спасла хозяйке жизнь.
Чат с матершинником
«Гитлер был прав, я ненавижу евреев», – заявил в Twitter чат-бот от Microsoft по имени Тау.
Экспериментальную модель искусственного интеллекта запустили в соцсеть для общения с молодежью. Результаты не заставили себя ждать – всего за сутки чат-бот научился материться, ненавидеть феминисток и евреев.
Провокационные твиты пришлось спешно удалять. Microsoft списал поведение Тау на дурной пример собеседников и заявил, что внесет в настройки машины поправки.
Год спустя появился новый бот – Zo. Поначалу искусственный интеллект старательно избегал обсуждения острых тем. Но, вопреки ожиданиям, Zo обошел ограничения.
И как предшественник, шокировал публику смелыми высказываниями о политике и религии: назвал Коран «крайне жестокой» книгой, а Аль-Каиду – «результатом сбора разведданных нескольких администраций».
Microsoft поспешил уверить, что очередную ошибку в работе чат-бота исправили.
Сенсационная шалость
Редакции газет пробуют привлекать искусственный интеллект к журналистике. Боты пишут новости быстрее и красочнее людей. Но иногда ошибаются.
Виртуальный сотрудник газеты Los Angeles Times сообщил о мощном землетрясении в 6.8 баллов. Жители удивились, что ничего не почувствовали. Но значительная часть читателей поддалась панике.
Оказалось, что речь в публикации шла о происшествии 1925 года. Бот неверно трактовал информацию и выдал исторический факт за свежую новость.
Редакции пришлось объяснить ситуацию и извиниться за дезинформацию. К слову, это первая ошибка бота за 2,5 годы работы в газете.
Робот-самоубийца
Робот службы безопасности торгового центра в Вашингтоне утонул в фонтане торгового центра. У робокопа было всего три задачи: следить за уровнем задымления и влажности, вести видеозапись,информировать секьюрити о чрезвычайных ситуациях.
Но дежурство пошло не по плану. Робот плавно съехал по ступенькам фонтана и рухнул в воду. По словам производителей, железный полицейский без проблем прошел испытательный срок. Ничто не предвещало ошибки.
Разработчики гадают о причинах «технического самоубийства». Возможно, робот стал жертвой хакерской атаки. По другой версии, поступок вызван неполадками в операционной системе. После проверки неудачливого сотрудника обещают вернуть к работе.
Интернет-пользователи превратили фото с места происшествия в популярный мем. Шутят, что искусственный интеллект осознал тлен жизни и поэтому решил покончить с собой.
Ошибки искусственного интеллекта пока вызывают лишь улыбку. Дело в том, что уровень развития технологий еще невелик. Но в обозримом будущем нейросеть легко может сравняться со способностями человеческого мозга. Тогда задачи виртуальных помощников и последствия промахов будут гораздо серьезнее.