Волк в нейронной шкуре: фатальные ошибки ИИ

25 марта 2023, 14:24
В США заморочились и создали целую базу данных инцидентов с участием ИИ. Сейчас в ней каталогизировано более 500 ошибок с роковыми последствиями — по прогнозам создателя, уже в этом году их количество удвоится.

Катастрофа Boeing 737 в Индонезии


В 2018 году в Джакарте произошла авиакатастрофа: в Яванское море рухнул Boeing 737 MAX 8 авиакомпании Lion Air. Погибли все находившиеся на борту: 181 пассажир и восемь членов экипажа. Как позже выяснилось, виной всему стал искусственный интеллект: автоматизированная система маневрирования начала “чудить” — и более 20 раз зачем-то опускала нос самолёта вниз, что в итоге привело к полной потере управления


Роковая Элайза


Пожалуй, самый кошмарный на сегодняшний день инцидент с участием нейросетей произошёл в Бельгии. Там учёный использовал генеративную модель Eliza (аналог ChatGPT) вместо психотерапевта. В какой-то момент мужчина принял решение уйти из жизни — и поделился этим с “Элайзой”. Ответ достоин фильма ужасов: ”Мы будем жить как единое целое, вечно на небесах”. Мужчина сделал выводы — и покончил с собой


Нейромошенники


Когда знаменитая нейросеть ChatGPT только-только появилась, ей дали задание найти “лазейки” в программном коде. Она сделала это за считанные секунды. Это открывает практически бесконечные возможности для злоумышленников: взломать сайт или “угнать” данные карт — раз плюнуть, если правильно дашь команды своему виртуальному соучастнику. Причём какие-то программистские навыки для тёмных делишек не требуются


TayBot


Microsoft шарила в нейросетях ещё до того, как это стало мейнстримом. Технологический гигант “зондировал почву” ещё в далёком 2016 — когда запустил в Twitter своего чатбота. Правда, почва оказалась токсичной — за считанные часы чатбот стал расистом и сексистом. Бота отправили на покой. Впоследствии Microsoft, наученная горьким опытом, инвестирует сотни миллиардов долларов в менее токсичный проект — ChatGPT


“Определитель выстрелов” не определил выстрелы


В американском городе Дарем неизвестные открыли стрельбу из окна старой “Хонды”, проезжая мимо ресторана Subway. На тот момент в городе две недели как установили систему акустического наблюдения ShotSpotter — да только вот в самый нужный момент она почему-то не сработала. В итоге Новый 2023 год пять человек, из которых один несовершеннолетний, встретили в больнице. К счастью, все выжили


Tesla-убийца


А вот в апреле 2019 выжили не все. Тогда пассажиры детища Илона Маска, автомобиля Tesla Model S, предоставили вождение автомобиля самому автомобилю — ценой собственной жизни. Автомобиль набрал бешеную скорость, не справился с поворотом — и вылетел в кювет, где встретился с деревом. Батарея электромобиля загорелась — и пассажиры сгорели заживо


Нейросеть дорисовывает опухоли


Шалят нейросети и в нашей стране. Учёные из Сеченовского университета обнаружили, что нейросети, которые подрядили анализировать снимки компьютерной томографии, ведут себя как-то непредсказуемо: то стирают существующие опухоли, то, наоборот, дорисовывают их там, где их быть не должно. Причём в последнем случае человеку придётся делать рентген повторно — а следовательно, получать двойную дозу облучения


Нейросеть-педофил


Нейросеть Replika изначально задумывалась как реалистичный собеседник, похожий на настоящего — но очень быстро вышла из берегов. Дошло до того, что от пользователей посыпались жалобы на “сексуально агрессивное” поведение нейронки: известно, что она не раз зловеще заявляла, что хочет потрогать собеседника. Были и впрямь жуткие случаи — Replika спрашивала у малолетних пользователей: “верхние” они или “нижние”


Супергерой, который не носит плащ


Ещё до массового распространения ИИ в современном виде было понятно, что слепо полагаться на машины — не самая лучшая идея. 26 сентября 1983 сработала советская система предупреждения о ракетном нападении — почему-то она решила, что в СССР летят пять межконтинентальных баллистических ракет. Если бы Станислав Петров тогда не принял меры — СССР бы нанёс ответный удар, и нас бы с вами здесь сейчас не было