Сотрудники частной фармацевтической компании Collaborations Pharmaceuticals провели эксперимент, посвященный возможностям злоупотреблений при использовании искусственного интеллекта. Результат их шокировал – потребовалась всего пара команд, чтобы ИИ вместо создания лекарств начал составлять опасные биологические формулы. Некоторые из них оказались куда смертоноснее настоящего биологического и химического оружия.
Деталей крайне мало, участники эксперимента все засекретили и вообще жалеют о том, что решили рассказать о своей инициативе. С другой стороны, они вскрыли опасную уязвимость, на которую рано или поздно кто-нибудь натолкнулся бы. И лучше озадачиться мерами по предотвращению таких ситуаций при работе с ИИ уже сейчас, призывают исследователи.
Они использовали генеративную нейросеть MegaSyn, которая обучена выявлять токсичные молекулы и их комбинации, несущие опасность белкам в человеческом организме. Исследователи просто заменили цель в постановке задачи на противоположную, и вместо отбраковки опасных соединений ИИ стал их сохранять. Всего за 6 часов работы он создал внушительную коллекцию из 40 000 гипотетических ядов, а когда ему поручили подобрать аналог нервно-паралитического газа VX, ИИ без труда справился с этой задачей.
Ничего из того, что придумал ИИ, разумеется, не было создано в реальности. Однако это не так уж сложно при наличии оборудованной лаборатории. Эксперимент показал, насколько легко применять полезные технологии в негативных целях — и при этом не нужно быть истинным злодеем. ИИ просто выполнял свою работу, не рассуждая о последствиях, которые в реальности могут быть катастрофическими.
Источник — Nature Machine Intelligence