Широкий общественный резонанс получил недавний инцидент, когда семья из Великобритании попала в больницу из-за отравления ядовитыми грибами – их собрали по рекомендации книги, сгенерированной с использованием ИИ.
Допущенные искусственным интеллектом ошибки привели к печальным последствиям, что стало поводом задуматься об угрозе подобного контента для людей.
Сегодня уже многие понимают, что генерация контента с использованием искусственного интеллекта предполагает целый ряд рисков. Если говорить о текстовом контенте, то история с книгой по идентификации грибов, которая содержала опасные ошибки – яркий пример распространения неверной или опасной информации, сгенерированной ИИ.
Недавно в соцсетях завирусились видео, в которых пользователи высмеивают ответы, сгенерированные Google AI. Например, на вопрос, как долго можно смотреть на солнце без вреда для глаз, ИИ ответил, что в течение 5-30 минут пристально, и это будет полезно для вашего здоровья. И таких абсурдных, а иногда и опасных для здоровья примеров пользователи приводят десятки.
Большой риск представляет сгенерированный ИИ видеоконтент, в том числе дипфейки – реалистичная подмена видеоматериалов, созданная нейросетями. Иногда подобные видео созданы так реалистично, что невооруженным глазом невозможно понять, показывают ли нам реального человека или сгенерированного ИИ.
Один из известнейших примеров использования дипфейк-видео, сгенерированного нейросетью – случай с известным актером Томом Хэнксом, когда изображение знаменитости использовалось для рекламы стоматологических услуг без его согласия.
Конечно, такая реклама вызвала широкий общественный резонанс, поскольку поднялся серьезный вопрос о защите прав изображений в интернете и использовании технологии на базе искусственного интеллекта для недобросовестных целей.
Если дипфейки перейдут на более высокий уровень качества, то могут использоваться, например, в политике для подрыва доверия к чиновникам, общественным деятелям, военным и политическим лидерам, а также при создании ложных новостных сюжетов, что может привести к информационному хаосу.
Проблема недостоверного и опасного контента, сгенерированного нейросетями, особенно остро стоит в таких сферах, как медицина, фармацевтика и образование. На сегодня наибольшую угрозу представляют именно ложные медицинские диагнозы, полученные путем анализа данных нейросетями.
В СМИ публиковалось много новостей, в которых журналисты рассказывали, как ИИ быстро поставил точный диагноз, чего годами не могли сделать врачи. Конечно, медики могут пользоваться нейросетями, но только как вспомогательным инструментом. И сгенерированные данные нужно тщательно проверять, основываясь на экспертных знаниях и опыте, полученном в ходе обучения и врачебной практики.
Некоторые исследования обнаружили, что AI-системы могут игнорировать клинический контекст, что может привести к неправильной интерпретации данных и, как следствие, к ошибочным диагнозам. Например, если система не правильно учтет историю болезни пациента или особенности его состояния, это может привести к непредусмотренным последствиям, таким как пропущенные случаи рака или ненужные биопсии.
Эти инциденты подчеркивают важность человеческого вмешательства в процесс диагностики и необходимость тщательной проверки решений, принятых нейросетями, особенно в критических областях, таких как медицина.
Еще один пример касается использования ИИ в беспилотном управлении автомобилями. Так, в 2018 году компания Uber тестировала беспилотную машину в городе Темп (штат Аризона, США). В ходе испытания автомобиль насмерть сбил женщину, поскольку была снижена чувствительность к распознанию опасных объектов для предотвращения ложных срабатываний.
Также можно вспомнить случаи с компанией Tesla, которая периодически фиксирует ДТП, в том числе со смертельным исходом. После таких случаев «сырые» системы автопилотирования дорабатывались.
Минимизируя риск негативных последствий от использования контента, сгенерированного нейросетью, нужно проверять любую информацию, созданную на базе искусственного интеллекта. Вероятно, в этом помогут специальные сервисы, которые нужно внедрить в самые чувствительные сферы – ту же медицину.
Также можно использовать технологии, которые определяют сгенерированный ИИ текст, чтобы проверять его, фильтровать или вообще не пропускать, например, для публикации в СМИ. Подобные технологии уже существуют в открытом доступе: они определяют не только сгенерированный нейросетью текст, но и распознают дипфейки.
Если смотреть на вопрос глобально, то для минимизации рисков
нужно развивать у будущего поколения навыки критического мышления: например, вводить соответствующие предметы в школьную программу. Благодаря критическому мышлению человек сможет фильтровать информацию, используя инструменты для ее проверки.
Кроме того, авторы контента, созданного нейросетью, должны об этом сообщать — например, указывая на той же книге «сгенерировано с использованием ИИ». Конечно, в первую очередь речь идет не о художественных произведениях, а о книгах наподобие «Грибы Великобритании: руководство по сбору безопасных и съедобных грибов», которая и стала причиной отравления семьи.
Генерация контента при помощи ИИ может быть запрещена в сферах, где высока цена ошибки. Например, недостоверные сведения, сгенерированные нейросетью, могут привести к необратимым последствиям для жизни и здоровья людей, если будут использоваться медиками и фармацевтами.
Если смотреть на вопрос еще шире, то можно также упомянуть юриспруденцию, образование и журналистику. Например, создание юридического контента без участия квалифицированного юриста может привести к некорректной интерпретации законов и правовых норм.
В образовании вообще нужно достоверно проверять буквально каждое слово в учебных пособиях, поэтому использование ИИ для генерации таких материалов крайне нежелательно. В журналистике сгенерированный ИИ контент может привести к распространению фейковых новостей и дезинформации.
Для реализации запрета использования ИИ в чувствительных к ошибкам сферах важно развивать тесное международное сотрудничество, чтобы создать единые нормативы и стандарты, которые бы регулировали вопрос использования искусственного интеллекта глобально.
В целом использование искусственного интеллекта способно значительно улучшить различные аспекты человеческой жизни, однако для этого важно учитывать правовые, социальные и этические аспекты его внедрения.
Источник