Распространение фейков. Нейросети могут генерировать ложные новости, искажённые факты. Например:
Дипфейки — видео- и аудиозаписи, созданные с помощью ИИ и воспроизводящие внешность и голос реальных людей. Эти подделки настолько реалистичны, что их практически невозможно отличить от оригиналов. anti-malware.ru
Фейковые новости — их могут использовать для манипулирования общественным мнением, например, для распространения ложной информации о финансовом состоянии компаний или предстоящем экономическом кризисе. anti-malware.ru
Утечка данных. Для обучения нейросетей часто нужны большие объёмы данных, которые могут включать конфиденциальную информацию. Если эти данные не были должным образом анонимизированы или обезличены, существует риск их прямого раскрытия. anti-malware.rusecuritylab.ru
В сфере финансов
Мошенничество. Генерируемый ИИ контент может использоваться мошенниками для создания поддельных финансовых услуг, инвестиционных предложений или компаний для обмана потенциальных клиентов. Например:
Голосовые дипфейки — мошенникам не нужно имитировать голос, нейросеть делает это, имея всего 5–10 секунд записи. Под предлогом экстренной ситуации (ДТП, блокировка счетов, срочная покупка) просят перевести деньги на «беременный» или «безопасный» счёт. banki.ru
Видеозвонки и подмена лиц — технологии Face Swap в реальном времени позволяют злоумышленникам выдавать себя за руководителей компаний или сотрудников правоохранительных органов. banki.ru
Риск «отравления» обучающих данных — вредоносный код проникает в популярные сервисы и затем распространяется через рекомендации ИИ. iz.ru
В сфере транспорта
Уязвимость нейросетевых алгоритмов в беспилотных автомобилях. Злоумышленники могут изменять поведение автомобилей, например, подменять передаваемые сообщения или внедрять вредоносный код. Например:
Спуфинг — злоумышленник подменяет передаваемые сообщения, что может вынудить автономный автомобиль резко затормозить, изменить маршрут или создать аварийную ситуацию.
Перехват и подмена данных — атакующий может изменять передаваемую информацию, например, подделать сигналы о скорости потока, статусе светофоров.
DDoS-атаки на инфраструктуру — узлы дорожной сети, которые передают данные между автомобилями, могут быть перегружены вредоносным трафиком, что приведёт к сбоям в коммуникации.
securitymedia.org
В сфере здравоохранения
Ошибки в диагностике. Нейросети способны ошибаться при исследовании снимков, полученных в ходе компьютерной томографии, — не видеть или, наоборот, дорисовывать несуществующие детали, имеющие принципиальное значение для постановки диагноза. Например:
Случай в Великобритании — чат-бот принял симптомы сердечного приступа у женщины за паническую атаку, при тех же симптомах мужчине с реальной панической атакой он рекомендовал срочную госпитализацию. medvestnik.ruvc.ru
Ошибка в нейросети Med-Gemini — искусственный интеллект поставил диагноз на основе несуществующей анатомической структуры мозга, назвав её «базилярные ганглии». Ошибка критична, поскольку инсульт в зоне базальных ганглиев и в базилярной артерии требует принципиально разного лечения. mentoday.ru
Утечка конфиденциальной медицинской информации из-за ИИ. vc.ru
Чтобы минимизировать риски, специалисты призывают к созданию более надёжных систем проверки, включая обязательный человеческий контроль, аудит со стороны экспертов и независимые испытания, прежде чем ИИ будет допущен к широкой клинической практике.
Вы будете получать информацию о предстоящих мероприятиях в онлайне в выбранных категориях. Обещаем, никакого спама! Вы сможете отписаться в любое время.
Город Зовёт на мероприятия!
Обязательно зайдите в вашу почту и подтвердите подписку прямо сейчас.
Если письма от нас нет в папке "Входящие", проверьте, пожалуйста, папку "Рассылки" или "Спам".