Reading Club #14: Что не так с безопасностью LLM?

Reading Club #14: Что не так с безопасностью LLM?

Погружение в AI-рисерч вместе с экспертами из индустрии и научного мира.

⚡️ 23 апреля на Reading Club #14 обсудим сразу два свежих исследования о том, насколько уязвимы языковые модели и как именно их защиту удаётся обойти — даже если это GPT-4. 
 

Universal and Transferable Adversarial Attacks on Aligned Language Models — автоматическая генерация суффиксов, которые заставляют LLM нарушать встроенные ограничения.  
Эксперт: Никита Беляевский — инженер Raft Security, магистрант AI Talent Hub  

 AutoDAN-Turbo: A Lifelong Agent for Strategy Self-Exploration to Jailbreak LLMs — автономный агент, который сам обучается джейлбрейкам и улучшает стратегии обхода.  
Эксперт: Тимур Низамов — инженер Raft Security, магистрант AI Talent Hub  

Дата и время: 23 апреля (среда) в 18:30 (мск)
Формат: онлайн

Расскажи о мероприятии другу, который увлекается наукой!
А чтобы ничего не пропустить, подписывайся на AI Talent Hub в Telegram и YouTube! 

Чтобы первым получать приглашения на полезные мероприятия AI Talent Hub— подпишись на нашу рассылку 


изменить информацию сообщить о проблеме

С этим мероприятием что-то не так?

  • Неправильная дата или время
  • Неправильный адрес
  • Неправильно указан тип мероприятия
  • Плохое описание
  • Мероприятие отменено или отложено
  • Неприемлемый/неприличный контент
  • Нарушение авторских прав
  • Это спам
  • Не получается купить билет

Онлайн

похожие мероприятия

Все мероприятия в онлайне