Вебинары
3 регистрации

Остается ли в тайне ваш диалог с LLM? Как использовать большие языковые модели безопасно!

Вебинар пройдёт 9 июля в 11:00

Регистрация на вебинар заканчивается за два часа до начала, 9 июля в 09:00

+7 (555) 555-55-55
Почта
Компания/ИНН/Юридический адрес

Спикеры

Алексей Лукацкий

Алексей Лукацкий

Бизнес-консультант по информационной безопасности Positive Technologies

Светлана Газизова

Светлана Газизова

Руководитель направления построения процесса безопасной разработки

Андрей Яковлев

Андрей Яковлев

Специалист отдела экспертизы MaxPatrol HCC

Большие языковые модели уже помогают автоматизировать рутину, ускорять аналитику и расширять возможности сотрудников. Но вместе с пользой они приносят новые риски — от утечек конфиденциальных данных до проблем с соблюдением норм регулирования. Сейчас все больше инструментов, основанных на LLM, от чат ботов до полноценных AI IDE и важно знать, что могут сделать владельцы LLM с данными, которые они получают и как на это повлиять.

На вебинаре вы узнаете:

  • Как работают политики популярных LLM (OpenAI, Claude, Perplexity, DeepSeek, Gigachat и др.) и чем они отличаются.
  • Разберем основные пункты политик конфиденциальности вендоров больших языков моделей и известные случаи утечки данных пользователей.
  • Что важно предусмотреть в корпоративных правилах использования ИИ.
  • Какие данные допустимо обрабатывать во внешних сервисах, а что должно оставаться внутри.
  • Какие шаги помогут снизить вероятность компрометации данных.
  • Как не превратить свою интеллектуальную собственность и конфиденциальную информацию в бесплатный обучающий датасет для ИИ?

Вместе разберем реальные кейсы и сформируем план действий для безопасного внедрения LLM в компанию. По итогам вебинара вы получите шаблон политики безопасного использования LLM, соответствующий чеклист, а также иные практичные документы, помогающие выстраивать защиту при работе с большими языковыми моделями, развернутыми внутри или снаружи компании.