Кажется, что правила кибербезопасности известны всем. Но как только дело доходит до общения с ИИ, здоровая подозрительность почему-то отключается. Многие с легкостью делятся с нейросетями своими персональными данными. А стоит ли?
Что может произойти с данными, которые мы передаем ИИ? Если коротко — они могут утечь в неизвестном направлении
🟡 Некоторые модели продолжают обучаться на пользовательских данных — и могут случайно «выдать» их в ответ на чужой запрос
🟡 Мошенники могут найти уязвимости в алгоритме нейросети и получить доступ к данным пользователей.
🟡 Постоянно появляются фейковые ИИ-сервисы, которые маскируются под популярные платформы. Через них преступники могут заразить компьютер или телефон вредным ПО и украсть личные данные.
Однако потенциальные риски вовсе не означают, что нужно полностью отказаться от новых технологий и делать все по старинке. Главное — быть аккуратным 🔚
✅ Не передавайте информацию, которая в случае утечки может Вам навредить: данные паспорта и карт, адреса и номера телефонов, медицинские заключения и коммерческие тайны. Также не загружайте фотографии своих документов.
✅ Прочитайте политику конфиденциальности сервиса, которым пользуетесь. В некоторых моделях можно запретить ИИ собирать Вашу информацию и использовать ее для допобучения.
✅ Составляйте обезличенные запросы: меняйте имена и другую личную информацию на поддельную.
✅ Перед началом работы с новым сервисом или чат-ботом убедитесь, что перед Вами не фишинговый ресурс — его название должно в точности совпадать с тем, которое Вы ищите.
✅ И база: не забывайте регулярно менять пароли.
Оформлено по материалам fincult.info
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев