Image default
Нейросети

Эксперт рассказал, почему не стоит делиться медицинскими данными с ИИ

«Использование больших языковых моделей, таких как ChatGPT, которые предлагают пользователям возможность анализа медицинской информации, может привести к утечке таких данных», — сказал Дьяков.

Он объяснил, что такие ИИ-сервисы способны запоминать пользовательские данные, обучаться на них и в дальнейшем воспроизводить информацию о пользователе, в том числе ссылаясь на медицинские данные. Это может привести к компрометации личности. Кроме того, создатели ИИ-моделей обязаны в ряде случаев раскрывать данные пользователей по решению суда, и это создает дополнительные риски для конфиденциальности.

Помимо прочего, неспециализированные модели при некорректно сформулированных запросах могут допускать ошибки в ответах, добавил Дьяков.

«Оптимальным решением является либо загрузка в нейросети обезличенных данных (условно — с удалёнными или замаскированными ФИО), либо использование специализиированных систем, например, в клиниках — в закрытом контуре организации, без доступа к внешним ресурсам, что делает их менее уязвимыми к атакам и утечкам по сравнению с публичными сервисами», — добавил эксперт.

Читать далее:
Создана модель искусственного интеллекта для оптических исследований

Похожие записи

Сплошное надувательство: почему весь 2025-й год мир говорил о «ИИ-пузыре»

admin

Тюменские ученые разработают цифрового консультанта по паводку

admin

Набраться ума: каким стал 2025 год для отрасли искусственного интеллекта

admin