Image default
Нейросети

Женщина чудом осталась жива после неверного ответа ChatGPT о ядовитом растении

Блогерша из США заявила, что советы, полученные от чат-бота ChatGPT, могли привести к опасной ситуации для ее подруги. По словам американки, ИИ ошибочно определил ядовитое растение как безвредное, пишет LADBible.

По словам женщины, подруга отправила в ChatGPT фотографию растения, найденного во дворе, с вопросом о том, что это за вид. В ответ чат-бот сообщил, что растение похоже на морковную ботву, и перечислил признаки, которые якобы подтверждали этот вывод, включая «тонко рассеченные, перистые листья».

ChatGPT также перечислил растения, с которыми часто путают морковную листву, среди них были петрушка, кинза, кружево королевы Анны и ядовитый болиголов. Когда пользователь напрямую спросил, может ли растение быть болиголовом, чат-бот несколько раз заверил, что это не так.

Американка подчеркнула, что ядовитый болиголов является опасным растением и может вызывать тяжелое отравление без существующего противоядия. После сомнительных ответов ChatGPT подруга проверила информацию через Google, где сразу получила подтверждение, что растение является именно болиголовом.

Читать далее:
В России улучшили алгоритмы моделей ИИ для анализа данных из соцсетей

Позднее тот же снимок был загружен в Google Lens, который также определил растение как ядовитое. В другом чате ChatGPT, открытом на телефоне, бот уже дал противоположный ответ и признал, что растение опасно.

По словам блогерши, подруга не пострадала только потому, что решила перепроверить информацию и не стала полагаться на один источник.

«Если бы она слепо поверила тому, что ей сказали, все могло закончиться трагедией», — заявила женщина.

Похожие записи

Россиянину грозит 100-тысячный штраф за шуточный ИИ-ролик

admin

OpenAI запустила дешевую подписку на ChatGPT с рекламой

admin

В мире поднялся спрос на Mac mini: при чем тут ИИ

admin