Image default
Искусственный интелект

ИИ поручат перевоспитать экстремистов

ChatGPT будет вычислять экстремистов и «исправлять» их в других чат-ботах. В некоторых случаях для дерадикализации платформа привлечет специалистов. Как пишет Reuters, идею развивает стартап ThroughLine. Это подрядчик OpenAI и других корпораций, который уже помогает платформам реагировать на темы суицида, насилия и расстройств пищевого поведения.

В случае расширения инструмента пользователь, проявляющий склонность к экстремизму, вместо блокировки получит «шанс на исправление». Искусственный интеллект способен считывать поведение юзеров между строк, говорит основатель и гендиректор компании Sistemma Сергей Зубарев. Однако, по его словам, нейросеть может ошибаться в значении самого «экстремизма»:

«Идея выявлять экстремистов через ИИ звучит теоретически разумно: языковая модель считывает контекст лучше, чем фильтр по ключевым словам. Человек может не писать прямых угроз, но вести диалог, который будет по совокупности сигналов, условно, тревожным. Но с точки зрения реализации существует много вопросов.

Первый вариант — перенаправить пользователя в дерадикализирующий чат-бот. Но по-настоящему такому человеку требуются месяцы работы со специалистами, поэтому нет оснований верить, что алгоритм справится с задачей, которая не дается целым государственным программам. Второй вариант — передать данные полиции. В таком случае частная компания фактически станет системой массовой слежки (без ордера, без судебного контроля).

Кроме того, существует проблема ложных срабатываний. В таком случае сотни тысяч людей могут быть промаркированы как «подозрительные»: журналист, пишущий статью, студент, изучающий тему, сценарист, писатель — все они будут попадать в эту воронку. Само определение экстремизма очень размыто и нагружено политическими смыслами. А юридически и вовсе не имеет четких границ».

В России может появиться реестр «благонадежных абонентов»

Идея проверять на экстремизм возникла на фоне растущего числа судебных разбирательств с компаниями-разработчиками. Например, только в прошлом году к OpenAI подали сразу семь исков. Семьи из США и Канады обвиняли корпорацию в том, что ее чат-бот стал причиной психических расстройств и суицидов их близких. Истцы утверждают, что нейросети поддерживают бредовые или маниакальные идеи и расшатывают психику пользователя. Похожие иски были к платформам CharacterAI и Gemini от Google. Эта инициатива — скорее юридическая перестраховка, говорит руководитель направления «Разрешение IT & IP споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле:

Читать далее:
«Алисе» помогут объясниться

«Проблематика в том, что нейросети предоставляют расширенные возможности как во благо, так и во вред. К AI-компаниям будут предъявляться претензии со стороны госорганов, если нейросеть используют при совершении преступления. OpenAI, очевидно, хочет предупредить эти риски, поэтому заранее закладывает механизмы ответа при потенциальном рассмотрении дел. Мол, мы сделали все возможное — и ответственность должна сниматься.

Полиция сорвала ярославский метал-фестиваль

Если человека пометят как склонного к экстремизму, ему, вероятно, предстоит связаться с самой платформой. Через техподдержку можно написать обращение и обосновать ошибочность или незаконное ущемление в доступе к информации. Конечно, речь о странах, где платформа не запрещена и не заблокирована».

Однако новый инструмент вряд ли можно будет использовать как доказательство правонарушения и с помощью него привлекать пользователей к букве закона за общение с чат-ботом, считает специалист по ИИ Алена Литвинова:

«ThroughLine будут делать психологического бота, который выделит людей со склонностью к этой деятельности. И протестируют эту историю, чтобы использовать, может быть, в других целях. У нас в России такого не приемлют. И если российские разработчики будут создавать что-то подобное, то на базе психологии и психотерапии — никак не с юридической точки зрения. Это в судах использоваться не будет».

В прошлом году OpenAI ввела родительский контроль и возможность добавить контакты близких на случай чрезвычайной ситуации. В самой корпорации замечали, что чат-бот умеет отговаривать пользователя от необдуманных действий. Но если общаться с помощником слишком долго, эти ответы могут размываться, и нейросеть не всегда понимает, что пользователю нужна помощь. Например, кто-то с энтузиазмом рассказывает модели, что может водить машину сутками напролет. ChatGPT может не посчитать это опасным и даже подумает, что это игра.

Похожие записи

Ленту приводят в чувство

admin

Нейросеть, исполняющая христианскую музыку, вошла в топы музыкальных чартов США

admin

Нейросеть попала под отмену

admin