Более половины пользователей не отличают ботов от людей

221 2

https://ic.pics.livejournal.com/colonelcassad/19281164/4940509/4940509_900.jpg
Более половины пользователей не отличают ботов от людей


Пол Бреннер из Университета Нотр-Дам в Индиане и его коллеги обнаружили в своем исследовании, что люди могли отличить ботов с ИИ от людей только в 42 % случаев.

5 способов определить, является ли аккаунт ботом с ИИ:

1. Эмодзи и хэштеги: чрезмерное использование этих символов может быть признаком.

2. Необычные формулировки, выбор слов или аналогии: необычные формулировки могут указывать на наличие искусственного интеллекта.

3. Повторение и структура: боты могут использовать повторяющиеся формулировки, которые следуют схожим или жестким формам, а также могут злоупотреблять определенными сленговыми терминами.

4. Задавайте вопросы: они могут выявить недостаточные знания бота по теме, особенно когда речь идет о местных местах и ситуациях.

5. Предположим худшее: если учетная запись в социальной сети не является личным контактом и личность пользователя не была четко подтверждена или верифицирована, это вполне может быть бот с искусственным интеллектом.

‼️Вы можете проверить свои собственные навыки обнаружения ботов тут, а заодно дополнительно обучить вражескую систему выявления ботов

https://nd.qualtrics.com/jfe/form/SV_dgy2Ymsq74ZkNOm – исследование
https://t.me/budni_manipulyatora/3067 – цинк

Могу ответить, что количество нейросетевых ботов в комментариях телеграма в последний год устойчиво возрастает.
Рост имитационных возможностей нейросетей сделает неизбежным уже в среднесрочной перспективе авторизацию по паспортным данным и запрет комментирования неавторизованных пользователей. В противном случае, в недалеком будущем, любые открытые комментарии можно будет технологически затапливать нейросетевыми сообщениями, уничтожающими любое подобие живого общения.

Комментарий редакции

Основные тезисы статьи:

1. Исследование показало, что люди могут отличить ботов с ИИ от людей только в 42% случаев.

2. Предложены 5 способов определения аккаунтов ботов с ИИ:
   – Чрезмерное использование эмодзи и хэштегов
   – Необычные формулировки и выбор слов
   – Повторяющиеся структуры и злоупотребление сленгом
   – Недостаточные знания при ответах на вопросы
   – Отсутствие верификации личности пользователя

3. Количество нейросетевых ботов в комментариях Telegram растет.

4. Прогнозируется, что в будущем может потребоваться авторизация по паспортным данным для комментирования, чтобы избежать наводнения обсуждений ботами.

Вывод:

Развитие технологий искусственного интеллекта создает серьезную проблему для онлайн-коммуникации. Люди все чаще не могут отличить ботов от реальных пользователей, что может привести к манипуляциям общественным мнением и разрушению подлинного общения в интернете. Это может потребовать серьезных изменений в правилах идентификации пользователей онлайн-платформ для сохранения качества дискуссий и защиты от массового влияния ботов.

Расширенный вывод:

Ящик Пандоры в сфере онлайн-коммуникаций уже открыт, и в будущем мы, вероятно, увидим еще больше контента, созданного искусственным интеллектом. Даже введение строгих мер идентификации, таких как использование паспортных данных, может оказаться недостаточным барьером. Существует риск, что эти данные могут быть приобретены у людей, далеких от интернета, аналогично тому, как сейчас происходит с SIM-картами и банковскими картами.

По мере развития ИИ различить его от человека будет становиться все сложнее. Современные языковые модели, подобные GPT, способны имитировать различные роли, действовать по заданным сценариям и адаптироваться к различным контекстам общения. Более того, комбинация ИИ-ботов и человеческого надзора, где живой оператор может вмешаться в критический момент, создает дополнительный уровень сложности в идентификации.

Однако важно понимать, что это не обязательно негативное явление. Ключевой момент заключается в том, что онлайн-взаимодействия должны быть содержательными и целенаправленными. Если ИИ может эффективно помочь в решении задачи, это может быть полезным инструментом.

С другой стороны, нельзя игнорировать потенциальные риски. ИИ может быть использован для манипулирования общественным мнением, целенаправленной травли и других форм информационных атак. Поэтому критическое мышление и скептицизм по отношению к онлайн-контенту становятся все более важными навыками.

Ключ к навигации в этом новом цифровом ландшафте — осознанность и критическое мышление. Важно не поддаваться мгновенным эмоциональным реакциям, а стремиться к взвешенному анализу информации, независимо от того, создана она человеком или машиной.

Оценка информации
Голосование
загрузка...
Поделиться:
2 Комментария » Оставить комментарий
  • 28924 26904

    Весьма нужная статья.

  • 612 544

    Тема актуальная, это так. Замечания по статье.
    1) Тест на определение бот или человек (ссылка https://nd.qualtrics.com/jfe/form/SV_dgy2Ymsq74ZkNOm) – на английском языке. Рядовой пользователь Рунета без переводчика вряд ли поймет содержание, тем более кто автор текстов.
    2) Предлагаемый набор признаков бота не вполне адекватный. По-моему, необычные формулировки и выбор слов вовсе не является признаком бота, наоборот, боты обычно воспроизводят стандартные формулировки, клише. Непонятно, каким образом рядовой пользователь Интернета (например, комментатор на каком-нибудь канале, в блоге) может проверить (верифицировать) личность другого пользователя (например, другого комментатора, который вступил с тобой в спор).
    3) Авторизация по паспортным данным для комментирования, по-моему, продиктована отнюдь не заботой о том, чтобы боты не обманывали людей, а стремлением к тотальному контролю информационного пространства. Специалисты в области информационной войны всегда найдут способ, как обойти такое ограничение.
    4) Манипуляция общественным мнения и разрушение подлинного общения в интернете с использованием ботов широко практикуется на каналах, где есть политическая составляющая тематики и ведется пропаганда.
    5) Согласен, что боты действуют как самостоятельно, так и в комбинации (под контролем или управлением) оператора. Два крайних вида ботов следующие.
    (А) Вставляющие короткие незамысловатые реплики с явно выраженной оценкой. Обычно это выражение одобрения автору поста, благодарность ему, или поддакивающие ключевому тезису автора. Боты такого типа с противоположной ориентацией (неодобрения автора) встречаются в меньших количествах или редко – это объясняется тем, что, как правило, боты несут функцию охраны, действуют на “cвоей” территории; а боты-диверсанты, работающие на “чужой” территории (противника) менее многочисленны. Боты вида (А) не предназначены для ответов другим комментаторам, налепить таких ботов технически просто, поскольку никому не придет в голову вступать в переписку с ними. Могут использоваться в количестве сотен в комментариях под одним постом. Так, я наблюдал статью с примерно тысячей (!) комментариев, из которых навскидку процентов 95 были сделаны такими ботами с разными ник-неймами.
    (Б) Боты для ответов комментаторам, которые критикуют позицию автора поста, предназначенные для переписки. Распознать их труднее, чем ботов вида (А), поскольку по необходимости они более сложно запрограммированы. Все же они предположительно могут быть выявлены по следующим признакам.
    – Они ведут узкоцелевую дискуссию, т.е. не отклоняются от заданной (запрограммированной) темы, попытки спровоцировать их на обсуждение широкого круга вопросов, косвенно или никак не связанных с первичной тематикой не увенчаются успехом. Этим они отличаются от людей, которые легко откликаются на различные темы (посторонние с точки зрения пропагандистской цели поста). Собственно, бота можно попробовать прощупать и трудными вопросами непосредственно по первичной теме.
    - Они тупо долбят своё, не обращая внимания ни на что, могут коверкать русский язык, часто используют ругательства.
    Впрочем, комментаторы вида (Б) вполне могут оказаться штатными пропагандистами-людьми.
    Очевидно, что для получения навыков распознавания ботов нужно обучение (тест с возможностью проверить свой ответ на задачу с правильным), а не слепое тестирование, когда обучаемый после теста не узнал, правильно ли провел идентификацию собеседника. Полагаю, что для широкой аудитории Рунета такие учебные пособия вряд ли появятся.
    6) Склонен думать, что вариант, когда ИИ может эффективно помочь в решении сложных задач, окажется платной услугой.

Оставить комментарий

Вы вошли как Гость. Вы можете авторизоваться

Будте вежливы. Не ругайтесь. Оффтоп тоже не приветствуем. Спам убивается моментально.
Оставляя комментарий Вы соглашаетесь с правилами сайта.

(Обязательно)

Информация о сайте

Ящик Пандоры — информационный сайт, на котором освещаются вопросы: науки, истории, религии, образования, культуры и политики.

Легенда гласит, что на сайте когда-то публиковались «тайные знания» – информация, которая долгое время была сокрыта, оставаясь лишь достоянием посвящённых. Ознакомившись с этой информацией, вы могли бы соприкоснуться с источником глубокой истины и взглянуть на мир другими глазами.
Однако в настоящее время, общеизвестно, что это только миф. Тем не менее ходят слухи, что «тайные знания» в той или иной форме публикуются на сайте, в потоке обычных новостей.
Вам предстоит открыть Ящик Пандоры и самостоятельно проверить, насколько легенда соответствует действительности.

Сайт может содержать контент, не предназначенный для лиц младше 18-ти лет. Прежде чем приступать к просмотру сайта, ознакомьтесь с разделами:

Со всеми вопросами и предложениями обращайтесь по почте info@pandoraopen.ru