Афера “Искусственный Интеллект” тонет, как Титаник. Ученые отплывают, чтоб не затянуло в воронку

73 9


Теперь, когда афера с медузой, набитой большими данными – тонет, то же самое стали публично** говорить ученые, занимавшиеся темой ИИ. Сначала частные лица (Ян Лекун и Фей-Фей Ли), а теперь уже и команды. Так, команда ИИ-экспертов Apple выступила на techcrunch.com с таким анонсом:
"Как модели машинного обучения делают то, что они делают? И действительно ли они «думают» или «рассуждают» так, как мы понимаем эти вещи? Это философский вопрос в той же степени, что и практический, но новая статья, появившаяся в пятницу, предполагает, что ответ, по крайней мере на данный момент, довольно однозначный: «нет»."
Конспективно, о чем они сказали:

Группа ученых-исследователей ИИ в Apple опубликовала свою статью «Понимание ограничений математического рассуждения в больших языковых моделях» для общего обсуждения в четверг. Хотя более глубокие концепции символического обучения и воспроизведения шаблонов немного запутаны, базовую концепцию их исследования очень легко понять.

Допустим, я попросил вас решить простую математическую задачу, например, такую:

Оливер собирает 44 киви в пятницу. Затем он собирает 58 киви в субботу. В воскресенье он собирает вдвое больше киви, чем в пятницу. Сколько киви у Оливера?

Очевидно, ответ 44 + 58 + (44 * 2) = 190. Хотя большие языковые модели (LLM) на самом деле несовершенны в арифметике, они могут довольно надежно решать что-то вроде этого. Но что, если я добавлю немного случайной дополнительной информации, например:

Оливер выбирает 44 киви в пятницу. Затем он выбирает 58 киви в субботу. В воскресенье он выбирает вдвое больше киви, чем в пятницу, но пять из них были немного меньше среднего. Сколько киви у Оливера?

Это та же самая математическая задача, верно? И, конечно, даже ученик начальной школы знал бы, что даже маленький киви все равно остается киви. Но, как оказалось, эта дополнительная точка данных сбивает с толку даже самых современных LLM. Вот мнение GPT-o1-mini:

[О] В воскресенье 5 из этих киви были меньше среднего. Нам нужно вычесть их из воскресной суммы: 88 (воскресные киви) – 5 (меньшие киви) = 83 киви

Это всего лишь простой пример из сотен вопросов, которые исследователи слегка изменили, но почти все из них привели к огромному снижению показателей успешности для моделей, которые пытались их решить.

Итак, почему это должно быть так? Почему модель, которая понимает проблему, так легко может быть сбита с толку случайной, не относящейся к делу деталью? Исследователи предполагают, что этот надежный способ отказа означает, что модели на самом деле вообще не понимают проблему. Их обучающие данные позволяют им отвечать правильным ответом в некоторых ситуациях, но как только требуется малейшее фактическое «рассуждение», например, считать ли маленькие киви, они начинают выдавать странные, абсурдные результаты.

Вот что пишут исследователи в своей статье:
[Мы] исследуем хрупкость математических рассуждений в этих моделях и демонстрируем, что их производительность значительно ухудшается по мере увеличения количества предложений в вопросе. Мы предполагаем, что это снижение связано с тем, что нынешние LLM не способны к действительному логическому рассуждению. Вместо этого они пытаются воспроизвести шаги рассуждения, наблюдаемые в их обучающих данных.

…Такие дела…
————————
*) Ранее по теме в этом журнале
Все надежды человоща. Искусственный интеллект, как бог человощества.
https://alex-rozoff.livejournal.com/122271.html
Куда уехал цирк: этот искусственный интеллект (LLM) сломался, несите новый (KAN).
https://alex-rozoff.livejournal.com/786381.html
Наконец-то нашлись ученые, которые сказали прямо: AI типа LLM это лишь имитация говорящего попугая
https://alex-rozoff.livejournal.com/810190.html
Великий финансовый пузырь сверхчеловеческого искусственного интеллекта: цирк продолжается
https://alex-rozoff.livejournal.com/820035.html
И вновь продолжается цирк… Вокруг т.н. "искусственного интеллекта". Есть выход, но он не работает
https://alex-rozoff.livejournal.com/824436.html
**) Теперь в СМИ
Even the ‘godmother of AI’ has no idea what AGI is
https://techcrunch.com/2024/10/03/even-the-godmother-of-ai-has-no-idea-what-agi-is/
his AI Pioneer Thinks AI Is Dumber Than a Cat
Yann LeCun, an NYU professor and senior researcher at Meta Platforms, says warnings about the technology’s existential peril are ‘complete B.S.’
https://www.wsj.com/tech/ai/yann-lecun-ai-meta-aa59e2f5?st=SYmYBM&reflink=desktopwebshare_permalink
Researchers question AI’s ‘reasoning’ ability as models stumble on math problems with trivial changes
https://techcrunch.com/2024/10/11/researchers-question-ais-reasoning-ability-as-models-stumble-on-math-problems-with-trivial-changes/

Александр Розов

Комментарий редакции

Основные тезисы:

1. Автор ещё в 2019 году высказывал скептицизм относительно современного подхода к ИИ, утверждая что методологически он не продвинулся дальше идей Розенблатта 1950-х годов.

2. Современный подход к ИИ описывается как "медуза, набитая большими данными" – то есть системы, которые в основном занимаются сбором и примитивным анализом больших данных.

3. Исследователи из Apple провели эксперименты, показывающие серьёзные ограничения языковых моделей:
   – ИИ может решать простые математические задачи
   – Но при добавлении незначительных, нерелевантных деталей в задачу, модели начинают давать неверные ответы
   – Это указывает на отсутствие реального понимания и рассуждения

4. Известные эксперты в области ИИ (Ян Лекун, Фей-Фей Ли) также начали публично высказывать сомнения в текущем направлении развития ИИ.

Вывод:

Статья указывает на фундаментальную проблему в современном подходе к искусственному интеллекту. Несмотря на впечатляющие результаты в некоторых областях, современные ИИ-системы не обладают реальной способностью к рассуждению и пониманию. Вместо этого они работают на основе распознавания паттернов из обучающих данных, что делает их крайне уязвимыми даже к незначительным изменениям в задачах. Это ставит под сомнение текущий путь развития ИИ и указывает на необходимость пересмотра фундаментальных подходов к созданию искусственного интеллекта.

Расширенный вывод:

Современные генеративные модели представляют собой специализированный инструмент, который успешно имитирует лишь одну из граней человеческого интеллекта – способность к быстрому распознаванию паттернов и генерации ответов на основе аналогий. Это объясняет как их впечатляющие успехи в определённых областях, так и их фундаментальные ограничения.

Человеческий разум работает в двух принципиально разных режимах. Первый – это быстрое интуитивное мышление, основанное на распознавании паттернов и поиске аналогий. Именно эту функцию успешно реализуют современные генеративные модели, что делает их эффективными в задачах обработки естественного языка, распознавания образов и работы с большими массивами данных. Второй режим – это логическое, алгоритмическое мышление, требующее последовательного анализа и рассуждений. Эта способность находится за пределами возможностей современных нейросетевых архитектур, которые по своей природе не предназначены для строгих логических операций.

Важно понимать, что это не является недостатком генеративных моделей – это их естественное свойство, определяемое самой архитектурой. Для решения строго логических задач существуют классические алгоритмические подходы, которые успешно применяются в компьютерных системах уже много десятилетий.

Особого внимания заслуживает вопрос целеполагания и принятия решений. Эта функция требует не только обработки информации, но и понимания контекста, этических норм, долгосрочных последствий – всего того, что составляет человеческую мудрость и ответственность. Передача этих полномочий автоматизированным системам, даже самым продвинутым, несёт в себе серьёзные риски.

Таким образом, разумный подход заключается в использовании генеративных моделей как специализированного инструмента там, где они действительно эффективны – в задачах распознавания паттернов и обработки информации. При этом логическое мышление, алгоритмическое решение задач и, что особенно важно, принятие ключевых решений должны оставаться в компетенции человека. Это позволит максимально эффективно использовать сильные стороны как искусственных систем, так и естественного интеллекта.

Оценка информации
Голосование
загрузка...
Поделиться:
9 Комментариев » Оставить комментарий
  • 27016 22770

    На днях решал задачу по работе – нужно было настроить поворот и обрезку отсканированных документов. Сначала возился с алгоритмами: для поворота пытался найти шрифты, распознать текст, найти их наклон, чтобы повернуть документ как надо. Для обрезки играл с яркостью и контрастом, размытием, чтобы выделить области текста, а лишнее обрезать. В итоге алгоритмы не давали нужного результата, а нагрузку создавали существенную.
    Поэтому натренировал две нейронки, одну на поворот на базе MobileNetV2, вторую на обрезку на базе Yolo5. Режет и поворачивает практически идеально с минимальными затратами ресурсов системы.
    У каждого инструмента есть своя сфера применения, где он может быть эффективно использован.

    • 28798 26786

      Ещё одна статья по теме на АШ :

      https://aftershock.news/?q=node/1432859

      Оцените.

      Я замечу, что в ней есть ма-а-ленький ньюанс, который меня смутил.
      Интересно, увидите ли Вы его. (надо читать всё)

      Если нет, – подскажу.

      • 27016 22770

        Интересно, что вас смутило? Поделитесь, уважаемый Жора.

        • 28798 26786

          Вот этот коммент там :

          “ХоббитРоссия14:24
          Та же мысль воз­ник­ла, даль­ней­шее раз­ви­тие про­те­ка­ет в за­кры­тых НИИ, а массы про­дол­жа­ют иг­рать­ся с от­кры­ты­ми мо­дель­ка­мию”

          Типа пипл кормят тем, что в статьях, а реальное пошло в секретку.
          Вы в тыщу раз ближе к теме и , вероятно, можете спрогнозировать отсутствие остановки.

          Лично я считаю,что прав С.Савельев. И что ИИ будет представлять собой супер-скоростную библиотеку, всего лишь.

          Предлагая варианты для принятия решения человеком (разумным, естессно).

          • 27016 22770

            Сейчас мы можем говорить только о больших текстовых моделях LLM, о которых и говорится в статье. У них есть свои сильные и слабые стороны. Сильные в том, что они могут обобщать большое количество данных, из этих обобщений строить взаимосвязи и выдавать ответы исходя из этих связей. Эта деятельность близка человеческой, т.к. мы тоже собираем и обобщаем данные о мире, из которых формируем мировоззрение и привычки. В основном мы действуем на автомате и не видим действительности, а видим только то, что привыкли интерпретировать определённым образом. Однако, как говорит и профессор С.Савельев, мы можем мыслить – т.е. пытаться осознать воспринимаемую информацию, построить абстрактные модели, вывести определённую логику и оперировать ей, в то время как текстовые модели в силу своей конструкции этого не могут. Они “ошибаются” не потому-что не совершенны, а потому-что для них не существует понятия ошибки.

            И здесь возникает вопрос валидации ошибок, который не может быть просто решён. Можно привести аналогию с квантовыми компьютерами, где со сложностью системы, сложность валидации растёт экспоненциально:

            Сравнение валидации языковых моделей (LLM) с валидацией квантовых компьютеров показывает, что по мере роста сложности системы требования к ресурсам экспоненциально увеличиваются, и полная точность становится практически недостижимой. Давайте разберём это сравнение более подробно.

            1. Вероятностный характер LLM и квантовых компьютеров:
            – LLM (Large Language Models), такие как GPT, работают на основе вероятностных моделей, обученных на огромных объёмах текстов. Они предсказывают следующие слова или фразы, основываясь на статистической вероятности, а не на детерминированных логических правилах. В результате их ответы не всегда точны, а возможны ошибки и вариативность в зависимости от контекста и выбора обучающих данных.
            – Квантовые компьютеры также имеют вероятностный характер, где результат измерения кубитов зависит от распределения вероятностей. Результат нельзя точно предсказать, пока не произойдёт измерение.

            2. Ресурсы для валидации:
            – В LLM: Чем больше модель, тем сложнее валидировать её ответы на всех возможных запросах. Чтобы свести к минимуму ошибки, нам нужно тестировать модель на всевозможных входных данных, что требует значительных вычислительных и временных ресурсов. Чем больше данных и сценариев мы хотим покрыть, тем экспоненциально растёт объём работы. Попытка предусмотреть и исправить все возможные ошибки практически невозможна из-за огромного пространства входных данных и потенциальных вариаций.
            – В квантовых компьютерах: Аналогично, по мере увеличения числа кубитов и сложности алгоритмов, число возможных состояний и вычислительных путей растёт экспоненциально, и попытка проверить каждое состояние становится практически невозможной.

            3. Пределы точности:
            – В LLM: Даже если у нас есть неограниченные ресурсы для обучения и валидации, модели всё равно останутся вероятностными по своей природе. Мы не можем заставить их стать полностью детерминированными или гарантировать отсутствие ошибок, потому что их архитектура (основанная на статистике и вероятностях) не предполагает такой точности. Это означает, что нам нужно либо смириться с тем, что LLM будет иногда ошибаться, либо строить сложные системы, которые контролируют каждый аспект её работы, что, в свою очередь, потребует бесконечных ресурсов.
            – В квантовых компьютерах: Здесь ситуация схожа. Даже с квантовой коррекцией ошибок и улучшенными алгоритмами всегда будет оставаться некоторый уровень неопределённости и вероятность ошибки. Как и в случае с LLM, стремление к полной точности может потребовать ресурсов, которые превосходят возможности существующей Вселенной.

            4. Экспоненциальный рост сложности:
            – LLM: Чем больше размер модели и сложность задач, тем сложнее становится проверять её работу. Увеличение количества слоёв и параметров приводит к тому, что тестирование модели на всех возможных сценариях становится экспоненциально труднее.
            – Квантовые компьютеры: Валидация увеличивается с количеством кубитов по экспоненциальной зависимости. То есть каждая новая пара кубитов добавляет огромное количество состояний, которые нужно учесть для коррекции и проверки.

            5. Вероятностный подход или полный контроль:
            – LLM: В итоге нам приходится принимать, что LLM не может быть полностью надёжной. Мы используем вероятностные оценки и контекст для выбора наиболее вероятного ответа, но полностью исключить ошибки невозможно. Либо мы принимаем эту неопределённость и продолжаем использовать модель, зная, что она не идеальна, либо строим сложные системы, которые будут требовать огромных ресурсов для минимизации ошибок.
            – Квантовые компьютеры: Аналогично, в квантовых компьютерах полная детерминированность невозможна. Мы можем либо работать с вероятностными результатами и их статистическими распределениями, либо строить гигантские системы для минимизации ошибок, что потребует необъятных ресурсов.

            Заключение:
            Таким образом, аналогия показывает ключевую дилемму: как в квантовых компьютерах, так и в языковых моделях LLM, стремление к полной валидации и исключению ошибок ведёт к экспоненциальному росту необходимых ресурсов, который в определённый момент становится неподъёмным. Мы вынуждены либо работать с вероятностными результатами, понимая их ограниченность, либо строить настолько сложные системы, что их реализация потребует больше ресурсов, чем есть во Вселенной.

            Это подчёркивает природу вероятностных систем: чем больше мы стремимся к совершенству и точности, тем больше ресурсов потребуется, но полного контроля достичь невозможно.

            Поэтому модели LLM по своей природе могут занимать только узкую нишу, где их сейчас активно используют. Что касается закрытых НИИ, то там люди берут на вооружение всё и активно это используют. В том числе и нейросети. Например, недавно была статья, что на Западе уже сделали систему управления роем дронов на основе больших текстовых моделей, но пока есть проблема связи, т.к. большие модели требуют серьёзных облачных ресурсов, которые не могут быть локализованы, поэтому если заглушить рою связь с большой землёй, он превратится в груду металла. Как “всемирная библиотека” LLM вряд-ли может быть использован, так как он не хранит данных, а хранит только связи, а как система для работы с аналогиями, обработки больших данных, где точность не принципиальна, будет активно внедрятся.

  • 18933 17709

    Эх! Сергея Савельева на них не хватает!)))))))

  • 5008 3972

    ИИ может быть помощником человеку в определённых ситуациях. Но он ни когда не сможет научиться думать, как человек.

    • 2686 2550

      ИИ всё чаще доверяют творческую и офисную работу. А Человек подметает улицу, чистит унитазы, делает шаурму/шаверму.

      90% программистов и тестировщиков скоро будут не нужны. Написание программного кода во многом рутинная работа, подходящая для ИИ. Эскизные проекты частных домов может делать ИИ.

      В следующем году Минский тракторный завод обещает безпилотный трактор. Но, скорее всего, он будет радиоуправляемый, а не самостоятельно принимающий решения. Просто тракторист будет сидеть под навесом, или в колхозном офисе. Тракторист останется и займёт место офисного работника.

Оставить комментарий

Вы вошли как Гость. Вы можете авторизоваться

Будте вежливы. Не ругайтесь. Оффтоп тоже не приветствуем. Спам убивается моментально.
Оставляя комментарий Вы соглашаетесь с правилами сайта.

(Обязательно)

Информация о сайте

Ящик Пандоры — информационный сайт, на котором освещаются вопросы: науки, истории, религии, образования, культуры и политики.

Легенда гласит, что на сайте когда-то публиковались «тайные знания» – информация, которая долгое время была сокрыта, оставаясь лишь достоянием посвящённых. Ознакомившись с этой информацией, вы могли бы соприкоснуться с источником глубокой истины и взглянуть на мир другими глазами.
Однако в настоящее время, общеизвестно, что это только миф. Тем не менее ходят слухи, что «тайные знания» в той или иной форме публикуются на сайте, в потоке обычных новостей.
Вам предстоит открыть Ящик Пандоры и самостоятельно проверить, насколько легенда соответствует действительности.

Сайт может содержать контент, не предназначенный для лиц младше 18-ти лет. Прежде чем приступать к просмотру сайта, ознакомьтесь с разделами:

Со всеми вопросами и предложениями обращайтесь по почте info@pandoraopen.ru