Афера “Искусственный Интеллект” тонет, как Титаник. Ученые отплывают, чтоб не затянуло в воронку
Теперь, когда афера с медузой, набитой большими данными – тонет, то же самое стали публично** говорить ученые, занимавшиеся темой ИИ. Сначала частные лица (Ян Лекун и Фей-Фей Ли), а теперь уже и команды. Так, команда ИИ-экспертов Apple выступила на techcrunch.com с таким анонсом:
"Как модели машинного обучения делают то, что они делают? И действительно ли они «думают» или «рассуждают» так, как мы понимаем эти вещи? Это философский вопрос в той же степени, что и практический, но новая статья, появившаяся в пятницу, предполагает, что ответ, по крайней мере на данный момент, довольно однозначный: «нет»."
Конспективно, о чем они сказали:
Группа ученых-исследователей ИИ в Apple опубликовала свою статью «Понимание ограничений математического рассуждения в больших языковых моделях» для общего обсуждения в четверг. Хотя более глубокие концепции символического обучения и воспроизведения шаблонов немного запутаны, базовую концепцию их исследования очень легко понять.
Допустим, я попросил вас решить простую математическую задачу, например, такую:
Оливер собирает 44 киви в пятницу. Затем он собирает 58 киви в субботу. В воскресенье он собирает вдвое больше киви, чем в пятницу. Сколько киви у Оливера?
Очевидно, ответ 44 + 58 + (44 * 2) = 190. Хотя большие языковые модели (LLM) на самом деле несовершенны в арифметике, они могут довольно надежно решать что-то вроде этого. Но что, если я добавлю немного случайной дополнительной информации, например:
Оливер выбирает 44 киви в пятницу. Затем он выбирает 58 киви в субботу. В воскресенье он выбирает вдвое больше киви, чем в пятницу, но пять из них были немного меньше среднего. Сколько киви у Оливера?
Это та же самая математическая задача, верно? И, конечно, даже ученик начальной школы знал бы, что даже маленький киви все равно остается киви. Но, как оказалось, эта дополнительная точка данных сбивает с толку даже самых современных LLM. Вот мнение GPT-o1-mini:
[О] В воскресенье 5 из этих киви были меньше среднего. Нам нужно вычесть их из воскресной суммы: 88 (воскресные киви) – 5 (меньшие киви) = 83 киви
Это всего лишь простой пример из сотен вопросов, которые исследователи слегка изменили, но почти все из них привели к огромному снижению показателей успешности для моделей, которые пытались их решить.
Итак, почему это должно быть так? Почему модель, которая понимает проблему, так легко может быть сбита с толку случайной, не относящейся к делу деталью? Исследователи предполагают, что этот надежный способ отказа означает, что модели на самом деле вообще не понимают проблему. Их обучающие данные позволяют им отвечать правильным ответом в некоторых ситуациях, но как только требуется малейшее фактическое «рассуждение», например, считать ли маленькие киви, они начинают выдавать странные, абсурдные результаты.
Вот что пишут исследователи в своей статье:
[Мы] исследуем хрупкость математических рассуждений в этих моделях и демонстрируем, что их производительность значительно ухудшается по мере увеличения количества предложений в вопросе. Мы предполагаем, что это снижение связано с тем, что нынешние LLM не способны к действительному логическому рассуждению. Вместо этого они пытаются воспроизвести шаги рассуждения, наблюдаемые в их обучающих данных.
…Такие дела…
————————
*) Ранее по теме в этом журнале
Все надежды человоща. Искусственный интеллект, как бог человощества.
https://alex-rozoff.livejournal.com/122271.html
Куда уехал цирк: этот искусственный интеллект (LLM) сломался, несите новый (KAN).
https://alex-rozoff.livejournal.com/786381.html
Наконец-то нашлись ученые, которые сказали прямо: AI типа LLM это лишь имитация говорящего попугая
https://alex-rozoff.livejournal.com/810190.html
Великий финансовый пузырь сверхчеловеческого искусственного интеллекта: цирк продолжается
https://alex-rozoff.livejournal.com/820035.html
И вновь продолжается цирк… Вокруг т.н. "искусственного интеллекта". Есть выход, но он не работает
https://alex-rozoff.livejournal.com/824436.html
**) Теперь в СМИ
Even the ‘godmother of AI’ has no idea what AGI is
https://techcrunch.com/2024/10/03/even-the-godmother-of-ai-has-no-idea-what-agi-is/
his AI Pioneer Thinks AI Is Dumber Than a Cat
Yann LeCun, an NYU professor and senior researcher at Meta Platforms, says warnings about the technology’s existential peril are ‘complete B.S.’
https://www.wsj.com/tech/ai/yann-lecun-ai-meta-aa59e2f5?st=SYmYBM&reflink=desktopwebshare_permalink
Researchers question AI’s ‘reasoning’ ability as models stumble on math problems with trivial changes
https://techcrunch.com/2024/10/11/researchers-question-ais-reasoning-ability-as-models-stumble-on-math-problems-with-trivial-changes/
Александр Розов
Комментарий редакции
Основные тезисы:
1. Автор ещё в 2019 году высказывал скептицизм относительно современного подхода к ИИ, утверждая что методологически он не продвинулся дальше идей Розенблатта 1950-х годов.
2. Современный подход к ИИ описывается как "медуза, набитая большими данными" – то есть системы, которые в основном занимаются сбором и примитивным анализом больших данных.
3. Исследователи из Apple провели эксперименты, показывающие серьёзные ограничения языковых моделей:
– ИИ может решать простые математические задачи
– Но при добавлении незначительных, нерелевантных деталей в задачу, модели начинают давать неверные ответы
– Это указывает на отсутствие реального понимания и рассуждения
4. Известные эксперты в области ИИ (Ян Лекун, Фей-Фей Ли) также начали публично высказывать сомнения в текущем направлении развития ИИ.
Вывод:
Статья указывает на фундаментальную проблему в современном подходе к искусственному интеллекту. Несмотря на впечатляющие результаты в некоторых областях, современные ИИ-системы не обладают реальной способностью к рассуждению и пониманию. Вместо этого они работают на основе распознавания паттернов из обучающих данных, что делает их крайне уязвимыми даже к незначительным изменениям в задачах. Это ставит под сомнение текущий путь развития ИИ и указывает на необходимость пересмотра фундаментальных подходов к созданию искусственного интеллекта.
Расширенный вывод:
Современные генеративные модели представляют собой специализированный инструмент, который успешно имитирует лишь одну из граней человеческого интеллекта – способность к быстрому распознаванию паттернов и генерации ответов на основе аналогий. Это объясняет как их впечатляющие успехи в определённых областях, так и их фундаментальные ограничения.
Человеческий разум работает в двух принципиально разных режимах. Первый – это быстрое интуитивное мышление, основанное на распознавании паттернов и поиске аналогий. Именно эту функцию успешно реализуют современные генеративные модели, что делает их эффективными в задачах обработки естественного языка, распознавания образов и работы с большими массивами данных. Второй режим – это логическое, алгоритмическое мышление, требующее последовательного анализа и рассуждений. Эта способность находится за пределами возможностей современных нейросетевых архитектур, которые по своей природе не предназначены для строгих логических операций.
Важно понимать, что это не является недостатком генеративных моделей – это их естественное свойство, определяемое самой архитектурой. Для решения строго логических задач существуют классические алгоритмические подходы, которые успешно применяются в компьютерных системах уже много десятилетий.
Особого внимания заслуживает вопрос целеполагания и принятия решений. Эта функция требует не только обработки информации, но и понимания контекста, этических норм, долгосрочных последствий – всего того, что составляет человеческую мудрость и ответственность. Передача этих полномочий автоматизированным системам, даже самым продвинутым, несёт в себе серьёзные риски.
Таким образом, разумный подход заключается в использовании генеративных моделей как специализированного инструмента там, где они действительно эффективны – в задачах распознавания паттернов и обработки информации. При этом логическое мышление, алгоритмическое решение задач и, что особенно важно, принятие ключевых решений должны оставаться в компетенции человека. Это позволит максимально эффективно использовать сильные стороны как искусственных систем, так и естественного интеллекта.
На днях решал задачу по работе – нужно было настроить поворот и обрезку отсканированных документов. Сначала возился с алгоритмами: для поворота пытался найти шрифты, распознать текст, найти их наклон, чтобы повернуть документ как надо. Для обрезки играл с яркостью и контрастом, размытием, чтобы выделить области текста, а лишнее обрезать. В итоге алгоритмы не давали нужного результата, а нагрузку создавали существенную.
Поэтому натренировал две нейронки, одну на поворот на базе MobileNetV2, вторую на обрезку на базе Yolo5. Режет и поворачивает практически идеально с минимальными затратами ресурсов системы.
У каждого инструмента есть своя сфера применения, где он может быть эффективно использован.
Ещё одна статья по теме на АШ :
https://aftershock.news/?q=node/1432859
Оцените.
Я замечу, что в ней есть ма-а-ленький ньюанс, который меня смутил.
Интересно, увидите ли Вы его. (надо читать всё)
Если нет, – подскажу.
Интересно, что вас смутило? Поделитесь, уважаемый Жора.
Вот этот коммент там :
“ХоббитРоссия14:24
Та же мысль возникла, дальнейшее развитие протекает в закрытых НИИ, а массы продолжают играться с открытыми моделькамию”
Типа пипл кормят тем, что в статьях, а реальное пошло в секретку.
Вы в тыщу раз ближе к теме и , вероятно, можете спрогнозировать отсутствие остановки.
Лично я считаю,что прав С.Савельев. И что ИИ будет представлять собой супер-скоростную библиотеку, всего лишь.
Предлагая варианты для принятия решения человеком (разумным, естессно).
Сейчас мы можем говорить только о больших текстовых моделях LLM, о которых и говорится в статье. У них есть свои сильные и слабые стороны. Сильные в том, что они могут обобщать большое количество данных, из этих обобщений строить взаимосвязи и выдавать ответы исходя из этих связей. Эта деятельность близка человеческой, т.к. мы тоже собираем и обобщаем данные о мире, из которых формируем мировоззрение и привычки. В основном мы действуем на автомате и не видим действительности, а видим только то, что привыкли интерпретировать определённым образом. Однако, как говорит и профессор С.Савельев, мы можем мыслить – т.е. пытаться осознать воспринимаемую информацию, построить абстрактные модели, вывести определённую логику и оперировать ей, в то время как текстовые модели в силу своей конструкции этого не могут. Они “ошибаются” не потому-что не совершенны, а потому-что для них не существует понятия ошибки.
И здесь возникает вопрос валидации ошибок, который не может быть просто решён. Можно привести аналогию с квантовыми компьютерами, где со сложностью системы, сложность валидации растёт экспоненциально:
Поэтому модели LLM по своей природе могут занимать только узкую нишу, где их сейчас активно используют. Что касается закрытых НИИ, то там люди берут на вооружение всё и активно это используют. В том числе и нейросети. Например, недавно была статья, что на Западе уже сделали систему управления роем дронов на основе больших текстовых моделей, но пока есть проблема связи, т.к. большие модели требуют серьёзных облачных ресурсов, которые не могут быть локализованы, поэтому если заглушить рою связь с большой землёй, он превратится в груду металла. Как “всемирная библиотека” LLM вряд-ли может быть использован, так как он не хранит данных, а хранит только связи, а как система для работы с аналогиями, обработки больших данных, где точность не принципиальна, будет активно внедрятся.
Эх! Сергея Савельева на них не хватает!)))))))
ИИ может быть помощником человеку в определённых ситуациях. Но он ни когда не сможет научиться думать, как человек.
ИИ всё чаще доверяют творческую и офисную работу. А Человек подметает улицу, чистит унитазы, делает шаурму/шаверму.
90% программистов и тестировщиков скоро будут не нужны. Написание программного кода во многом рутинная работа, подходящая для ИИ. Эскизные проекты частных домов может делать ИИ.
В следующем году Минский тракторный завод обещает безпилотный трактор. Но, скорее всего, он будет радиоуправляемый, а не самостоятельно принимающий решения. Просто тракторист будет сидеть под навесом, или в колхозном офисе. Тракторист останется и займёт место офисного работника.
Под навесом так-же будут сидеть: механик, слесаря-ремонтники, сварщик, токарь, водитель ТЗ и др люд.