Афера “Искусственный Интеллект” тонет, как Титаник. Ученые отплывают, чтоб не затянуло в воронку
Теперь, когда афера с медузой, набитой большими данными – тонет, то же самое стали публично** говорить ученые, занимавшиеся темой ИИ. Сначала частные лица (Ян Лекун и Фей-Фей Ли), а теперь уже и команды. Так, команда ИИ-экспертов Apple выступила на techcrunch.com с таким анонсом:
"Как модели машинного обучения делают то, что они делают? И действительно ли они «думают» или «рассуждают» так, как мы понимаем эти вещи? Это философский вопрос в той же степени, что и практический, но новая статья, появившаяся в пятницу, предполагает, что ответ, по крайней мере на данный момент, довольно однозначный: «нет»."
Конспективно, о чем они сказали:
Группа ученых-исследователей ИИ в Apple опубликовала свою статью «Понимание ограничений математического рассуждения в больших языковых моделях» для общего обсуждения в четверг. Хотя более глубокие концепции символического обучения и воспроизведения шаблонов немного запутаны, базовую концепцию их исследования очень легко понять.
Допустим, я попросил вас решить простую математическую задачу, например, такую:
Оливер собирает 44 киви в пятницу. Затем он собирает 58 киви в субботу. В воскресенье он собирает вдвое больше киви, чем в пятницу. Сколько киви у Оливера?
Очевидно, ответ 44 + 58 + (44 * 2) = 190. Хотя большие языковые модели (LLM) на самом деле несовершенны в арифметике, они могут довольно надежно решать что-то вроде этого. Но что, если я добавлю немного случайной дополнительной информации, например:
Оливер выбирает 44 киви в пятницу. Затем он выбирает 58 киви в субботу. В воскресенье он выбирает вдвое больше киви, чем в пятницу, но пять из них были немного меньше среднего. Сколько киви у Оливера?
Это та же самая математическая задача, верно? И, конечно, даже ученик начальной школы знал бы, что даже маленький киви все равно остается киви. Но, как оказалось, эта дополнительная точка данных сбивает с толку даже самых современных LLM. Вот мнение GPT-o1-mini:
[О] В воскресенье 5 из этих киви были меньше среднего. Нам нужно вычесть их из воскресной суммы: 88 (воскресные киви) – 5 (меньшие киви) = 83 киви
Это всего лишь простой пример из сотен вопросов, которые исследователи слегка изменили, но почти все из них привели к огромному снижению показателей успешности для моделей, которые пытались их решить.
Итак, почему это должно быть так? Почему модель, которая понимает проблему, так легко может быть сбита с толку случайной, не относящейся к делу деталью? Исследователи предполагают, что этот надежный способ отказа означает, что модели на самом деле вообще не понимают проблему. Их обучающие данные позволяют им отвечать правильным ответом в некоторых ситуациях, но как только требуется малейшее фактическое «рассуждение», например, считать ли маленькие киви, они начинают выдавать странные, абсурдные результаты.
Вот что пишут исследователи в своей статье:
[Мы] исследуем хрупкость математических рассуждений в этих моделях и демонстрируем, что их производительность значительно ухудшается по мере увеличения количества предложений в вопросе. Мы предполагаем, что это снижение связано с тем, что нынешние LLM не способны к действительному логическому рассуждению. Вместо этого они пытаются воспроизвести шаги рассуждения, наблюдаемые в их обучающих данных.
…Такие дела…
————————
*) Ранее по теме в этом журнале
Все надежды человоща. Искусственный интеллект, как бог человощества.
https://alex-rozoff.livejournal.com/122271.html
Куда уехал цирк: этот искусственный интеллект (LLM) сломался, несите новый (KAN).
https://alex-rozoff.livejournal.com/786381.html
Наконец-то нашлись ученые, которые сказали прямо: AI типа LLM это лишь имитация говорящего попугая
https://alex-rozoff.livejournal.com/810190.html
Великий финансовый пузырь сверхчеловеческого искусственного интеллекта: цирк продолжается
https://alex-rozoff.livejournal.com/820035.html
И вновь продолжается цирк… Вокруг т.н. "искусственного интеллекта". Есть выход, но он не работает
https://alex-rozoff.livejournal.com/824436.html
**) Теперь в СМИ
Even the ‘godmother of AI’ has no idea what AGI is
https://techcrunch.com/2024/10/03/even-the-godmother-of-ai-has-no-idea-what-agi-is/
his AI Pioneer Thinks AI Is Dumber Than a Cat
Yann LeCun, an NYU professor and senior researcher at Meta Platforms, says warnings about the technology’s existential peril are ‘complete B.S.’
https://www.wsj.com/tech/ai/yann-lecun-ai-meta-aa59e2f5?st=SYmYBM&reflink=desktopwebshare_permalink
Researchers question AI’s ‘reasoning’ ability as models stumble on math problems with trivial changes
https://techcrunch.com/2024/10/11/researchers-question-ais-reasoning-ability-as-models-stumble-on-math-problems-with-trivial-changes/
Александр Розов
Комментарий редакции
Основные тезисы:
1. Автор ещё в 2019 году высказывал скептицизм относительно современного подхода к ИИ, утверждая что методологически он не продвинулся дальше идей Розенблатта 1950-х годов.
2. Современный подход к ИИ описывается как "медуза, набитая большими данными" – то есть системы, которые в основном занимаются сбором и примитивным анализом больших данных.
3. Исследователи из Apple провели эксперименты, показывающие серьёзные ограничения языковых моделей:
– ИИ может решать простые математические задачи
– Но при добавлении незначительных, нерелевантных деталей в задачу, модели начинают давать неверные ответы
– Это указывает на отсутствие реального понимания и рассуждения
4. Известные эксперты в области ИИ (Ян Лекун, Фей-Фей Ли) также начали публично высказывать сомнения в текущем направлении развития ИИ.
Вывод:
Статья указывает на фундаментальную проблему в современном подходе к искусственному интеллекту. Несмотря на впечатляющие результаты в некоторых областях, современные ИИ-системы не обладают реальной способностью к рассуждению и пониманию. Вместо этого они работают на основе распознавания паттернов из обучающих данных, что делает их крайне уязвимыми даже к незначительным изменениям в задачах. Это ставит под сомнение текущий путь развития ИИ и указывает на необходимость пересмотра фундаментальных подходов к созданию искусственного интеллекта.
Расширенный вывод:
Современные генеративные модели представляют собой специализированный инструмент, который успешно имитирует лишь одну из граней человеческого интеллекта – способность к быстрому распознаванию паттернов и генерации ответов на основе аналогий. Это объясняет как их впечатляющие успехи в определённых областях, так и их фундаментальные ограничения.
Человеческий разум работает в двух принципиально разных режимах. Первый – это быстрое интуитивное мышление, основанное на распознавании паттернов и поиске аналогий. Именно эту функцию успешно реализуют современные генеративные модели, что делает их эффективными в задачах обработки естественного языка, распознавания образов и работы с большими массивами данных. Второй режим – это логическое, алгоритмическое мышление, требующее последовательного анализа и рассуждений. Эта способность находится за пределами возможностей современных нейросетевых архитектур, которые по своей природе не предназначены для строгих логических операций.
Важно понимать, что это не является недостатком генеративных моделей – это их естественное свойство, определяемое самой архитектурой. Для решения строго логических задач существуют классические алгоритмические подходы, которые успешно применяются в компьютерных системах уже много десятилетий.
Особого внимания заслуживает вопрос целеполагания и принятия решений. Эта функция требует не только обработки информации, но и понимания контекста, этических норм, долгосрочных последствий – всего того, что составляет человеческую мудрость и ответственность. Передача этих полномочий автоматизированным системам, даже самым продвинутым, несёт в себе серьёзные риски.
Таким образом, разумный подход заключается в использовании генеративных моделей как специализированного инструмента там, где они действительно эффективны – в задачах распознавания паттернов и обработки информации. При этом логическое мышление, алгоритмическое решение задач и, что особенно важно, принятие ключевых решений должны оставаться в компетенции человека. Это позволит максимально эффективно использовать сильные стороны как искусственных систем, так и естественного интеллекта.
На днях решал задачу по работе – нужно было настроить поворот и обрезку отсканированных документов. Сначала возился с алгоритмами: для поворота пытался найти шрифты, распознать текст, найти их наклон, чтобы повернуть документ как надо. Для обрезки играл с яркостью и контрастом, размытием, чтобы выделить области текста, а лишнее обрезать. В итоге алгоритмы не давали нужного результата, а нагрузку создавали существенную.
Поэтому натренировал две нейронки, одну на поворот на базе MobileNetV2, вторую на обрезку на базе Yolo5. Режет и поворачивает практически идеально с минимальными затратами ресурсов системы.
У каждого инструмента есть своя сфера применения, где он может быть эффективно использован.
Ещё одна статья по теме на АШ :
https://aftershock.news/?q=node/1432859
Оцените.
Я замечу, что в ней есть ма-а-ленький ньюанс, который меня смутил.
Интересно, увидите ли Вы его. (надо читать всё)
Если нет, – подскажу.
Интересно, что вас смутило? Поделитесь, уважаемый Жора.
Вот этот коммент там :
“ХоббитРоссия14:24
Та же мысль возникла, дальнейшее развитие протекает в закрытых НИИ, а массы продолжают играться с открытыми моделькамию”
Типа пипл кормят тем, что в статьях, а реальное пошло в секретку.
Вы в тыщу раз ближе к теме и , вероятно, можете спрогнозировать отсутствие остановки.
Лично я считаю,что прав С.Савельев. И что ИИ будет представлять собой супер-скоростную библиотеку, всего лишь.
Предлагая варианты для принятия решения человеком (разумным, естессно).
Сейчас мы можем говорить только о больших текстовых моделях LLM, о которых и говорится в статье. У них есть свои сильные и слабые стороны. Сильные в том, что они могут обобщать большое количество данных, из этих обобщений строить взаимосвязи и выдавать ответы исходя из этих связей. Эта деятельность близка человеческой, т.к. мы тоже собираем и обобщаем данные о мире, из которых формируем мировоззрение и привычки. В основном мы действуем на автомате и не видим действительности, а видим только то, что привыкли интерпретировать определённым образом. Однако, как говорит и профессор С.Савельев, мы можем мыслить – т.е. пытаться осознать воспринимаемую информацию, построить абстрактные модели, вывести определённую логику и оперировать ей, в то время как текстовые модели в силу своей конструкции этого не могут. Они “ошибаются” не потому-что не совершенны, а потому-что для них не существует понятия ошибки.
И здесь возникает вопрос валидации ошибок, который не может быть просто решён. Можно привести аналогию с квантовыми компьютерами, где со сложностью системы, сложность валидации растёт экспоненциально:
Поэтому модели LLM по своей природе могут занимать только узкую нишу, где их сейчас активно используют. Что касается закрытых НИИ, то там люди берут на вооружение всё и активно это используют. В том числе и нейросети. Например, недавно была статья, что на Западе уже сделали систему управления роем дронов на основе больших текстовых моделей, но пока есть проблема связи, т.к. большие модели требуют серьёзных облачных ресурсов, которые не могут быть локализованы, поэтому если заглушить рою связь с большой землёй, он превратится в груду металла. Как “всемирная библиотека” LLM вряд-ли может быть использован, так как он не хранит данных, а хранит только связи, а как система для работы с аналогиями, обработки больших данных, где точность не принципиальна, будет активно внедрятся.
А где непринципиальна точность ?
Например, слово “ручка” (первое пришло в голову). Слово само бог-весть чего значит. Даже если сузить применение ( например в авто или пишущая) , – всё равно надо развернуть до конкретики если для ИИ.
А у человека,: – он , например , берёт лист бумаги и говорит соседу, – дай ручку. Сосед понимает сразу что и зачем.
Или в разговоре присутствует всегда состояние образа. Понятное всем. Тут как ?
Сорри за примитивизм.
Точность не принципиальна там, где ей можно пожертвовать для достижения результата. Например в моём примере выше – если система повернёт и обрежет правильно 99 из 100 документов, то менеджеру, работающему с документами, нужно будет подправить только один документ, а не все 100. Там, где точностью ради эффективности обработки больших объёмов данных можно пренебречь, нейросети найдут свою нишу.
Сегодня как раз обсуждал с нейросетью доказательство Перельманом гипотезы Пуанакре (обсуждал громко сказано, скорее пытался понять её сущность), и тут можно провести интересную аналогию нашей темы:
А насколько должен быть подготовлен человек, чтобы эти локальные ошибки увидеть и исправить ?
И вот это Ваше можно спроецировать на приём древних математиков, которые при расчёте длины окружности просто отказались от иррациональности числа Пи (З,14159..) и начали считать длину окружности не ПиD (3,14159..D) ( т.е длина точно не определяется и окружность не замкнута) , а 3D ?
Т.е можно пренебречь некоторыми “деталями” ?
Для простых задач, таких как “работа с документами”, большой квалификации оператора не надо. Но есть задачи, которые требуют высокой точности, а валидация требует высокой квалификации оператора, и там нейросети уже не будут столь эффективны, об этом я писал выше – в аналогии с валидацией квантового компьютера, где для достижения идеальной точности не хватит и всех ресурсов вселенной.
Про древних математиков не совсем понятна ваша аналогия – поясните пожалуйста более развёрнуто.
В моём примере с Перельманом мы имеем дело с топологией и геометрией, где локальные геометрические ошибки не влияют на общую топологическую картину. Представьте, что мы надуваем шарик, но в некоторых местах шарика есть микро-складки резины, которые не полностью разгладились. Их объём – доли процента и на общую форму шарика они не влияют. Мы можем их безболезненно вырезать, так делает Перельман устраняя сингулярности. С точки зрения строгой геометрии – шар изменит форму, но с точки зрения топологии этими участками можно пренебречь.
***
Загадка Буратино
(Бог – не папа КАРЛ(а)о
или из-ТОРЫ-я о пяти сольдо)
Кому пришла идея,
И кем «наш» мир творим:
Мама Иудея,
А Папа – это …?
..вынужденный экскурс в заумь..
Это философско-математическая тема.
Японцы (от некуй делать) посчитали число Пи до знака 10 в -65 степени (65 триллионов знаков после запятой) и бросили.
Пи (3,141…) – число иррациональное. Конца нет. Это знали древние математики. Поэтому , если длина окружности рассчитывается по формуле L= ПиD то окружность получается не замкнутой (что на самом деле и есть – расстояние между атомами и пр. частицами типа пустота) и её длину не посчитать точно. Поэтому они просто отбросили запятую и стали считать длину окружности L=3D.
Т.е применили “допуск”.(Как в механике – допуски и посадки.)
Тем самым объяснив себе и люду, что колесо целое, замкнуто и катится. :-)
В контексте нашей беседы о вероятностной природе нейросетей, ваша аналогия с округлением Пи уместна. Мы смиряемся с тем, что некоторые ответы будут не точны, т.к. нам колесо нужно для телеги, а не для болида формулы 1.
***
БОГ
(ПРИНЦИП – сотовый паркет: F(n) = 3n2(квадрат) + 3n + 1)
Пребудет Бог единый, вечный,
Собой явив «круг» бесконечный…
Центр «круга» этого везде
И НЕТ ОКРУЖНОСТИ НИГДЕ…,
А ЧИСЛО ПИ (ЧИСЛО БОГА) ЕСТЬ!!!
В начале Библии речь идет не о шести днях «творения», а о «в начале было шесть», т.е. о сотворении космическим разумом на уровне замысла из точки фрактальной сотовой структуры (всеобщей геометрии) мироздания и самореализации из точки сингулярности на шести «ДНЯХ» детерминистского принципа, заложенного в ней.
..ВЫНУЖДЕННОЕ напоминание..
***
СЛЕПЫМ
Вы кукловодов исполняете заказ,
Став добровольно (или за деньги) их слепым орудьем,
Являя «умность» на показ,
Разбавленную словоблудьем (тотальное явление)..
Шановный !
Я просил Вас избавить меня от Вашего рифмоплётства. Не читаю !
П.С. С очередным Пришествием Вас !
“Если говорить простыми словами, то валидация — это подтверждение того, что исполнитель создал правильный продукт и заказчик может использовать его в своих целях.”
А кто “заказчик этой самой ррреволюции с ИИ
В перспективе: земной “ИИ концлагерь” с “оптимальным” количеством обслуживающих “ЗАКАЗЧИКА” биороботов.
Валидация, в данном контексте, это проверка соответствия результата действительности.
Про настоящий Искусственный интеллект говорить пока не приходится, а те модели, что сейчас называются ИИ, моделируют только часть интеллекта человека, отвечающего за аналогии и обобщения.
Никто не может властвовать над человеком, если он сам не делегирует над собой власть.
Эх! Сергея Савельева на них не хватает!)))))))
ИИ может быть помощником человеку в определённых ситуациях. Но он ни когда не сможет научиться думать, как человек.
ИИ всё чаще доверяют творческую и офисную работу. А Человек подметает улицу, чистит унитазы, делает шаурму/шаверму.
90% программистов и тестировщиков скоро будут не нужны. Написание программного кода во многом рутинная работа, подходящая для ИИ. Эскизные проекты частных домов может делать ИИ.
В следующем году Минский тракторный завод обещает безпилотный трактор. Но, скорее всего, он будет радиоуправляемый, а не самостоятельно принимающий решения. Просто тракторист будет сидеть под навесом, или в колхозном офисе. Тракторист останется и займёт место офисного работника.
Под навесом так-же будут сидеть: механик, слесаря-ремонтники, сварщик, токарь, водитель ТЗ и др люд.
Брахман сам-то пробовал? Похоже, или устаревшая информация, или вообще враньё. ChatGPT 4 plus нормальный ответ выдаёт.
Что пробовал?
Самому задать эту задачу ИИ. Я грю, что у меня он выдал правильный ответ. Проверьте!
Мне кажется, что противники ИИ каждый раз поднимают планку, чтобы “обосновать” якобы преимущество людей над железом. Правда, с каждым новым шагом развития технологий это становится делать все труднее.
Понятно, что он может выдавать правильные ответы, это же рандом. Мне не нужно проверять, так как я имею представление об его устройстве и как следствие сильных и слабых сторонах, которые мы обсуждали выше. Недавно выпустили новую модель GPT4o1, которая
натаскана на решение математических задачпытается рассуждать. Однако это добавляет только ещё одну итерацию сложности системы, но не решает проблем, связанных с её вариативным устройством.Когда нечистый дух, придя в душу человека, находит её незанятой, «тогда идёт и берёт с собою семь других духов, злейших себя, и, войдя, живут там; и бывает для человека того последнее хуже первого», сказано в Евангелии.
Американская «цитадель демократии» известна многими христианскими — и антихристианскими — сектами и даже «церковью сатаны». А теперь там, как сообщает Bloomberg, воссоздана «Церковь искусственного интеллекта». Некий Энтони Левандовский, предприниматель-технарь, основал религиозное движение для поклонения микросхемам и программному обеспечению. Пока машинам молятся несколько тысяч американцев, но их число растёт. Украина, как верный щенок, повторяет повадки хозяина — но с трубой пониже и дымом пожиже. Громит православные храмы, борется со всем русским, сносит памятники «москалю» Пушкину…
После сноса очередного бюста великого поэта киевский режим решил сперва поставить на его место изображение пса Патрона — раскрученного «героя» ВСУ. Однако болезные пошли дальше и провозгласили собаку… святой, создав «церковь святого Патрона». «Кто не похож на айфон? Пёс Патрон! Кто держит этот район? Пёс Патрон!» — поёт украинский хор исковерканную коляду.
А кто-то ещё изумлялся, что в храмах раскольников ПЦУ на стенах малюют «святого Бандеру», «мучеников Небесной Сотни» и Богородицу с «Джавелином» вместо Младенца. Всё это этапы расчеловечивания людей. Нам противостоят бесы.
Елена Панина
Источник: Русстрат
Мы то с детства знаем: А И Б сидели на трубе… А вот например немцы, “A UND B saßen auf dem Schornstein…” для них это галиматья какая-то!
Вероятно, у немцев есть свои афоризмы, построенные на игре языка.