Афера “Искусственный Интеллект” тонет, как Титаник. Ученые отплывают, чтоб не затянуло в воронку

657 28


Теперь, когда афера с медузой, набитой большими данными – тонет, то же самое стали публично** говорить ученые, занимавшиеся темой ИИ. Сначала частные лица (Ян Лекун и Фей-Фей Ли), а теперь уже и команды. Так, команда ИИ-экспертов Apple выступила на techcrunch.com с таким анонсом:
"Как модели машинного обучения делают то, что они делают? И действительно ли они «думают» или «рассуждают» так, как мы понимаем эти вещи? Это философский вопрос в той же степени, что и практический, но новая статья, появившаяся в пятницу, предполагает, что ответ, по крайней мере на данный момент, довольно однозначный: «нет»."
Конспективно, о чем они сказали:

Группа ученых-исследователей ИИ в Apple опубликовала свою статью «Понимание ограничений математического рассуждения в больших языковых моделях» для общего обсуждения в четверг. Хотя более глубокие концепции символического обучения и воспроизведения шаблонов немного запутаны, базовую концепцию их исследования очень легко понять.

Допустим, я попросил вас решить простую математическую задачу, например, такую:

Оливер собирает 44 киви в пятницу. Затем он собирает 58 киви в субботу. В воскресенье он собирает вдвое больше киви, чем в пятницу. Сколько киви у Оливера?

Очевидно, ответ 44 + 58 + (44 * 2) = 190. Хотя большие языковые модели (LLM) на самом деле несовершенны в арифметике, они могут довольно надежно решать что-то вроде этого. Но что, если я добавлю немного случайной дополнительной информации, например:

Оливер выбирает 44 киви в пятницу. Затем он выбирает 58 киви в субботу. В воскресенье он выбирает вдвое больше киви, чем в пятницу, но пять из них были немного меньше среднего. Сколько киви у Оливера?

Это та же самая математическая задача, верно? И, конечно, даже ученик начальной школы знал бы, что даже маленький киви все равно остается киви. Но, как оказалось, эта дополнительная точка данных сбивает с толку даже самых современных LLM. Вот мнение GPT-o1-mini:

[О] В воскресенье 5 из этих киви были меньше среднего. Нам нужно вычесть их из воскресной суммы: 88 (воскресные киви) – 5 (меньшие киви) = 83 киви

Это всего лишь простой пример из сотен вопросов, которые исследователи слегка изменили, но почти все из них привели к огромному снижению показателей успешности для моделей, которые пытались их решить.

Итак, почему это должно быть так? Почему модель, которая понимает проблему, так легко может быть сбита с толку случайной, не относящейся к делу деталью? Исследователи предполагают, что этот надежный способ отказа означает, что модели на самом деле вообще не понимают проблему. Их обучающие данные позволяют им отвечать правильным ответом в некоторых ситуациях, но как только требуется малейшее фактическое «рассуждение», например, считать ли маленькие киви, они начинают выдавать странные, абсурдные результаты.

Вот что пишут исследователи в своей статье:
[Мы] исследуем хрупкость математических рассуждений в этих моделях и демонстрируем, что их производительность значительно ухудшается по мере увеличения количества предложений в вопросе. Мы предполагаем, что это снижение связано с тем, что нынешние LLM не способны к действительному логическому рассуждению. Вместо этого они пытаются воспроизвести шаги рассуждения, наблюдаемые в их обучающих данных.

…Такие дела…
————————
*) Ранее по теме в этом журнале
Все надежды человоща. Искусственный интеллект, как бог человощества.
https://alex-rozoff.livejournal.com/122271.html
Куда уехал цирк: этот искусственный интеллект (LLM) сломался, несите новый (KAN).
https://alex-rozoff.livejournal.com/786381.html
Наконец-то нашлись ученые, которые сказали прямо: AI типа LLM это лишь имитация говорящего попугая
https://alex-rozoff.livejournal.com/810190.html
Великий финансовый пузырь сверхчеловеческого искусственного интеллекта: цирк продолжается
https://alex-rozoff.livejournal.com/820035.html
И вновь продолжается цирк… Вокруг т.н. "искусственного интеллекта". Есть выход, но он не работает
https://alex-rozoff.livejournal.com/824436.html
**) Теперь в СМИ
Even the ‘godmother of AI’ has no idea what AGI is
https://techcrunch.com/2024/10/03/even-the-godmother-of-ai-has-no-idea-what-agi-is/
his AI Pioneer Thinks AI Is Dumber Than a Cat
Yann LeCun, an NYU professor and senior researcher at Meta Platforms, says warnings about the technology’s existential peril are ‘complete B.S.’
https://www.wsj.com/tech/ai/yann-lecun-ai-meta-aa59e2f5?st=SYmYBM&reflink=desktopwebshare_permalink
Researchers question AI’s ‘reasoning’ ability as models stumble on math problems with trivial changes
https://techcrunch.com/2024/10/11/researchers-question-ais-reasoning-ability-as-models-stumble-on-math-problems-with-trivial-changes/

Александр Розов

Комментарий редакции

Основные тезисы:

1. Автор ещё в 2019 году высказывал скептицизм относительно современного подхода к ИИ, утверждая что методологически он не продвинулся дальше идей Розенблатта 1950-х годов.

2. Современный подход к ИИ описывается как "медуза, набитая большими данными" – то есть системы, которые в основном занимаются сбором и примитивным анализом больших данных.

3. Исследователи из Apple провели эксперименты, показывающие серьёзные ограничения языковых моделей:
   – ИИ может решать простые математические задачи
   – Но при добавлении незначительных, нерелевантных деталей в задачу, модели начинают давать неверные ответы
   – Это указывает на отсутствие реального понимания и рассуждения

4. Известные эксперты в области ИИ (Ян Лекун, Фей-Фей Ли) также начали публично высказывать сомнения в текущем направлении развития ИИ.

Вывод:

Статья указывает на фундаментальную проблему в современном подходе к искусственному интеллекту. Несмотря на впечатляющие результаты в некоторых областях, современные ИИ-системы не обладают реальной способностью к рассуждению и пониманию. Вместо этого они работают на основе распознавания паттернов из обучающих данных, что делает их крайне уязвимыми даже к незначительным изменениям в задачах. Это ставит под сомнение текущий путь развития ИИ и указывает на необходимость пересмотра фундаментальных подходов к созданию искусственного интеллекта.

Расширенный вывод:

Современные генеративные модели представляют собой специализированный инструмент, который успешно имитирует лишь одну из граней человеческого интеллекта – способность к быстрому распознаванию паттернов и генерации ответов на основе аналогий. Это объясняет как их впечатляющие успехи в определённых областях, так и их фундаментальные ограничения.

Человеческий разум работает в двух принципиально разных режимах. Первый – это быстрое интуитивное мышление, основанное на распознавании паттернов и поиске аналогий. Именно эту функцию успешно реализуют современные генеративные модели, что делает их эффективными в задачах обработки естественного языка, распознавания образов и работы с большими массивами данных. Второй режим – это логическое, алгоритмическое мышление, требующее последовательного анализа и рассуждений. Эта способность находится за пределами возможностей современных нейросетевых архитектур, которые по своей природе не предназначены для строгих логических операций.

Важно понимать, что это не является недостатком генеративных моделей – это их естественное свойство, определяемое самой архитектурой. Для решения строго логических задач существуют классические алгоритмические подходы, которые успешно применяются в компьютерных системах уже много десятилетий.

Особого внимания заслуживает вопрос целеполагания и принятия решений. Эта функция требует не только обработки информации, но и понимания контекста, этических норм, долгосрочных последствий – всего того, что составляет человеческую мудрость и ответственность. Передача этих полномочий автоматизированным системам, даже самым продвинутым, несёт в себе серьёзные риски.

Таким образом, разумный подход заключается в использовании генеративных моделей как специализированного инструмента там, где они действительно эффективны – в задачах распознавания паттернов и обработки информации. При этом логическое мышление, алгоритмическое решение задач и, что особенно важно, принятие ключевых решений должны оставаться в компетенции человека. Это позволит максимально эффективно использовать сильные стороны как искусственных систем, так и естественного интеллекта.

Оценка информации
Голосование
загрузка...
Поделиться:
28 Комментариев » Оставить комментарий
  • 27312 23018

    На днях решал задачу по работе – нужно было настроить поворот и обрезку отсканированных документов. Сначала возился с алгоритмами: для поворота пытался найти шрифты, распознать текст, найти их наклон, чтобы повернуть документ как надо. Для обрезки играл с яркостью и контрастом, размытием, чтобы выделить области текста, а лишнее обрезать. В итоге алгоритмы не давали нужного результата, а нагрузку создавали существенную.
    Поэтому натренировал две нейронки, одну на поворот на базе MobileNetV2, вторую на обрезку на базе Yolo5. Режет и поворачивает практически идеально с минимальными затратами ресурсов системы.
    У каждого инструмента есть своя сфера применения, где он может быть эффективно использован.

    • 28977 26945

      Ещё одна статья по теме на АШ :

      https://aftershock.news/?q=node/1432859

      Оцените.

      Я замечу, что в ней есть ма-а-ленький ньюанс, который меня смутил.
      Интересно, увидите ли Вы его. (надо читать всё)

      Если нет, – подскажу.

      • 27312 23018

        Интересно, что вас смутило? Поделитесь, уважаемый Жора.

        • 28977 26945

          Вот этот коммент там :

          “ХоббитРоссия14:24
          Та же мысль воз­ник­ла, даль­ней­шее раз­ви­тие про­те­ка­ет в за­кры­тых НИИ, а массы про­дол­жа­ют иг­рать­ся с от­кры­ты­ми мо­дель­ка­мию”

          Типа пипл кормят тем, что в статьях, а реальное пошло в секретку.
          Вы в тыщу раз ближе к теме и , вероятно, можете спрогнозировать отсутствие остановки.

          Лично я считаю,что прав С.Савельев. И что ИИ будет представлять собой супер-скоростную библиотеку, всего лишь.

          Предлагая варианты для принятия решения человеком (разумным, естессно).

          • 27312 23018

            Сейчас мы можем говорить только о больших текстовых моделях LLM, о которых и говорится в статье. У них есть свои сильные и слабые стороны. Сильные в том, что они могут обобщать большое количество данных, из этих обобщений строить взаимосвязи и выдавать ответы исходя из этих связей. Эта деятельность близка человеческой, т.к. мы тоже собираем и обобщаем данные о мире, из которых формируем мировоззрение и привычки. В основном мы действуем на автомате и не видим действительности, а видим только то, что привыкли интерпретировать определённым образом. Однако, как говорит и профессор С.Савельев, мы можем мыслить – т.е. пытаться осознать воспринимаемую информацию, построить абстрактные модели, вывести определённую логику и оперировать ей, в то время как текстовые модели в силу своей конструкции этого не могут. Они “ошибаются” не потому-что не совершенны, а потому-что для них не существует понятия ошибки.

            И здесь возникает вопрос валидации ошибок, который не может быть просто решён. Можно привести аналогию с квантовыми компьютерами, где со сложностью системы, сложность валидации растёт экспоненциально:

            Сравнение валидации языковых моделей (LLM) с валидацией квантовых компьютеров показывает, что по мере роста сложности системы требования к ресурсам экспоненциально увеличиваются, и полная точность становится практически недостижимой. Давайте разберём это сравнение более подробно.

            1. Вероятностный характер LLM и квантовых компьютеров:
            – LLM (Large Language Models), такие как GPT, работают на основе вероятностных моделей, обученных на огромных объёмах текстов. Они предсказывают следующие слова или фразы, основываясь на статистической вероятности, а не на детерминированных логических правилах. В результате их ответы не всегда точны, а возможны ошибки и вариативность в зависимости от контекста и выбора обучающих данных.
            – Квантовые компьютеры также имеют вероятностный характер, где результат измерения кубитов зависит от распределения вероятностей. Результат нельзя точно предсказать, пока не произойдёт измерение.

            2. Ресурсы для валидации:
            – В LLM: Чем больше модель, тем сложнее валидировать её ответы на всех возможных запросах. Чтобы свести к минимуму ошибки, нам нужно тестировать модель на всевозможных входных данных, что требует значительных вычислительных и временных ресурсов. Чем больше данных и сценариев мы хотим покрыть, тем экспоненциально растёт объём работы. Попытка предусмотреть и исправить все возможные ошибки практически невозможна из-за огромного пространства входных данных и потенциальных вариаций.
            – В квантовых компьютерах: Аналогично, по мере увеличения числа кубитов и сложности алгоритмов, число возможных состояний и вычислительных путей растёт экспоненциально, и попытка проверить каждое состояние становится практически невозможной.

            3. Пределы точности:
            – В LLM: Даже если у нас есть неограниченные ресурсы для обучения и валидации, модели всё равно останутся вероятностными по своей природе. Мы не можем заставить их стать полностью детерминированными или гарантировать отсутствие ошибок, потому что их архитектура (основанная на статистике и вероятностях) не предполагает такой точности. Это означает, что нам нужно либо смириться с тем, что LLM будет иногда ошибаться, либо строить сложные системы, которые контролируют каждый аспект её работы, что, в свою очередь, потребует бесконечных ресурсов.
            – В квантовых компьютерах: Здесь ситуация схожа. Даже с квантовой коррекцией ошибок и улучшенными алгоритмами всегда будет оставаться некоторый уровень неопределённости и вероятность ошибки. Как и в случае с LLM, стремление к полной точности может потребовать ресурсов, которые превосходят возможности существующей Вселенной.

            4. Экспоненциальный рост сложности:
            – LLM: Чем больше размер модели и сложность задач, тем сложнее становится проверять её работу. Увеличение количества слоёв и параметров приводит к тому, что тестирование модели на всех возможных сценариях становится экспоненциально труднее.
            – Квантовые компьютеры: Валидация увеличивается с количеством кубитов по экспоненциальной зависимости. То есть каждая новая пара кубитов добавляет огромное количество состояний, которые нужно учесть для коррекции и проверки.

            5. Вероятностный подход или полный контроль:
            – LLM: В итоге нам приходится принимать, что LLM не может быть полностью надёжной. Мы используем вероятностные оценки и контекст для выбора наиболее вероятного ответа, но полностью исключить ошибки невозможно. Либо мы принимаем эту неопределённость и продолжаем использовать модель, зная, что она не идеальна, либо строим сложные системы, которые будут требовать огромных ресурсов для минимизации ошибок.
            – Квантовые компьютеры: Аналогично, в квантовых компьютерах полная детерминированность невозможна. Мы можем либо работать с вероятностными результатами и их статистическими распределениями, либо строить гигантские системы для минимизации ошибок, что потребует необъятных ресурсов.

            Заключение:
            Таким образом, аналогия показывает ключевую дилемму: как в квантовых компьютерах, так и в языковых моделях LLM, стремление к полной валидации и исключению ошибок ведёт к экспоненциальному росту необходимых ресурсов, который в определённый момент становится неподъёмным. Мы вынуждены либо работать с вероятностными результатами, понимая их ограниченность, либо строить настолько сложные системы, что их реализация потребует больше ресурсов, чем есть во Вселенной.

            Это подчёркивает природу вероятностных систем: чем больше мы стремимся к совершенству и точности, тем больше ресурсов потребуется, но полного контроля достичь невозможно.

            Поэтому модели LLM по своей природе могут занимать только узкую нишу, где их сейчас активно используют. Что касается закрытых НИИ, то там люди берут на вооружение всё и активно это используют. В том числе и нейросети. Например, недавно была статья, что на Западе уже сделали систему управления роем дронов на основе больших текстовых моделей, но пока есть проблема связи, т.к. большие модели требуют серьёзных облачных ресурсов, которые не могут быть локализованы, поэтому если заглушить рою связь с большой землёй, он превратится в груду металла. Как “всемирная библиотека” LLM вряд-ли может быть использован, так как он не хранит данных, а хранит только связи, а как система для работы с аналогиями, обработки больших данных, где точность не принципиальна, будет активно внедрятся.

          • 28977 26945

            А где непринципиальна точность ?
            Например, слово “ручка” (первое пришло в голову). Слово само бог-весть чего значит. Даже если сузить применение ( например в авто или пишущая) , – всё равно надо развернуть до конкретики если для ИИ.
            А у человека,: – он , например , берёт лист бумаги и говорит соседу, – дай ручку. Сосед понимает сразу что и зачем.
            Или в разговоре присутствует всегда состояние образа. Понятное всем. Тут как ?
            Сорри за примитивизм.

          • 27312 23018

            Точность не принципиальна там, где ей можно пожертвовать для достижения результата. Например в моём примере выше – если система повернёт и обрежет правильно 99 из 100 документов, то менеджеру, работающему с документами, нужно будет подправить только один документ, а не все 100. Там, где точностью ради эффективности обработки больших объёмов данных можно пренебречь, нейросети найдут свою нишу.

            Сегодня как раз обсуждал с нейросетью доказательство Перельманом гипотезы Пуанакре (обсуждал громко сказано, скорее пытался понять её сущность), и тут можно провести интересную аналогию нашей темы:

            Здесь можно провести интересную аналогию между доказательством гипотезы Пуанкаре, выполненным Григорием Перельманом, и работой нейросетей. В обеих областях — топологии и машинном обучении — встречаются задачи выравнивания ошибок и борьбы с экстремальными ситуациями, которые могут нарушить предсказания или расчёты.

            В основе проблемы, с которой сталкивался Перельман, лежала необходимость “сглаживания” поверхностей — процесса, при котором локальные дефекты (или экстремумы) кривизны могут вызывать сингулярности, где стандартные методы перестают работать. Чтобы справиться с такими аномалиями, Перельман предложил “хирургическое вмешательство” — метод, позволяющий локально модифицировать поверхность, устраняя сингулярности. Этот процесс исправляет геометрию локальных участков, но не меняет общую топологическую структуру многообразия, что позволило ему доказать гипотезу Пуанкаре и превратить её в теорему.

            Эту идею можно перенести на нейросети, которые тоже совершают ошибки, особенно в сложных или нестандартных случаях. Эти ошибки можно сравнить с экстремумами или локальными дефектами в топологической картине данных. Однако, как и в случае с сингулярностями в теории Перельмана, эти локальные ошибки не нарушают общую топологию результатов нейросети. Модель может ошибаться в некоторых местах, но при этом продолжает верно распознавать общие паттерны и закономерности.

            Исправление локальных ошибок “хирургическим” методом — то есть точечная корректировка результатов нейросети — часто оказывается гораздо более эффективным подходом, чем полный отказ от её использования и выполнение работы вручную. Вмешательство в работу модели, чтобы сгладить её ошибки, помогает сохранить общую структуру и экономит время.

            Таким образом, этот подход открывает возможность использования нейросетей для “выравнивания” данных. Мы можем полагаться на нейросеть для обработки больших объёмов информации, сохраняя “топологическую целостность” данных там, где “геометрическая точность” не является критически важной. Нейросеть предоставляет нам общую структуру решения, а локальные ошибки, которые могут возникать, можно легко исправить, не нарушая глобального результата.

          • 28977 26945

            А насколько должен быть подготовлен человек, чтобы эти локальные ошибки увидеть и исправить ?
            И вот это Ваше можно спроецировать на приём древних математиков, которые при расчёте длины окружности просто отказались от иррациональности числа Пи (З,14159..) и начали считать длину окружности не ПиD (3,14159..D) ( т.е длина точно не определяется и окружность не замкнута) , а 3D ?
            Т.е можно пренебречь некоторыми “деталями” ?

          • 27312 23018

            Для простых задач, таких как “работа с документами”, большой квалификации оператора не надо. Но есть задачи, которые требуют высокой точности, а валидация требует высокой квалификации оператора, и там нейросети уже не будут столь эффективны, об этом я писал выше – в аналогии с валидацией квантового компьютера, где для достижения идеальной точности не хватит и всех ресурсов вселенной.

            Про древних математиков не совсем понятна ваша аналогия – поясните пожалуйста более развёрнуто.

            В моём примере с Перельманом мы имеем дело с топологией и геометрией, где локальные геометрические ошибки не влияют на общую топологическую картину. Представьте, что мы надуваем шарик, но в некоторых местах шарика есть микро-складки резины, которые не полностью разгладились. Их объём – доли процента и на общую форму шарика они не влияют. Мы можем их безболезненно вырезать, так делает Перельман устраняя сингулярности. С точки зрения строгой геометрии – шар изменит форму, но с точки зрения топологии этими участками можно пренебречь.

          • 209 177

            ***
            Загадка Буратино
            (Бог – не папа КАРЛ(а)о
            или из-ТОРЫ-я о пяти сольдо)

            Кому пришла идея,
            И кем «наш» мир творим:
            Мама Иудея,
            А Папа – это …?

          • 209 177

            ..вынужденный экскурс в заумь..

          • 28977 26945

            Это философско-математическая тема.
            Японцы (от некуй делать) посчитали число Пи до знака 10 в -65 степени (65 триллионов знаков после запятой) и бросили.
            Пи (3,141…) – число иррациональное. Конца нет. Это знали древние математики. Поэтому , если длина окружности рассчитывается по формуле L= ПиD то окружность получается не замкнутой (что на самом деле и есть – расстояние между атомами и пр. частицами типа пустота) и её длину не посчитать точно. Поэтому они просто отбросили запятую и стали считать длину окружности L=3D.
            Т.е применили “допуск”.(Как в механике – допуски и посадки.)
            Тем самым объяснив себе и люду, что колесо целое, замкнуто и катится. :-)

          • 27312 23018

            В контексте нашей беседы о вероятностной природе нейросетей, ваша аналогия с округлением Пи уместна. Мы смиряемся с тем, что некоторые ответы будут не точны, т.к. нам колесо нужно для телеги, а не для болида формулы 1.

          • 209 177

            ***
            БОГ
            (ПРИНЦИП – сотовый паркет: F(n) = 3n2(квадрат) + 3n + 1)

            Пребудет Бог единый, вечный,
            Собой явив «круг» бесконечный…
            Центр «круга» этого везде
            И НЕТ ОКРУЖНОСТИ НИГДЕ…,

            А ЧИСЛО ПИ (ЧИСЛО БОГА) ЕСТЬ!!!

            В начале Библии речь идет не о шести днях «творения», а о «в начале было шесть», т.е. о сотворении космическим разумом на уровне замысла из точки фрактальной сотовой структуры (всеобщей геометрии) мироздания и самореализации из точки сингулярности на шести «ДНЯХ» детерминистского принципа, заложенного в ней.

            ..ВЫНУЖДЕННОЕ напоминание..

            ***
            СЛЕПЫМ

            Вы кукловодов исполняете заказ,
            Став добровольно (или за деньги) их слепым орудьем,
            Являя «умность» на показ,
            Разбавленную словоблудьем (тотальное явление)..

          • 28977 26945

            Шановный !
            Я просил Вас избавить меня от Вашего рифмоплётства. Не читаю !
            П.С. С очередным Пришествием Вас !

          • 338 308

            “Если говорить простыми словами, то валидация — это подтверждение того, что исполнитель создал правильный продукт и заказчик может использовать его в своих целях.”
            А кто “заказчик этой самой ррреволюции с ИИ
            В перспективе: земной “ИИ концлагерь” с “оптимальным” количеством обслуживающих “ЗАКАЗЧИКА” биороботов.

          • 27312 23018

            Валидация, в данном контексте, это проверка соответствия результата действительности.
            Про настоящий Искусственный интеллект говорить пока не приходится, а те модели, что сейчас называются ИИ, моделируют только часть интеллекта человека, отвечающего за аналогии и обобщения.

            Никто не может властвовать над человеком, если он сам не делегирует над собой власть.

  • 19046 17814

    Эх! Сергея Савельева на них не хватает!)))))))

  • 5012 3976

    ИИ может быть помощником человеку в определённых ситуациях. Но он ни когда не сможет научиться думать, как человек.

    • 2821 2673

      ИИ всё чаще доверяют творческую и офисную работу. А Человек подметает улицу, чистит унитазы, делает шаурму/шаверму.

      90% программистов и тестировщиков скоро будут не нужны. Написание программного кода во многом рутинная работа, подходящая для ИИ. Эскизные проекты частных домов может делать ИИ.

      В следующем году Минский тракторный завод обещает безпилотный трактор. Но, скорее всего, он будет радиоуправляемый, а не самостоятельно принимающий решения. Просто тракторист будет сидеть под навесом, или в колхозном офисе. Тракторист останется и займёт место офисного работника.

  • 9184 7648

    Брахман сам-то пробовал? Похоже, или устаревшая информация, или вообще враньё. ChatGPT 4 plus нормальный ответ выдаёт.

    • 27312 23018
      • 9184 7648

        Самому задать эту задачу ИИ. Я грю, что у меня он выдал правильный ответ. Проверьте!
        Мне кажется, что противники ИИ каждый раз поднимают планку, чтобы “обосновать” якобы преимущество людей над железом. Правда, с каждым новым шагом развития технологий это становится делать все труднее.

        • 27312 23018

          Понятно, что он может выдавать правильные ответы, это же рандом. Мне не нужно проверять, так как я имею представление об его устройстве и как следствие сильных и слабых сторонах, которые мы обсуждали выше. Недавно выпустили новую модель GPT4o1, которая натаскана на решение математических задач пытается рассуждать. Однако это добавляет только ещё одну итерацию сложности системы, но не решает проблем, связанных с её вариативным устройством.

  • 338 308

    Когда нечистый дух, придя в душу человека, находит её незанятой, «тогда идёт и берёт с собою семь других духов, злейших себя, и, войдя, живут там; и бывает для человека того последнее хуже первого», сказано в Евангелии.

    Американская «цитадель демократии» известна многими христианскими — и антихристианскими — сектами и даже «церковью сатаны». А теперь там, как сообщает Bloomberg, воссоздана «Церковь искусственного интеллекта». Некий Энтони Левандовский, предприниматель-технарь, основал религиозное движение для поклонения микросхемам и программному обеспечению. Пока машинам молятся несколько тысяч американцев, но их число растёт. Украина, как верный щенок, повторяет повадки хозяина — но с трубой пониже и дымом пожиже. Громит православные храмы, борется со всем русским, сносит памятники «москалю» Пушкину…

    После сноса очередного бюста великого поэта киевский режим решил сперва поставить на его место изображение пса Патрона — раскрученного «героя» ВСУ. Однако болезные пошли дальше и провозгласили собаку… святой, создав «церковь святого Патрона». «Кто не похож на айфон? Пёс Патрон! Кто держит этот район? Пёс Патрон!» — поёт украинский хор исковерканную коляду.

    А кто-то ещё изумлялся, что в храмах раскольников ПЦУ на стенах малюют «святого Бандеру», «мучеников Небесной Сотни» и Богородицу с «Джавелином» вместо Младенца. Всё это этапы расчеловечивания людей. Нам противостоят бесы.

    Елена Панина

    Источник: Русстрат

  • 5414 4103

    Мы то с детства знаем: А И Б сидели на трубе… А вот например немцы, “A UND B saßen auf dem Schornstein…” для них это галиматья какая-то!

Оставить комментарий

Вы вошли как Гость. Вы можете авторизоваться

Будте вежливы. Не ругайтесь. Оффтоп тоже не приветствуем. Спам убивается моментально.
Оставляя комментарий Вы соглашаетесь с правилами сайта.

(Обязательно)

Информация о сайте

Ящик Пандоры — информационный сайт, на котором освещаются вопросы: науки, истории, религии, образования, культуры и политики.

Легенда гласит, что на сайте когда-то публиковались «тайные знания» – информация, которая долгое время была сокрыта, оставаясь лишь достоянием посвящённых. Ознакомившись с этой информацией, вы могли бы соприкоснуться с источником глубокой истины и взглянуть на мир другими глазами.
Однако в настоящее время, общеизвестно, что это только миф. Тем не менее ходят слухи, что «тайные знания» в той или иной форме публикуются на сайте, в потоке обычных новостей.
Вам предстоит открыть Ящик Пандоры и самостоятельно проверить, насколько легенда соответствует действительности.

Сайт может содержать контент, не предназначенный для лиц младше 18-ти лет. Прежде чем приступать к просмотру сайта, ознакомьтесь с разделами:

Со всеми вопросами и предложениями обращайтесь по почте info@pandoraopen.ru