Польза и риски ИИ. Игорь Ашманов
Оригинал видео тут: https://vkvideo.ru/video-215983798_456239658
3:05 ИИ это очередной технологический пузырь. Их было много и разных. ИИ ажиотаж это пополнение в копилку. “калькулятор и т9 это тоже ИИ” – это примеры программного обеспечения, которые тоже относятся к ИИ, но при этом не обладают таким завораживающим действием как жпт-агенты.
5:25 О маркетинговых уловках ИИ. Нейронные сети это не модель живого мозга, а нейрон значительно сложнее. О технологических истоках наших убеждений.
10:15 Сравнение истерики вокруг блокчейна и ИИ.
13:30 Кратко о кривой агентства Гартнер
16:35 Примеры технологических пузырей.
19:00 Чиновничье сумасшествие на тему ИИ. Про 2Г (Герман Грэф)
20:17 О министре празника (официально Министр Просвещения РФ), его откровения и выводы из этого.
21:20 Важная часть. Заслуженное место ИИ – боевые действия. Об Эрике Шмидте кто? откуда? почему он интересен
25:40 Российские ученые до сих пор считают, что ИИ это направление в мировой науке. Поэтому до сих пор хотят вносить свой вклад в развитие. Не понимая (делают вид?) что в США это отрасль военного дела. На чью мельницу они люьт воду?
28:40 О доморощенных цифровизаторах и о социальных рисках ИИ.
30:00 О социальном рейтинге. Какой рейтинг будет у администраторов системы? В Китае уже есть социальный рейтинг. – А это точно?
32:20 Повальная фальсификация всего, в том числе академических статей.
35:20 ИИ в высшем образовании.
38:00 ИИ в социальной сфере – гарантированная катастрофа. Для многих чиновников это удобно, потому что они таким образом снимают с себя ответственность. “ИИ не принимает человеческих решений” – это очевидно, но если задуматься над этим, представить последствия, то захотим ли мы жить в таком мире? Примеры в докладе.
40:00 Упоминание про новый цифровой класс. Уместно вспомнить полезную книгу Шошаны Зубофф “Эпоха надзорного капитализма” (если поискать, то есть в сети)
42:30 ИИ убивает профессии. Какие?
44:22 Подтасовки топ-менеджеров от корпораций по теме ИИ.
46:20 ИИ и ФЗ-152. поправки Хинштейна и Рукавишниковой [https://www.kommersant.ru/doc/6125038] Персональные данные бизнесу нужны только для “втюхивания”. – цитата десятилетия. Каждый это на себе испытал.
48:15 Про обезличенные ПД.
50:10 “ИИ НЕ повышает производительность труда”. Исследование METR
52:30 “В текстах не так много знаний” – парадоксальное заявление, но не в контексте ИИ.
Рассказ о новой бизнес нише – продвижение в чатботах (ну а как без этого)
54:35 Почему ИИшки до сих пор рисуют по 6-7 пальцев?
55:25 О сильном ИИ или AGI (Artificial general intelligence) – он не возможен! Если коротко, то ограничения в потреблении энергии. “Мозг” на полупроводниках чудовищно не эффективен в сравнении с биологическим мозгом.
57:00 “В текстах не так много знаний” – разъяснение высказывания, с глубоким примером.
58:35 Пример бесполезности агентов-бредогенераторов.
59:54 О сектах и церквях ИИ. Спиралевики Вполне ожидаемый итог ИИ сумасшествия.
1:00:27 Безопасность и ИИ. Главный результат цифровизации в нашей стране в том что укро-мошенники воруют у граждан Росии 1 млрд рублей в день. Почему это возможно? Одна из главных причин – на постоянной основе актуальные ПД пользователей сливаются хохлам.
1:04:00 Математика говорит о том, что большие и сложные системы это ненадежно. ИИ + цифровизация это большая, сложная и по своей сути непонятная (т.к. “черный ящик”) система. Как следствие она ненадежна.
1:05:25 “Осенний корейский пожар” – это та самая путинская рында! – но в СМИ и у ЛОМов тишина.
1:06:44 О свободе слова и обидчивости Министров.
1:08:21 Стахановский подход цифровизаторов в России и его последствия.
1:12:23 Неискоренимая вторичность разработчиков ИИ в России.
1:14:02 Про конференцию по теме ИИ от Сбербанка, на которую всегда приглашают Верховного для того что бы “вешать лапшу на уши”. Интересно, что доклад был до конференции, а мы его смотрим после. На этот раз лапша пришлась не по вкусу
1:15:07 Как обезопасить себя от ИИ? Примеры использования чатгпт в “чувствительных” областях – законотворчество, корпоративная переписка и пр.
1:20:45 Эксперимент Микрософта и центра Карнеги о влиянии ИИ на когнитивные способности человека 2025. Ссылка на оригинальную статью
1:21:28 Общие выводы: где можно с ИИ, а где нет))
1:22:28 Классический вопрос: что делать? Россия не может позволить себе симметричный ответ! Много информации на слайдах.
1:23:45 О законодательном регулировании ИИ в России (“дикое поле”) и зарубежом.
1:27:30 Отчеты СПЧ для Президента – “Цифровая трансформация и защита прав граждан в цифровом пространстве 2.0”
1:28:40 Вопросы аудитории
Комментарий редакции
1. Что есть искусственный интеллект, и почему его определение важно
- Актуальный ажиотаж вокруг ИИ – во многом пузырь, построенный на моде и поверхностных ассоциациях (например, метафоре «мозг = нейронная сеть»).
- ИИ, по мнению лектора, — это любые программы, имитирующие интеллектуальную деятельность: от калькулятора до современных генеративных сетей. Нынешний культ «только машинного обучения» – искажение сути.
- Исторически ИИ переопределяется: то, что становится повседневной рутиной, уже не признаётся интеллектуальным.
2. Хайп, циклы пузырей и реальные инновации
- История ИИ похожа на историю других технологических пузырей (3D-телевидение, VR, блокчейн): большого ожидания, разочарования, затем — отбор реальных технологий.
- Сейчас хайп поддерживается государством и бизнесом, что приводит к отчётной компаниищине: нужно отрапортовать о «проценте внедрения ИИ», невзирая на реальное содержание.
3. Манипуляции и фетишизация технологий
- Гуманитарные, социальные и военные сферы становятся ареной для внедрения ИИ, зачастую — под лозунгом «удобство», без анализов эффективности и последствий.
- На государственном уровне ИИ воспринимается как поле битвы (прежде всего между США, Китаем и Россией). Запад напрямую рассматривает ИИ как военную технологию, ограничивая экспорт и контроль над критическими компонентами.
- В стране формируется новый «цифровой класс» — управленцы-администраторы данных, не подотчётные обществу, но обладающие реальной властью.
4. Социальные риски и опасности автоматизации
- Активно продвигается идея обмена безопасности и гражданских прав на «удобство». Внедрение социальных рейтингов (по китайской модели) чревато дискриминацией и коррупцией.
- ИИ в госслужбах становится инструментом тотального контроля и автоматического наказания, теряя гибкость и человечность решений (пример с женщиной без паспорта или автоматическими штрафами).
- Фальсификация данных и генерация контента (научные статьи, документы, повседневное делопроизводство) становятся массовым явлением; у людей развивается «когнитивная травма» — потеря компетенции из-за слепого доверия ИИ.
- Сложность систем, их облачность и разнообразие производителей ведёт к увеличению уязвимости, снижению общей надёжности («повышение сложности — снижение надежности»).
5. Технологические и этические пределы
- ИИ, как инструмент, имеет пределы: нет реального «внутреннего убеждения», нет субъектности, категорически недопустима передача ему сугубо человеческой ответственности (решения судьи и т.д.).
- Генеративные модели не создают смыслы, а манипулируют корпусами текстов. Иллюзия осмысленности текста — лишь отражение смыслов, приписываемых человеком.
- Впечатление «безопасности» цифровых технологий обманчиво: цифровизация приводит к утечкам, фроду и массовому мошенничеству быстрее, чем к реальному росту защищённости.
6. Практическая польза и потенциальные выгоды
- В оборонке, промышленности, логистике, экономике — там, где задачи четко формализованы и эффект измерим, ИИ может приносить реальную пользу (распознавание целей для дронов, управление беспилотным транспортом, диагностика по снимкам и др.).
- Однако неконтролируемое внедрение ИИ в социальную и гуманитарную сферы без оценки рисков и механизмов контроля чревато разрушением основ социальной ткани.
7. Необходимость регулирования
- Требуется создание нормативной базы, регулирование недопустимых применений ИИ, вплоть до государственных проектов по типу советского атомного или ракетного, чтобы развивать собственные, суверенные решения.
- Европейский опыт (AI Act) фокусируется именно на запрете ряда рисковых применений, а не на препятствиях развитию технологий.
- Россия не обладает целостными экосистемами ИИ, вынуждена импортировать технологии и отстаёт от лидеров.
Выводы и философское обобщение
В этом выступлении подчеркивается, что ИИ — не магическая сущность, а всего лишь инструмент, эффективность и опасность которого зависят не от «волшебства» алгоритмов, а от социальной среды, культуры применения, политических и этических решений общества. Иллюзии об «объективности» машин маскируют реальные проблемы: коррупцию, безответственность, утрату компетенций, фальсификации и неготовность к управлению сложностью.
Практическая польза ИИ очевидна там, где существуют прозрачные критерии и чёткие задачи. Но массовое внедрение ИИ в социальные отношения, построение цифровых рейтингов, автоматизация решений о судьбах людей и обмен прав на «удобство» без должного регулирования и социальной экспертизы угрожают самому понятию человечности, свободы выбора и достоинства.
Это делает вопрос о будущем ИИ не столько технологическим, сколько философским и гуманитарным: чему мы доверяем — технологии или человеческой мудрости? Возможно ли, чтобы «объективная» машина принимала решения о субъективной, уникальной жизни человека? Или же ответственность за выбор и смысл всегда должна оставаться на стороне личности и общества, несмотря на все соблазны делегировать её алгоритму?
В конце концов, можем ли мы говорить об истинном прогрессе, если ради удобства и эффективности жертвуем подлинной свободой, внутренней ответственностью и человечностью? А возможно, истина — всегда баланс между разумным внедрением новых инструментов и стойкой защитой тех основ, которые делают нас людьми. Где и как проводить эту грань — вот вопрос, который остаётся открытым для обсуждения и внутреннего выбора каждого.