Виртуальный альтруизм?

294 1

Уютный мирок Кремниевой долины последние две недели ноября переживал крупный скандал вокруг одной из основных компаний, занимающихся разработкой искусственного интеллекта (ИИ). 17 ноября совет директоров фирмы OpenAI — создателя популярного чат-бота ChatGPT — отправил генерального директора Сэма Альтмана в отставку, а затем, менее чем через неделю, вернул его обратно и на ту же должность. За те пять дней, которые Альтман пробыл в подвешенном состоянии, практически всех главных лиц OpenAI чуть не переманила к себе Microsoft — практика вполне обыденная в непостоянстве Кремниевой долины. Вместе с тем пока бывший гендир был не на своём месте, порядка семисот работников OpenAI выступили с открытым письмом, требующим Альтмана обратно. Вот только как потом оказалось, письмо было на согласовании с одним из венчурных фондов, который постоянно вливал деньги в разработчика ИИ. По итогу карты сошлись совсем уж интересно: Альтмана вернули в состав OpenAI, а многих членов совета директоров, проголосовавших за его исключение, самих исключили из руководящего состава компании. Словом, типичная корпоративная грызня с подноготной из инвестиционных активов и столкновением менеджерских эго вряд ли могла бы вылиться в того колоссального размера скандал, что разгорелся. Всему виной — тянущийся последние полгода западный алармизм в отрасли ИИ, да и сам Сэм Альтман. Будучи акулой бизнеса, он оседлал волну луддитских настроений и выдумал для англоязычной прессы историю о том, что увольнение с должности связано якобы с его письмом, которое предупреждало о резком скачке в развитии ИИ, угрожающем существованию аж всего человечества. Такой игрой в благородство Альтман идеально укрылся от репутационных потерь и позволил финансовому пузырю ИИ просуществовать на рынке ещё дольше. При всём этом вопросы насколько искусственный интеллект — интеллект, не поднимаются вовсе. А зря. К исследованию тайн мозга и загадок мышления огромные технологические конгломераты не подошли ни на шаг, развивая продвинутые по масштабам, но примитивные по принципам системы вида "стимул — ответ".

Зато гендиректор OpenAI невольно обнажил будущие механизмы заигрывания с общественным мнением компаний — создателей ИИ. Дурные бизнес-кульбиты теперь можно увязывать со всё более популярным в Кремниевой долине "философским" течением эффективного альтруизма (или ЭА). ЭА — это и организация, и набор идей, возникших к концу 2010-х годов. Центральный идеолог движения молодой шотландский философ Уильям Мак-Аскилл так определяет приоритеты ЭА: "Использование научных доказательств и разума для понимания того, как можно помочь другим настолько много, насколько это возможно". "Помощь" ЭА распространяется очень глубоко и очень прицельно в технически подкованные элиты США и Великобритании — настолько, что при университетах и больших корпорациях возникают сотрудники или отделы, прямо продвигающие ЭА-повестку. Приверженцы же этих идей в прошедшем апреле, на пике всемирного интереса к ChatGPT, били тревогу о том, что ИИ вполне может стать "богоподобным" — именно такое определение использовал британский IT-инвестор Иэн Хогарт в резонансной статье для Financial Times. Хогарт в своём тексте не скупился на яркие обороты, говоря о том, что погоня за "богоподобным ИИ может привести к устареванию или уничтожению человечества". Как и любой здравый политик (или желающий быть им), Хогарт хорошо понимает, что страх прекрасно конвертируется во власть и деньги. Что и произошло: хогартовский алармизм по отношению к ИИ перерос в организацию в Великобритании "оперативной группы" при Департаменте науки, инноваций и технологий. На сайте британского правительства уже упоминается о том, что в "оперативную группу" будет влито сто миллионов британских фунтов, а целью нового органа станет "построение и установление нового поколения безопасного ИИ".

Эффективный альтруизм расправляет плечи там, где лоббизм не преуспевает. Правда, несмотря на то, что последователи ЭА набирают в мировых кругах всё больше авторитета, движение в 2022 году понесло мощную репутационную потерю. Банкротство онлайн-биржи цифровых валют FTX, а также дальнейший арест её владельца и крупного мецената ЭА Сэма Бэнкмана-Фрида вылились в большое количество грязи, налипшей на организацию. Ведь Сэм, активно занимавшийся политическим лоббизмом, демократическим донорством и сам имевший амбиции в большой политике, был активным сторонником ЭА. Никуда не делись и модные для мира "новой этики" обвинения в сексуальных домогательствах в среде приверженцев ЭА. Что же касается реальных результатов работы этого кружка по интересам, то их может наблюдать каждый, кто интересуется языковыми моделями и нейросетями. Ещё год назад те или иные сервисы были способны на некоторые вольности. Скажем, та же ChatGPT могла выдать по запросу несколько анекдотов про мексиканцев, а модели для визуализации запросов могли нарисовать вора-домушника негром. Сейчас такого и след простыл — спасибо цензорам, очень волнующимся за этичность искусственного интеллекта и поэтому прописывающим запрет на ряд действий. Проблема в том, что этот ряд в полном соответствии с догмами "религии социальной справедливости" не ограничен вполне разумными командами не делиться с пользователем, скажем, рецептом напалма, а содержит в себе многократно подтверждённые живыми пользователями приказы рисовать, допустим, по запросу "счастливая семья" межрасовый брак.

Подсуетились на популярной теме и действующие политики. Под патронажем премьер-министра Великобритании Риши Сунака 1–2 ноября в графстве Бакингемшир был проведён двухдневный глобальный саммит, посвящённый проблемам ИИ (на который, кстати, были приглашены даже представители Китая). Финалом заседаний стал разговор между британским премьером и Илоном Маском. И тот, и другой как облизывали, так и покусывали ИИ — единой точки зрения выработано не было. Однако в ходе проведения саммита было подписано добровольное соглашение, по которому правительствам позволялось тестировать ИИ на предмет всяческих рисков. Среди компаний-подписантов значились Amazon, Google, Mistral, Microsoft и уже упомянутая OpenAI. Наверняка тестировать угрожающие искусственные интеллекты будут именно "оперативные группы", сколоченные из упомянутых выше цензоров новой религии и бывших или действующих бизнесменов, работников IT-сектора. Выходит, что алармизм вокруг ИИ раздувается или на деньги бывших пайщиков гигантов big tech, или же руками их экс-работников.

И в контексте этого интересно, что дорваться до возможности контроля над рынком ИИ пытается активно продвигавший тему опасности ИИ на саммите в Англии Илон Маск. В прошедшем марте на его деньги был организован стартап xAI. С одной стороны, компания занимается производством чат-бота Grok (считай, соперника ChatGPT), с другой стороны, у Маска и Ко имеются все шансы стать "оперативной группой" по этике и безопасности ИИ строго для американского рынка. В будущем вполне можно ожидать возникновения и юридического столкновения различных лоббируемых группировок, пытающихся взять под свой контроль лицензирование и апробацию ИИ.

Пока бизнесмены разного пошиба рядятся в одежды последователей ЭА и пытаются "обезопасить" технологии для следующих поколений, Израиль в войне с сектором Газа применяет ИИ для выбора целей атак и расчёта потерь среди палестинского гражданского населения. Используемый ЦАХАЛ ИИ "Хабсора" позволяет собирать и аккумулировать разведданные, после чего решение об ударе принимает живой военный. Считается ли он приверженцем эффективного альтруизма?

Арсений Латов

Комментарий редакции

В статье рассматривается тема развития искусственного интеллекта (ИИ) и движения "эффективного альтруизма" (ЭА), а также их взаимосвязи.

Основные тезисы статьи:

1. Вокруг ИИ раздувается алармизм – страхи по поводу угрозы, которую ИИ может представлять для человечества. Эти опасения используются бизнесменами и политиками для продвижения своих интересов и получения финансирования (пример с Альтманом из OpenAI).

2. Движение "эффективного альтруизма" активно лоббирует идеи регулирования ИИ, ссылаясь на потенциальные угрозы. Последователи ЭА занимают влиятельные позиции и создают "оперативные группы" по контролю за ИИ при правительствах.

3. На самом деле существующие ИИ-системы далеки от "сверхчеловеческого интеллекта" и реальной опасности не представляют. Происходит лишь цензурирование контента под предлогом "этики".

4. В то же время в военных целях ИИ уже активно применяется без всяких этических ограничителей.

Вывод: 

Идеи "эффективного альтруизма" используются бизнесом и властью как инструмент для лоббирования своих интересов и получения контроля над перспективной сферой ИИ. При этом сам ИИ пока далек от того уровня развития, который декларируется, и не представляет угрозы. Реальное применение ИИ в военных целях обходится без всякой "этики".

Оценка информации
Голосование
загрузка...
Поделиться:
Один комментарий » Оставить комментарий

Оставить комментарий

Вы вошли как Гость. Вы можете авторизоваться

Будте вежливы. Не ругайтесь. Оффтоп тоже не приветствуем. Спам убивается моментально.
Оставляя комментарий Вы соглашаетесь с правилами сайта.

(Обязательно)

Информация о сайте

Ящик Пандоры — информационный сайт, на котором освещаются вопросы: науки, истории, религии, образования, культуры и политики.

Легенда гласит, что на сайте когда-то публиковались «тайные знания» – информация, которая долгое время была сокрыта, оставаясь лишь достоянием посвящённых. Ознакомившись с этой информацией, вы могли бы соприкоснуться с источником глубокой истины и взглянуть на мир другими глазами.
Однако в настоящее время, общеизвестно, что это только миф. Тем не менее ходят слухи, что «тайные знания» в той или иной форме публикуются на сайте, в потоке обычных новостей.
Вам предстоит открыть Ящик Пандоры и самостоятельно проверить, насколько легенда соответствует действительности.

Сайт может содержать контент, не предназначенный для лиц младше 18-ти лет. Прежде чем приступать к просмотру сайта, ознакомьтесь с разделами:

Со всеми вопросами и предложениями обращайтесь по почте info@pandoraopen.ru