Project Strawberry

228 3

https://www.cryptopolitan.com/wp-content/uploads/2023/05/OpenAI-Express-Photo-1.jpg

Project Strawberry

Инсайдеры сообщили, что OpenAI летом 2024 года показала свой новый, известный как Project Strawberry, чиновникам Агентства национальной безопасности. Очевидно, это произошло после того как в июне в совет директоров (https://openai.com/index/openai-appoints-retired-us-army-general/) OpenAI вошел четырехзвездочный генерал Пол Накасоне, бывший директор АНБ и бывший командующий Киберкомандования США.

[Появление на сцене АНБ как агентства Пентагона, отвечающего за киберразведку, кибербезопасность и кибератаки, вполне очевидно. О том, что Киберкомандование США проводило кибератаки в поддержку Украины (https://thehill.com/policy/cybersecurity/3508639-cyber-command-chief-confirms-us-took-part-in-offensive-cyber-operations/) еще до начала СВО Накасоне сам откровенно рассказал Sky News в январе 2022 года; Накасоне уволился со службы 1 февраля, и уже 14 февраля в статье The Washington Post потребовал ни в коем случае не отказываться от FISA — закона, который допускает электронную слежку за американцами без судебного ордера "для борьбы с иностранными разведками"; действие закона, принятого после 9/11, продлили в апреле 2024].

Источники The Information сообщили, что чатбот на базе ИИ Strawberry (который ранее носил примечательное название Q*) выйдет осенью. Он в отличие от предыдущих ИИ, способен решать математические проблемы, с которыми не сталкивался ранее, а также сам себя учить программированию и решать такие логические задачи, как NYT Connections (https://www.nytimes.com/games/connections), где надо обдумать смысл слов, чтобы составить их в четверки (вот сами попробуйте).

Главной задачей Strawberry будет обучение более перспективного проекта: большой языковой модели (LLM) Orion. Предположительно, Orion должен стать шагом на пути к созданию универсального искусственного интеллекта (AGI, Artificial General Intelligence) от OpenAI, или даже первым в мире AGI, который в теории должен быть способен учиться чему угодно, начать "вести себя" и приобрести нечто вроде личности. Роль Strawberry — производить синтетические данные, моделировать ситуации, высказывания, проблемы, которые позволят Orion учиться на несколько порядков быстрее, чем на примерах из реальной жизни.

И процесс разработки этих систем будет (среди прочих) чутко направлять "эксперт по кибербезопасности" Пентагона генерал Накасоне. Который десятилетие направлял кибератаки против по крайней мере 47 стран (https://www.globaltimes.cn/page/202203/1253697.shtml?id=11). Который решительный сторонник негласной слежки за всем, что движется, "а то мало ли он шпиён". И который, я в этом абсолютно уверен, хочет и будет использовать могучий и непрерывно самообучающийся искусственный интеллект для ведения боевых действий в киберсфере. Приоритетная цель, полагаю, Китай.

https://t.me/latamguerras/3054 – цинк
 

Комментарий редакции

Основные тезисы статьи:

1. OpenAI представила проект Strawberry чиновникам АНБ летом 2024 года.

2. В июне в совет директоров OpenAI вошел бывший директор АНБ генерал Пол Накасоне.

3. Накасоне имеет опыт в проведении кибератак и поддерживает электронную слежку без судебного ордера.

4. Чатбот Strawberry (ранее Q*) планируется к выпуску осенью 2024 года.

5. Strawberry способен решать новые математические проблемы, самообучаться программированию и решать логические задачи.

6. Главная задача Strawberry – обучение более продвинутой модели Orion.

7. Orion может стать шагом к созданию универсального искусственного интеллекта (AGI).

8. Роль Strawberry – генерировать синтетические данные для ускоренного обучения Orion.

9. Генерал Накасоне будет участвовать в разработке этих систем.

Вывод:

Статья описывает развитие передовых AI-технологий компанией OpenAI в сотрудничестве с бывшим высокопоставленным военным чиновником США. Это вызывает опасения относительно потенциального использования этих технологий в военных целях, особенно в сфере кибербезопасности и кибервойн. Автор статьи выражает обеспокоенность тем, что мощный самообучающийся AI может быть использован для ведения боевых действий в киберпространстве, предположительно против таких стран, как Китай. Это ставит вопросы об этических аспектах развития AI и его возможном применении в геополитических конфликтах.

Расширенный вывод:

Проект Strawberry от OpenAI, представленный АНБ летом 2024 года, отражает не только прогресс в разработке ИИ, но и поднимает ряд серьезных вопросов о будущем этих технологий:

1. Военное применение ИИ:
   Вовлечение бывшего директора АНБ генерала Пола Накасоне в проект вызывает обоснованные опасения о потенциальном использовании передовых ИИ-технологий в военных целях, особенно в сфере кибербезопасности и кибервойн. Это подчеркивает необходимость международного диалога о регулировании ИИ в военной сфере.

2. Этические вопросы разработки ИИ:
   Развитие систем, способных к самообучению и решению сложных логических задач, поднимает вопросы о контроле над ИИ и потенциальных рисках создания систем, чье поведение может стать непредсказуемым или неконтролируемым.

3. Проблема данных для обучения:
   Хотя проект Strawberry представляется как шаг к созданию более продвинутых систем ИИ, важно понимать ограничения текущих подходов. Синтетические данные, генерируемые ИИ для самообучения, могут привести к "замкнутому циклу", где система усиливает свои собственные ошибки и предвзятости, удаляясь от реального человеческого опыта вместо приближения к нему.

4. Необходимость человеческого фактора:
   Несмотря на амбициозные заявления, создание действительно продвинутых систем ИИ, таких как AGI, по-прежнему требует значительного участия человека в процессе обучения и валидации данных. Полностью автономное самообучение ИИ на данный момент недостижимо.

5. Перспективы развития ИИ:
   Настоящий прорыв в развитии ИИ может наступить тогда, когда системы смогут эффективно обрабатывать и учиться на основе несознательных человеческих действий и взаимодействий, охватывающих все сферы жизни. Это потребует не только технологических инноваций, но и решения сложных этических вопросов, связанных с приватностью и использованием личных данных.

6. Геополитические последствия:
   Развитие таких технологий в контексте международной напряженности, особенно в отношениях между США и Китаем, может привести к новой гонке вооружений в сфере ИИ, что потенциально дестабилизирует глобальную безопасность.

7. Необходимость прозрачности и регулирования:
   Проекты такого масштаба и потенциала требуют повышенной прозрачности и международного сотрудничества в области регулирования ИИ, чтобы обеспечить его развитие на благо всего человечества, а не в интересах отдельных государств или корпораций.

Таким образом, хотя проект Strawberry и подобные ему инициативы демонстрируют значительный прогресс в области ИИ, они также высвечивают комплекс технических, этических и геополитических проблем, требующих пристального внимания и коллективных усилий мирового сообщества для их решения.

Оценка информации
Голосование
загрузка...
Поделиться:
3 Комментария » Оставить комментарий
  • 13147 10255

    В Академии Наук Беларуси никаких подобных проблем нет. Там все работает по принципу как в пестне – “сэла, паела, апять пашла”.
    Проекта “земляника” в беларуси нет.

  • 2867 2707

    Довольно интересно, как в 404 американцы уже вовсю используют ИИ для военных целей. Воспользуйтесь электронным переводчиком:
    https://t.me/mig41/36417

    • 7801 6033

      Саныч многи вопросы решаются другим подходом. Есть ядерное горючее, но есть и Магатэ типа контроля за я.г. Есть искусственный и. можно сделать организацию контроля за и.и. Самое время, пока янки не чухнули, посадить своих бюрократов, пусть ведут статистику ущерба и может оказаться, что он превысит фокусиму.

Оставить комментарий

Вы вошли как Гость. Вы можете авторизоваться

Будте вежливы. Не ругайтесь. Оффтоп тоже не приветствуем. Спам убивается моментально.
Оставляя комментарий Вы соглашаетесь с правилами сайта.

(Обязательно)