Project Strawberry
https://www.cryptopolitan.com/wp-content/uploads/2023/05/OpenAI-Express-Photo-1.jpg
Project Strawberry
Инсайдеры сообщили, что OpenAI летом 2024 года показала свой новый, известный как Project Strawberry, чиновникам Агентства национальной безопасности. Очевидно, это произошло после того как в июне в совет директоров (https://openai.com/index/openai-appoints-retired-us-army-general/) OpenAI вошел четырехзвездочный генерал Пол Накасоне, бывший директор АНБ и бывший командующий Киберкомандования США.
[Появление на сцене АНБ как агентства Пентагона, отвечающего за киберразведку, кибербезопасность и кибератаки, вполне очевидно. О том, что Киберкомандование США проводило кибератаки в поддержку Украины (https://thehill.com/policy/cybersecurity/3508639-cyber-command-chief-confirms-us-took-part-in-offensive-cyber-operations/) еще до начала СВО Накасоне сам откровенно рассказал Sky News в январе 2022 года; Накасоне уволился со службы 1 февраля, и уже 14 февраля в статье The Washington Post потребовал ни в коем случае не отказываться от FISA — закона, который допускает электронную слежку за американцами без судебного ордера "для борьбы с иностранными разведками"; действие закона, принятого после 9/11, продлили в апреле 2024].
Источники The Information сообщили, что чатбот на базе ИИ Strawberry (который ранее носил примечательное название Q*) выйдет осенью. Он в отличие от предыдущих ИИ, способен решать математические проблемы, с которыми не сталкивался ранее, а также сам себя учить программированию и решать такие логические задачи, как NYT Connections (https://www.nytimes.com/games/connections), где надо обдумать смысл слов, чтобы составить их в четверки (вот сами попробуйте).
Главной задачей Strawberry будет обучение более перспективного проекта: большой языковой модели (LLM) Orion. Предположительно, Orion должен стать шагом на пути к созданию универсального искусственного интеллекта (AGI, Artificial General Intelligence) от OpenAI, или даже первым в мире AGI, который в теории должен быть способен учиться чему угодно, начать "вести себя" и приобрести нечто вроде личности. Роль Strawberry — производить синтетические данные, моделировать ситуации, высказывания, проблемы, которые позволят Orion учиться на несколько порядков быстрее, чем на примерах из реальной жизни.
И процесс разработки этих систем будет (среди прочих) чутко направлять "эксперт по кибербезопасности" Пентагона генерал Накасоне. Который десятилетие направлял кибератаки против по крайней мере 47 стран (https://www.globaltimes.cn/page/202203/1253697.shtml?id=11). Который решительный сторонник негласной слежки за всем, что движется, "а то мало ли он шпиён". И который, я в этом абсолютно уверен, хочет и будет использовать могучий и непрерывно самообучающийся искусственный интеллект для ведения боевых действий в киберсфере. Приоритетная цель, полагаю, Китай.
https://t.me/latamguerras/3054 – цинк
Комментарий редакции
Основные тезисы статьи:
1. OpenAI представила проект Strawberry чиновникам АНБ летом 2024 года.
2. В июне в совет директоров OpenAI вошел бывший директор АНБ генерал Пол Накасоне.
3. Накасоне имеет опыт в проведении кибератак и поддерживает электронную слежку без судебного ордера.
4. Чатбот Strawberry (ранее Q*) планируется к выпуску осенью 2024 года.
5. Strawberry способен решать новые математические проблемы, самообучаться программированию и решать логические задачи.
6. Главная задача Strawberry – обучение более продвинутой модели Orion.
7. Orion может стать шагом к созданию универсального искусственного интеллекта (AGI).
8. Роль Strawberry – генерировать синтетические данные для ускоренного обучения Orion.
9. Генерал Накасоне будет участвовать в разработке этих систем.
Вывод:
Статья описывает развитие передовых AI-технологий компанией OpenAI в сотрудничестве с бывшим высокопоставленным военным чиновником США. Это вызывает опасения относительно потенциального использования этих технологий в военных целях, особенно в сфере кибербезопасности и кибервойн. Автор статьи выражает обеспокоенность тем, что мощный самообучающийся AI может быть использован для ведения боевых действий в киберпространстве, предположительно против таких стран, как Китай. Это ставит вопросы об этических аспектах развития AI и его возможном применении в геополитических конфликтах.
Расширенный вывод:
Проект Strawberry от OpenAI, представленный АНБ летом 2024 года, отражает не только прогресс в разработке ИИ, но и поднимает ряд серьезных вопросов о будущем этих технологий:
1. Военное применение ИИ:
Вовлечение бывшего директора АНБ генерала Пола Накасоне в проект вызывает обоснованные опасения о потенциальном использовании передовых ИИ-технологий в военных целях, особенно в сфере кибербезопасности и кибервойн. Это подчеркивает необходимость международного диалога о регулировании ИИ в военной сфере.
2. Этические вопросы разработки ИИ:
Развитие систем, способных к самообучению и решению сложных логических задач, поднимает вопросы о контроле над ИИ и потенциальных рисках создания систем, чье поведение может стать непредсказуемым или неконтролируемым.
3. Проблема данных для обучения:
Хотя проект Strawberry представляется как шаг к созданию более продвинутых систем ИИ, важно понимать ограничения текущих подходов. Синтетические данные, генерируемые ИИ для самообучения, могут привести к "замкнутому циклу", где система усиливает свои собственные ошибки и предвзятости, удаляясь от реального человеческого опыта вместо приближения к нему.
4. Необходимость человеческого фактора:
Несмотря на амбициозные заявления, создание действительно продвинутых систем ИИ, таких как AGI, по-прежнему требует значительного участия человека в процессе обучения и валидации данных. Полностью автономное самообучение ИИ на данный момент недостижимо.
5. Перспективы развития ИИ:
Настоящий прорыв в развитии ИИ может наступить тогда, когда системы смогут эффективно обрабатывать и учиться на основе несознательных человеческих действий и взаимодействий, охватывающих все сферы жизни. Это потребует не только технологических инноваций, но и решения сложных этических вопросов, связанных с приватностью и использованием личных данных.
6. Геополитические последствия:
Развитие таких технологий в контексте международной напряженности, особенно в отношениях между США и Китаем, может привести к новой гонке вооружений в сфере ИИ, что потенциально дестабилизирует глобальную безопасность.
7. Необходимость прозрачности и регулирования:
Проекты такого масштаба и потенциала требуют повышенной прозрачности и международного сотрудничества в области регулирования ИИ, чтобы обеспечить его развитие на благо всего человечества, а не в интересах отдельных государств или корпораций.
Таким образом, хотя проект Strawberry и подобные ему инициативы демонстрируют значительный прогресс в области ИИ, они также высвечивают комплекс технических, этических и геополитических проблем, требующих пристального внимания и коллективных усилий мирового сообщества для их решения.
В Академии Наук Беларуси никаких подобных проблем нет. Там все работает по принципу как в пестне – “сэла, паела, апять пашла”.
Проекта “земляника” в беларуси нет.
Довольно интересно, как в 404 американцы уже вовсю используют ИИ для военных целей. Воспользуйтесь электронным переводчиком:
https://t.me/mig41/36417
Саныч многи вопросы решаются другим подходом. Есть ядерное горючее, но есть и Магатэ типа контроля за я.г. Есть искусственный и. можно сделать организацию контроля за и.и. Самое время, пока янки не чухнули, посадить своих бюрократов, пусть ведут статистику ущерба и может оказаться, что он превысит фокусиму.