Мир захватили боты, или Доверяй, но проверяй | КиберДед Андрей Масалович
В этом ролике обсудили нелепые, курьёзные и трагические ошибки искусственного интеллекта, взятые из базы Инцидентов ИИ.
Ведущая эфира – Александра Троцкая.
Гость эфира – Андрей Игоревич Масалович, он же Кибердед – подполковник КГБ в отставке, эксперт в области информационной и кибербезопасности.
Ознакомиться с программой тренинга «СЕКРЕТНЫЙ НЕТВОРКИНГ» и оставить заявку на участие можно по ссылке:
https://genesis-academy.ru/?erid=2VtzqwVDpth
Поддержите наш проект подпиской на площадке boosty:
https://boosty.to/radio_aurora
В знак нашей самой искренней признательности за Вашу поддержку мы будем публиковать эфиры на этой площадке не менее чем за сутки до их официальной публикации на других ресурсах.
Сайт: https://aurora.network
Дзен: https://dzen.ru/assemblage_point
Телеграм-канал «Точка сборки» https://t.me/aurora_technology
#АндрейМасалович #АлександраТроцкая #ТочкаСборки
Комментарий редакции
Основные тезисы из беседы:
1. В 2014 году появились первые статьи о возможности обмана нейронных сетей и систем машинного обучения.
2. В 2016 году было создано партнерство по искусственному интеллекту (Partnership on AI) для обеспечения этичного и безопасного развития ИИ.
3. В 2018 году начала формироваться база данных инцидентов с искусственным интеллектом (AI Incident Database).
4. Обсуждаются различные инциденты с ИИ, включая этические проблемы, ошибки в генерации контента, проблемы с чат-ботами и автопилотами.
5. На сентябрь 2023 года в базе зафиксировано около 3000 инцидентов, связанных с ИИ.
6. Отмечается 358 случаев смертей, связанных с ИИ, включая аварии с участием автомобилей Tesla.
7. Обсуждаются проблемы использования ИИ в медицине, в частности, неудачный опыт онкологического центра.
8. Отмечается, что ИИ может быть эффективен в типовых задачах, но может давать сбои в нестандартных ситуациях.
Вывод:
Искусственный интеллект стремительно развивается и находит применение во многих сферах жизни. Однако его использование сопряжено с рядом рисков и проблем, от этических вопросов до случаев со смертельным исходом. Важно продолжать изучение и документирование инцидентов, связанных с ИИ, чтобы улучшать системы и минимизировать риски. Необходимо критически подходить к внедрению ИИ, особенно в сферах, где ошибки могут иметь серьезные последствия. При этом ИИ может быть очень эффективен в решении типовых задач, но требует контроля и проверки человеком в нестандартных ситуациях.