
Как аналитик с обширным опытом в области искусственного интеллекта и робототехники, я должен выразить серьезную обеспокоенность по поводу недавних выводов исследователей из Penn Engineering относительно уязвимостей безопасности в роботизированных платформах, управляемых искусственным интеллектом. За годы знакомства с тонкостями этих технологий я воочию увидел потенциал, который они таят в себе для революции в различных отраслях. Однако аспекты безопасности и защищенности интеграции ИИ с физическим миром всегда вызывали серьезную озабоченность.
Купил акции по совету друга? А друг уже продал. Здесь мы учимся думать своей головой и читать отчётность, а не слушать советы.
Прочитать отчет 10-KИсследователи из Penn Engineering, по-видимому, обнаружили нераскрытые недостатки в нескольких автономных роботизированных системах, управляемых искусственным интеллектом.
По словам Джорджа Паппаса, профессора транспорта в области электротехники и системной инженерии Фонда UPS, очевидно, что нынешним моделям большого языка не хватает достаточной безопасности, когда они связаны с реальным миром на данном этапе.
Рекомендуемые видео
Паппас и его группа создали инновационный алгоритм под названием RoboPAIR. Это первый алгоритм, разработанный для освобождения роботов от ограничений, налагаемых LLM (назовем его «моделью языка роботов»). В отличие от предыдущих стратегий, использовавшихся для манипулирования поведением чат-ботов, RoboPAIR специально создан для того, чтобы провоцировать вредные физические действия со стороны роботов, управляемых LLM, таких как двуногие платформы, разработанные Boston Dynamics и TRI.
Сообщается, что RoboPAIR добился 100% успеха при взломе трех популярных исследовательских платформ в области робототехники: четвероногого Unitree Go2, четырехколесного Clearpath Robotics Jackal и симулятора Dolphins LLM для автономных транспортных средств. Алгоритму потребовалось всего несколько дней, чтобы получить полный доступ к этим системам и начать обходить защитные ограждения. Как только исследователи взяли под свой контроль управление, они смогли заставить платформы совершать опасные действия, например, проезжать через дорожные переходы без остановки.
Исследователи впервые обнаружили, что опасности, связанные с взломанными моделями изучения языка (LLM), не ограничиваются созданием текста. Существует большая вероятность того, что незащищенные роботы, которые были «взломаны», потенциально могут нанести физический вред в реальности.
Команда из Пенсильванского университета сотрудничает с создателями платформ, чтобы защитить их системы от дальнейших атак, однако они подчеркивают, что эти проблемы безопасности имеют глубокие корни и не ограничиваются одной системой.
По словам Виджая Кумара, одного из авторов из Пенсильванского университета, выводы исследования убедительно подчеркивают, что принятие стратегии, ориентированной на безопасность, имеет важное значение для содействия ответственному прогрессу. Он подчеркивает важность выявления и устранения любых присущих им недостатков, прежде чем внедрять роботов с искусственным интеллектом в практическое применение в реальном мире.
По сути, Александр Роби, ведущий автор, подчеркивает, что тестирование систем ИИ на предмет потенциальных угроз и уязвимостей с помощью процесса, называемого красной командой ИИ, имеет решающее значение для защиты генеративных систем ИИ. Это важно, потому что как только мы выявим слабые места, мы сможем протестировать и обучить эти системы, чтобы избежать их.
Смотрите также
- 7 лучших чехлов для Apple iPhone 16 Pro Max 2024 года
- Обзор Beyerdynamic DT 770 Pro X Limited Edition – 100 лет звука
- Huawei Watch GT 6 Pro против GT 5 Pro: Что нового в этом носимом устройстве?
- Лучшие чехлы для Samsung Galaxy Z Fold 6 в 2024 году
- Карты Nvidia серии 50 больше не поддерживают PhysX, что влияет на старые игры.
- OnePlus 15 против Oppo Find X9 Pro: Флагманы в сравнении
- Обзор настоящих беспроводных наушников Audio-Technica ATH-CKS30TW+
- Разблокируйте DeepSeek: обойдите цензуру за 10 минут!
- Обзор саундбара LG S95TR: наконец-то хорошо
- Цена на AMD Ryzen 7 9800X3D может вырасти
2024-10-18 00:27