Виталик Бутерин бьет тревогу: сверхразумный ИИ может появиться раньше, чем вы думаете

Изобретатель Эфириума Виталик Бутерин озвучил предупреждения относительно потенциальных опасностей, связанных с высокоинтеллектуальным искусственным интеллектом, и важности наличия надежных мер безопасности.

На данный момент, когда развитие искусственного интеллекта ускоряется беспрецедентными темпами, значительно возросло беспокойство, связанное с аспектом безопасности ИИ, и эти мысли недавно высказал Бутерин.

План Бутерина по регулированию ИИ: ответственность, кнопки паузы и международный контроль

5 января Виталик Бутерин поделился концепцией, которую он называет «защитным ускорением (d/acc)», которая предполагает создание технологий в первую очередь для защиты, а не причинения вреда. Стоит отметить, что это не первый раз, когда Бутерин обращается к потенциальным рискам в области искусственного интеллекта.

В 2023 году Виталик Бутерин заявил, что один потенциальный катастрофический результат неисправности ИИ почти невообразимо ужасен: он может привести к гибели самого человечества.

В 2023 году Бутерин представил свои теории и сейчас продвигается в их реализации. По мнению Бутерина, появление сверхинтеллекта может произойти всего через несколько лет.

Похоже, что ОИИ и сверхинтеллект могут стать реальностью в течение шести лет. Чтобы предотвратить потенциальную катастрофу или необратимый вред, мы не можем просто ускорить прогресс того, что хорошо; нам также необходимо сдерживать развитие того, что вредно», — предложил Бутерин.

Чтобы уменьшить потенциальную опасность, исходящую от искусственного интеллекта, Бутерин предлагает разработать автономные структуры ИИ, которые тесно связаны с человеческим суждением. Таким образом, ИИ продолжает служить полезным инструментом для людей, тем самым снижая вероятность катастрофических последствий.

Позже Бутерин обсудил возможность того, что именно военные силы смогут справиться с ситуацией «катастрофы ИИ». Рост использования ИИ военными силами очевиден, как это продемонстрировали Украина и сектор Газа. Кроме того, он выразил обеспокоенность тем, что любое регулирование, введенное в отношении ИИ, скорее всего, исключит военный сектор, что сделает его потенциальной опасностью.

В последующем обсуждении соучредитель Ethereum подробно рассказал о своем видении контроля над использованием ИИ. Он подчеркнул, что первоначальный шаг к снижению рисков, связанных с ИИ, должен включать привлечение пользователей к ответственности.

Как аналитик, я бы перефразировал это утверждение так: «Взаимосвязь между созданием модели и ее возможным применением иногда может быть неясной, но в конечном итоге пользователь должен определить, как ИИ будет реализован на практике. » — подчеркнул Бутерин, подчеркнув значительное влияние, которым обладают пользователи.

Если действующие правила в отношении обязательств неэффективны, потенциальное решение может включать введение контроля «временной остановки», который позволит надзору за ИИ временно замедлить прогресс в областях, где могут произойти вредные достижения.

Мы стремимся временно сократить глобальную вычислительную мощность примерно на 90–99 % в течение крайне важного периода в 1–2 года. Такое резкое сокращение даст человечеству дополнительное время, чтобы подготовиться к любым предстоящим вызовам.

Он сказал, что пауза может быть реализована путем проверки и регистрации местоположения ИИ.

Альтернативный метод — управление физическим оборудованием ИИ. Как предполагает Бутерин, это оборудование может быть дополнено специальным чипом в целях регулирования.

Как исследователь, я участвую в проекте, в котором системы искусственного интеллекта смогут работать эффективно только после получения трех одобрений в неделю от международных организаций. Важно отметить, что хотя бы одна из этих организаций не должна иметь никаких военных связей.

Тем не менее Бутерин признал, что его стратегия имеет дыры и является лишь «временной мерой».

Смотрите также

2025-01-06 09:09