Опасения по поводу безопасности ИИ вызывают отток клиентов, поскольку генеральный директор обещает 150-летнюю революцию в продолжительности жизни!


Ракета Telegram

Покоряйте криптовалютный космос!

  • Новости и обновления
  • Мемы и развлечения
  • Блокчейн технологии
  • Эксклюзивные гайды
Присоединиться к Ракете

По словам исследователя безопасности OpenAI Стивена Адлера, который недавно покинул компанию после четырех лет работы, разработка искусственного интеллекта общего назначения (AGI) — это крайне рискованное предприятие со значительными потенциальными недостатками. Он подчеркнул, что в настоящее время ни одна лаборатория не выяснила, как обеспечить этическое поведение ИИ и соответствие его человеческим ценностям. Более того, он предупредил, что чем быстрее мы включимся в эту гонку, тем меньше вероятность того, что кто-то вовремя найдет решение, чтобы предотвратить потенциальные катастрофические последствия.

Проще говоря, прощальное заявление Адлера от OpenAI отражает опасения, высказанные исследователем безопасности ИИ и руководителем Лаборатории кибербезопасности в Университете Луисвилля Романом Ямпольским, который предполагает, что существует очень высокая вероятность, почти наверняка, что ИИ может привести к краху человечества.

Последнее обновление: после четырех лет сосредоточения на вопросах безопасности в @openai, я решил двигаться дальше в середине ноября. Это было волнующее путешествие, наполненное многочисленными эпизодами — рискованные оценки возможностей, обеспечение безопасности искусственных агентов, исследование границ искусственного интеллекта и управление онлайн-идентификациями, среди прочего. Есть много аспектов этого опыта, по которым я, безусловно, буду скучать.

27 января 2025 г.

Честно говоря, быстрый прогресс в области ИИ сегодня вызывает у меня опасения. Размышляя о том, где обустроить будущий дом и как лучше всего подготовиться к выходу на пенсию, я задаюсь вопросом: просуществует ли человечество достаточно долго, чтобы достичь этих стадий? Ситуация, похоже, застряла в нездоровом равновесии. Хотя некоторые лаборатории стремятся разрабатывать ИИ ответственно, другие могут пойти на компромиссы, чтобы конкурировать, что может привести к катастрофическим последствиям. Это давление только заставляет нас ускорить темп. Я надеюсь, что эти исследовательские учреждения смогут быть более прозрачными в отношении строгих мер безопасности, необходимых для остановки этого прогресса.

По оценкам исследователя, единственный способ избежать неминуемой катастрофы — воздержаться от создания ИИ на начальных этапах. Однако, учитывая, что OpenAI и SoftBank инвестировали $500 млрд в Stargate для создания центров обработки данных по всей территории США, которые направлены на поддержку передовых разработок ИИ, похоже, что этот вариант больше не может быть осуществим.

Это не первый случай, когда сотрудник создателя ChatGPT, OpenAI, уходит из-за проблем с безопасностью. Ранее Ян Лейке, который был руководителем выравнивания, руководителем супервыравнивания и исполнительным директором, объявил о своем уходе. Этот бывший руководитель сообщил, что у него были разногласия с руководством OpenAI относительно основных приоритетов для будущих моделей ИИ, мер безопасности, мониторинга и других аспектов.

Кажется, Лейке выразил обеспокоенность по поводу приоритетности мер безопасности, поскольку внимание переключилось на захватывающие достижения, такие как AGI. Кроме того, было высказано предположение, что OpenAI ускорила выпуск GPT-4o, выделив минимальное время для своей команды на проведение проверок безопасности. Инсайдеры сообщили, что приглашения на вечеринку по случаю запуска продукта были разосланы до того, как команда по безопасности завершила свои испытания. Однако представитель OpenAI признал поспешность выпуска GPT-4o, но заявил, что не было сделано никаких компромиссов в протоколах безопасности для соблюдения строгих сроков.

Генеральный директор Anthropic заявил, что ИИ продлит продолжительность жизни человека на 150 лет к 2037 году

На Всемирном экономическом форуме в Давосе (Швейцария) генеральный директор Anthropic Дарио Амодеи заявил, что передовой генеративный ИИ может потенциально увеличить продолжительность жизни человека в два раза в течение следующих пяти-десяти лет.

Я предсказываю, что где-то в 2026 или 2027 году передовые системы ИИ превзойдут большинство людей почти во всех аспектах, демонстрируя замечательные возможности. Я оптимистично настроен относительно многочисленных преимуществ, которые может принести это достижение.

Проще говоря, лидер подчеркнул значительные достижения в области технологий, обороны и здравоохранения. Он оптимистичен в том, что искусственный интеллект может продлить жизнь человека, хотя и высказывались опасения, что эта технология может стать причиной экзистенциального кризиса.

По словам генерального директора Anthropic Дарио Амодеи:

По сути, если технология ИИ будет развиваться так, как мы надеемся, она может потенциально ускорить прогресс в таких областях, как биология, на 100 лет в течение следующих пяти-десяти лет. Если рассматривать это в перспективе, учитывая достижения человека в биологии за столетие, удвоение средней продолжительности жизни человека может быть не таким уж и нереальным. Если ИИ действительно может ускорить этот процесс, мы можем достичь такого прогресса всего за полдесятилетия. Это наша амбициозная цель в Anthropic. Вопрос, над которым мы размышляем: каков первый шаг к реализации этого видения? Возможно, нам осталось два-три года до основополагающих технологий для этого скачка вперед?

Амодеи признает, что развитие ИИ не является чрезвычайно точной областью, подразумевая, что оно может следовать непредсказуемым путям из-за ограниченности высококачественных данных для обучения систем ИИ. В частности, генеральный директор OpenAI Сэм Альтман утверждает, что ИИ может стать достаточно разумным, чтобы решать потенциальные проблемы, возникающие из-за быстрого прогресса в этой области, такие как возможное вымирание человечества.

OpenAI стремительно движется к искусственному интеллекту общего назначения (AGI) после подтверждения Альтмана, что его команда обладает знаниями, необходимыми для создания AGI, и это может быть достигнуто раньше, чем ожидалось, с использованием существующего оборудования. Более того, он предположил, что компания может готовиться направить свои усилия на сверхинтеллект. Этот сдвиг может потенциально привести к 10-кратному увеличению революционных достижений в области ИИ каждый год, что сопоставимо с научным прогрессом, достигнутым за целое десятилетие.

Смотрите также

2025-01-31 15:09