Экс-сотрудник OpenAI назвал темпы развития ИИ «ужасающими»

от admin

. Он призвал остановить гонку искусственного интеллекта

Экс-сотрудник OpenAI Стивен Адлер назвал темпы развития ИИ «ужасающими»

Экс-сотрудник OpenAI Стивен Адлер назвал темпы развития ИИ «ужасающими»

Бывший специалист по безопасности компании OpenAI Стивен Адлер назвал темпы развития искусственного интеллекта «ужасающими». По его мнению, скорость, с которой развиваются технологии, может поставить под угрозу будущее всего человечества. Об этом сообщает The Guardian.

На протяжении четырех лет Стивен Адлер руководил исследованиями в области безопасности в компании OpenAI, которая является создателем чат-бота ChatGPT. В ноябре 2024 года Адлер уволился из компании. Одной из причин этого стала обеспокоенность по поводу стремительного развития искусственного интеллекта.

Адлер считает, что отрасль идет на крайне рискованный шаг, стремясь как можно быстрее создать общий искусственный интеллект (AGI) — систему, способную решать интеллектуальные задачи на уровне человека или даже превосходить его.

Читать:
AMD последует примеру NVIDIA с её DLSS Ray Reconstruction и разработает ИИ-апскйелер и нейронный суперсэмплинг

«Меня очень пугает скорость развития ИИ. Когда я думаю о том, где я буду растить своих детей или сколько откладывать на пенсию, я не могу не задаваться вопросом, доживет ли человечество до этого момента», — признался Адлер в серии публикаций в соцсети X (бывший Twitter, заблокирован на территории России).

По его словам, создание AGI представляет собой «игру с огромными рисками». Он отметил, что ни одна компания пока не смогла создать механизм контроля таких систем, и предупредил, что гонка за развитием AGI идет слишком быстро, чтобы успеть его найти. Экс-сотрудник OpenAI считает, что индустрия находится в состоянии «неблагоприятного равновесия»: даже те компании, которые заботятся о последствиях создания AGI, вынуждены идти на компромиссы в угоду скорости развития нейросетей. Это, по его словам, может привести к катастрофическим последствиям.

Похожие публикации