Илон Маск и эксперты призывают приостановить разработку моделей ИИ, более мощных, чем GPT-4 - Inc News
, автор: Кутман С.

Илон Маск и эксперты призывают приостановить разработку моделей ИИ, более мощных, чем GPT-4

Они опасаются, что модели ИИ, более мощные, чем GPT-4, могут создать “катастрофические последствия для общества”.

Источник фото: freepik.com

Илон Маск и команда экспертов по искусственному интеллекту призывают лаборатории, которым поручено разрабатывать модели искусственного интеллекта, приостановить обучение систем, более мощных, чем GPT-4. Магнат и 1100 других человек подписали открытое письмо, в котором заверяют, что эти модели могут иметь “потенциально катастрофические последствия для общества”, а также, что их следует создавать только “после того, как мы будем уверены, что их эффекты будут положительными и их риски будут управляемыми”.

В письме, подписанном Илоном Маском, который был одним из основателей OpenAI, вместе с руководителями отрасли, такими как Стив Возняк, соучредитель Apple, или Эмад Мостак, генеральный директор Stability AI, среди прочих, они подробно описывают, что модели искусственного интеллекта становятся конкурентоспособными против человека. Они задаются вопросом, действительно ли необходимо, чтобы они заменяли людей в различных задачах, в том числе в “контроле над нашей цивилизацией”.

“Должны ли мы позволить машинам наводнять наши информационные каналы пропагандой и ложью? Должны ли мы автоматизировать все задания, в том числе удовлетворительные? Должны ли мы развивать нечеловеческие умы, которые могут превосходить нас численностью, быть умнее, устаревшими и заменить нас? Должны ли мы рисковать потерять контроль над нашей цивилизацией? Такие решения не следует делегировать неизбранным технологическим лидерам”, - говорится во фрагменте письма.

Затем Маск и команда экспертов и руководителей отрасли просят по этой же причине прекратить как минимум на шесть месяцев любое обучение систем ИИ, более мощных, чем GPT-4. “Эта пауза должна быть публичной и поддающейся проверке и включать всех ключевых игроков. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий”, - заявляют они.

Шестимесячный перерыв для создания новых протоколов безопасности для ИИ

Эта пауза, в частности, будет использована для разработки ряда общих протоколов безопасности, которые будут контролироваться “независимыми внешними экспертами”. “Эти протоколы должны гарантировать, что системы, которые их придерживаются, безопасны вне всяких разумных сомнений”. Маск и руководители, с другой стороны, утверждают, что этот шаг не означает, что разработка ИИ в целом временно прекращена. Вместо этого это “шаг назад” в гонке разработки крупногабаритных моделей.

В письме также подробно говорится, что разработчики моделей искусственного интеллекта должны работать с политиками с целью регулирования искусственного интеллекта с помощью различных мер. Среди них требование, чтобы изображения или любой контент, созданный ИИ, имели водяной знак, чтобы пользователи могли различать реальную фотографию или что-то синтетическое. Также создание “институтов, хорошо обеспеченных ресурсами для борьбы с радикальными экономическими и политическими потрясениями (особенно для демократии), которые вызовет ИИ”.

Интересно, что среди руководителей и экспертов, подписавших письмо, нет Сэма Альтмана, высшего руководителя OpenAI, или кого-либо еще из компании, разработавшей GPT-4. Да, есть сотрудники Microsoft.

x