Новости науки "Русского переплета" Rambler's Top100
Портал | Содержание | О нас | Пишите | Новости | Книжная лавка | Голосование | Топ-лист | Регистрация | Дискуссия
Лучшие молодые
ученые России

Подписаться на новости

АВТОРСКИЕ НАУЧНЫЕ ОБОЗРЕНИЯ

"Физические явления на небесах" | "Terra & Comp" (Геология и компьютеры) | "Неизбежность странного микромира"| "Научно-популярное ревю"| "Биология и жизнь" | Теорфизика для малышей
Семинары - Конференции - Симпозиумы - Конкурсы

НАУКА В "РУССКОМ ПЕРЕПЛЕТЕ"
Проект поддержан Международной Соросовской Программой образования в области точных наук.
Новости из мира науки и техники
The Best of Russian Science and Technology
Страницу курирует проф. В.М.Липунов
"Русский переплет" зарегистрирован как СМИ. Свидетельство о регистрации в Министерстве печати РФ: Эл. #77-4362 от
5 февраля 2001 года. При полном или частичном использовании
материалов ссылка на www.pereplet.ru обязательна.

Тип запроса: "И" "Или"

29.03.2023
16:45

Илон Маск и более тысячи экспертов призвали приостановить обучение нейросетей

    Предприниматель Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов в сфере высоких технологий и искусственного интеллекта подписали открытое письмо с призывом приостановить обучение нейросетей из-за рисков. Письмо опубликовано на сайте некоммерческой организации Future of Life Institute («Институт будущего жизни»).

    В письме утверждается, что технологии с искусственным интеллектом, сопоставимым человеческому, могут представлять значительный риск обществу и человечеству. «Мы должны спросить себя: стоит ли нам позволить машинам заполонить наши информационные каналы пропагандой и ложью? Стоит ли нам автоматизировать все профессии, включая те, что приносят удовлетворение? Стоит ли нам разрабатывать умы, которые не принадлежат человеку и которые могли бы в итоге превзойти нас численностью и интеллектом, сделать нас неактуальными и заменить нас? Стоит ли нам рисковать потерей контроля над цивилизацией?» — подчеркивается на сайте Future of Life Institute.

    Мощные ИИ-системы должны разрабатываться лишь при условии того, что человечество будет уверено, что их воздействие будет позитивным, а риски — управляемыми, отмечается в обращении. В связи с этим подписавшиеся призвали все ИИ-лаборатории немедленно приостановить обучение ИИ-систем, более мощных, чем модель GPT-4, как минимум на полгода. «Эта пауза должна быть публичной, ее исполнение должно поддаваться проверке, и ей должны последовать все ключевые представители сферы. Если такая пауза не может быть введена быстро, правительства стран должны вмешаться и установить мораторий», — отметили эксперты.

    Согласно письму, ИИ-лаборатории и независимые эксперты должны использовать этот перерыв, чтобы сообща разработать и внедрить общие протоколы безопасности, которые должны подвергаться доскональной проверке внешних специалистов. «Эти протоколы должны гарантировать, что системы, относящиеся к ним, в полной мере безопасны», — подчеркивается в письме.

    Ранее компания OpenAI предупредила, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации. Специалисты также раскрыли, что человечество недалеко от создания опасно сильного искусственного интеллекта.

    По информации https://lenta.ru/news/2023/03/29/stopppp/?utm_source=yxnews&utm_medium=desktop

    Обозрение "Terra & Comp".

Помощь корреспонденту
Кнопка куратора
Добавить новость
Добавить новости
НАУКА В "РУССКОМ ПЕРЕПЛЕТЕ"

Если Вы хотите стать нашим корреспондентом напишите lipunov@sai.msu.ru

 

© 1999, 2000 "Русский переплет"
Дизайн - Алексей Комаров

Rambler's Top100