Новости науки "Русского переплета"
TopList Яндекс цитирования
Русский переплет
Портал | Содержание | О нас | Авторам | Новости | Первая десятка | Дискуссионный клуб | Чат Научный форум
Первая десятка "Русского переплета"
Темы дня:

Мир собирается объявить бесполётную зону в нашей Vselennoy! | Президенту Путину о создании Института Истории Русского Народа. |Нас посетило 40 млн. человек | Чем занимались русские 4000 лет назад? | Кому давать гранты или сколько в России молодых ученых?


Rambler's Top100
Портал | Содержание | О нас | Пишите | Новости | Книжная лавка | Голосование | Топ-лист | Регистрация | Дискуссия
Лучшие молодые
ученые России

Подписаться на новости

АВТОРСКИЕ НАУЧНЫЕ ОБОЗРЕНИЯ

"Физические явления на небесах" | "Terra & Comp" (Геология и компьютеры) | "Неизбежность странного микромира"| "Научно-популярное ревю"| "Биология и жизнь" | Теорфизика для малышей
Семинары - Конференции - Симпозиумы - Конкурсы

НАУКА В "РУССКОМ ПЕРЕПЛЕТЕ"
Проект поддержан Международной Соросовской Программой образования в области точных наук.
Новости из мира науки и техники
The Best of Russian Science and Technology
Страницу курирует проф. В.М.Липунов
"Русский переплет" зарегистрирован как СМИ. Свидетельство о регистрации в Министерстве печати РФ: Эл. #77-4362 от
5 февраля 2001 года. При полном или частичном использовании
материалов ссылка на www.pereplet.ru обязательна.

Тип запроса: "И" "Или"

05.02.2017
19:47

Хокинг и Маск встали на защиту людей от сверхинтеллекта

    Физик-теоретик Стивен Хокинг и основатель Tesla Motors Илон Маск поддержали ряд принципов, которые должны гарантировать, что искусственный интеллект (ИИ) не причинит вреда человеку и будет служить лишь на благо. Об этом сообщает Silicon Valley Business Journal.

    Данный пакт необходим для того, чтобы обеспечить безопасность людей, а также ответить на многие вопросы, касающиеся ИИ. Маск уверен, что ИИ потенциально может быть более опасным, чем ядерное оружие. Хокинг также придерживается подобного мнения и утверждает, что ИИ может погубить человечество. Однако оба признают, что благодаря ИИ люди смогут решить многие проблемы — например, излечить рак или же замедлить глобальное потепление.

    Следование всем 23 принципам должно гарантировать, что ИИ будет служить лишь благим целям. Они разбиты на три категории: «Исследовательские вопросы», «Вопросы этики и ценностей», а также «Долгосрочные проблемы». К первой категории относятся ответы на вопросы, которые встают перед создателями ИИ, в том числе описание того, как должно происходить финансирование. Во второй категории затронуты вопросы безопасности и способы нейтрализации угрозы. В третьей описаны возможные риски, с которыми может столкнуться человечество, когда ИИ достигнет пика своего развития и появится так называемый сверхинтеллект.

    Данные принципы были разработаны на конференции, посвященной обсуждению ИИ в начале января 2017 года. В написании приняли участие генеральный директор DeepMind Демис Хассабис (Demis Hassabis).

    По информации https://lenta.ru/news/2017/02/02/musk_hawking/

    Обозрение "Terra & Comp".

Помощь корреспонденту
Кнопка куратора
Добавить новость
Добавить новости
НАУКА В "РУССКОМ ПЕРЕПЛЕТЕ"

Если Вы хотите стать нашим корреспондентом напишите lipunov@sai.msu.ru

 

© 1999, 2000 "Русский переплет"
Дизайн - Алексей Комаров

Rambler's Top100


Rambler's Top100