Среда, 27.11.2024, 19:51
Приветствую Вас Гость | RSS



Наш опрос
Оцените мой сайт
1. Ужасно
2. Отлично
3. Хорошо
4. Плохо
5. Неплохо
Всего ответов: 39
Статистика

Онлайн всего: 1
Гостей: 1
Пользователей: 0
Рейтинг@Mail.ru
регистрация в поисковиках



Друзья сайта

Электронная библиотека


Загрузка...





Главная » Электронная библиотека » ДОМАШНЯЯ БИБЛИОТЕКА » Электронная библиотека здоровья

Нам надо делать домашние задания

За шесть месяцев до первого ядерного испытания ученые, работавшие над Манхэттенским проектом, подготовили отчет LA‑602. В нем были приведены данные об исследованиях возможного выхода ядерного взрыва из под контроля, что грозило уничтожением Земли в результате сгорания атмосферы. Это было, вероятно, первым исследованием в области угроз существованию человечества.

Конечно, список опасных технологий, изобретенных людьми, не закончился на ядерной бомбе. С тех пор тема катастрофических побочных эффектов неоднократно всплывает в разных контекстах: рекомбинантной ДНК, синтетических вирусов, нанотехнологий и т. п. К счастью для людей, обычно в таких случаях верх берет трезвый расчет, что приводит к появлению различных соглашений и протоколов, регулирующих исследовательскую деятельность.

Я думаю о мыслящих машинах как о технологии, которую надо развивать с такой же (если не с большей!) осторожностью. К сожалению, идею безопасности искусственного интеллекта оказалось сложнее популяризировать, чем, скажем, идею биологической безопасности, потому что у людей довольно слабое представление о том, что такое нечеловеческий разум. Кроме того, если задуматься, то можно прийти к мысли, что ИИ в действительности является метатехнологией, то есть технологией, которая способна разрабатывать другие технологии либо совместно с людьми, либо даже автономно (что еще более усложняет анализ вероятных последствий).

Впрочем, в течение нескольких последних лет мы наблюдаем внушающие оптимизм подвижки, примерами которых являются инициативы новых организаций, таких как Институт будущего жизни, объединивший ведущих специалистов в области искусственного интеллекта для работы над постановкой задач, стандартами и этическими нормами исследований.

Поэтому путаные аргументы людей, которые пытаются показать, что разбираются в вопросах мышления, сознания или этики искусственного интеллекта, часто отвлекают от простой истины: единственный способ гарантировать, что мы случайно себя не взорвем с помощью собственной технологии (или метатехнологии), состоит в том, чтобы делать домашние задания и принимать соответствующие меры предосторожности, как поступили ученые из Манхэттенского проекта, когда подготовили LA‑602. Нам надо перестать играть словами и взяться за исследования в области безопасности искусственного интеллекта.

Вот вам аналогия: со времени Манхэттенского проекта ученые‑ядерщики переключились со стремления увеличить мощность реакции ядерного синтеза на решение вопроса, как наиболее эффективно ее можно сдерживать, – и мы даже не называем это ядерной этикой.

Мы называем это здравым смыслом.

Категория: Электронная библиотека здоровья | Добавил: medline-rus (08.01.2018)
Просмотров: 217 | Рейтинг: 0.0/0
Всего комментариев: 0
avatar
Вход на сайт
Поиск
Друзья сайта

Загрузка...


Copyright MyCorp © 2024
Сайт создан в системе uCoz


0%