Ученые создадут «большую красную кнопку» для выключения искусственного интеллекта
Исследователи из лаборатории и Оксфордского университета DeepMind, принадлежащей Гугл, начали работу над совокупностью аварийного выключения для самообучающихся методов. Об этом информирует Business Insider ссылаясь на Университет изучения машинного интеллекта (MIRI).
«В случае если таковой агент [искусственный интеллект] трудится в реальном времени под наблюдением человека, то время от времени может появиться обстановка, при которой оператор будет должен надавить на громадную красную кнопку, дабы остановить агента от исполнения действий, страшных для самого агента либо его окружения.»
Авторы отмечают, что самообучающиеся методы смогут со временем найти какой-нибудь механизм обхода либо игнорирования штатной стоп-команды оператора. По словам исследователей, цель работы — создание фреймворка, что не разрешит неестественному интеллекту отыскать метод игнорирования команды отключения.
Кроме этого «громадная красная кнопка» обязана гарантированно прервать текущую деятельность робота и максимально обезопасить его и окружающих при опасной ситуации, и не допустить совершение действий, способные привести к «необратимым последствиям».
По словам ученых, такая совокупность может не допустить совершение действий, способные привести к «необратимым последствиям». 2001: A Space Odyssey / Metro-Goldwyn-Mayer, Stanley Kubrick Productions
.[image]
Вопросы безопасности, которые связаны с разработкой совокупностей ИИ, озвучивались и ранее. В 2015 году Илон Маск, Стивен Хокинг, Ноам Хомский, Стив Возняк и многие другие ученые, предприниматели, знаменитости, специалисты и исследователи в области искусственного интеллекта и робототехники подписали открытое письмо, предостерегающее производителей оружия от создания всецело независимых боевых совокупностей.
Создатель: Николай Воронцов