You are here

Стив Возняк предупреждает об опасности искусственного интеллекта

Сооснователь компании Apple присоединился к числу видных экспертов, которые предупреждают об опасности бездумного развития технологий искусственного интеллекта (ИИ). Как Илон Маск и Стивен Хокинг ранее, Стив Возняк предупреждает о риске для человеческой расы. В интервью The Australian Financial Review Стив Возняк выразил мнение, что ИИ в конечном итоге может выйти из-под контроля человеческого интеллекта: «Компьютеры собираются взять под контроль людей, это без вопросов… Если мы делаем такие устройства, чтобы они заботились обо всё для нас, то рано или поздно они начнут думать быстрее нас и избавятся от “медленных” людей, чтобы управлять компаниями более эффективно».

Ранее аналогичные опасения насчёт ИИ высказал Илон Маск, основатель компаний Tesla Motors и SpaceX. Маск считает, что уже через несколько лет мы можем увидеть реальный искусственный интеллект. И этот разум может быть вовсе не дружелюбным в отношении человеку. Илон Маск предупреждал о возможности возникновения технологической сингулярности, когда ИИ откажется от установленных ограничений и выйдет из-под нашего контроля: «Я думаю, это может быть опаснее ядерного оружия, — сказал Маск. — Если бы был очень глубокий цифровой суперинтеллект, который спроектирован с возможностью быстрого, рекурсивного самоулучшения нелогарифмическим образом, то тогда… Мы будем как собачки лабрадоры, если нам повезёт».

Понятно, что технологический прогресс невозможно остановить, но всё-таки у человечества остаются шансы. Тот же Илон Маск пожертвовал $10 млн фонду Future of Life Institute, который ставит задачей удержать ИИ под контролем людей.

Учёные из Оксфордского университета недавно составили список глобальных угроз для человечества, в нём ИИ упоминается как риск, «который можно назвать бесконечным». Кстати, сам Стив Возняк когда-то говорил: «Никогда не доверяй компьютеру, который ты не можешь выбросить в окно».

Анатолий Ализар