Поиск города

Ничего не найдено

Можно ли управлять искусственным интеллектом?

0 188

За сутки ВСУ потеряли под Курском 280 человек и три танка

Это было дерби! «Волгарь» вырвал победу у СК «Астрахань» на последних секундах кубкового матча

Как родной: чем займется совет при президенте по русскому языку

За время боевых действий на Курском направлении ВСУ потеряли более 5,5 тыс. человек

Доктор Роман Ямпольский (Roman Yampolskiy), эксперт по безопасности искусственного интеллекта, предупреждает о беспрецедентных рисках, связанных с искусственным интеллектом, в своей книге «ИИ: необъяснимое, непредсказуемое, неконтролируемое» (“AI: Unexplainable, Unpredictable, Uncontrollable”). В ходе обширного обзора Ямпольский обнаруживает отсутствие доказательств того, что ИИ можно безопасно контролировать, указывая на потенциальную возможность ИИ вызывать экзистенциальные катастрофы.

Он утверждает, что присущая системам искусственного интеллекта непредсказуемость и повышенная автономность создают серьезные проблемы для обеспечения их безопасности и соответствия человеческим ценностям. В книге подчеркивается острая необходимость расширения исследований и разработок в области мер безопасности ИИ для смягчения этих рисков, пропагандируя сбалансированный подход, отдающий приоритет человеческому контролю и пониманию.

Согласно обширному обзору, в настоящее время нет доказательств того, что ИИ можно безопасно контролировать, и без доказательств того, что ИИ можно контролировать, его не следует разрабатывать, предупреждает исследователь.

Несмотря на признание того, что проблема управления ИИ может быть одной из наиболее важных проблем, стоящих перед человечеством, она остается плохо понятой, плохо определенной и плохо исследованной, объясняет доктор Роман Ямпольский.

В своей будущей книге эксперт по безопасности ИИ Ямпольский рассматривает способы, с помощью которых ИИ может кардинально изменить общество, не всегда в нашу пользу.

Он объясняет: «Мы столкнулись с почти гарантированным событием, которое может привести к экзистенциальной катастрофе. Неудивительно, что многие считают это самой важной проблемой, с которой когда-либо сталкивалось человечество. Результатом может быть процветание или вымирание, и судьба Вселенной висит на волоске».

Неуправляемый сверхинтеллект

Доктор Ямпольский провел обширный обзор научной литературы по ИИ и заявил, что не нашел доказательств того, что ИИ можно безопасно контролировать – и даже если будет какой-то частичный контроль, его будет недостаточно.

Он объясняет: «Почему так много исследователей полагают, что проблема управления ИИ разрешима? Насколько нам известно, этому нет доказательств. Прежде чем приступить к созданию управляемого ИИ, важно показать, что проблема разрешима. Это, в сочетании со статистикой, которая показывает, что развитие сверхинтеллекта ИИ является почти гарантированным событием, показывает, что мы должны поддерживать значительные усилия по обеспечению безопасности ИИ».

Он утверждает, что наша способность создавать интеллектуальное программное обеспечение намного превосходит нашу способность контролировать или даже проверять его. После всестороннего обзора литературы он предположил, что передовые интеллектуальные системы никогда не смогут быть полностью управляемыми и поэтому всегда будут представлять определенный уровень риска, независимо от пользы, которую они приносят. Он считает, что целью сообщества ИИ должна быть минимизация такого риска при максимизации потенциальной выгоды.

Каковы препятствия?

ИИ (и сверхинтеллект) отличаются от других программ своей способностью изучать новое поведение, корректировать свою работу и действовать полуавтономно в новых ситуациях.

Одна из проблем, связанных с обеспечением безопасности ИИ, заключается в том, что возможные решения и неудачи сверхразумного существа по мере того, как оно становится более способным, бесконечны, поэтому существует бесконечное количество проблем безопасности. Просто спрогнозировать проблемы невозможно и устранить их с помощью обновлений безопасности может быть недостаточно.

В то же время, объясняет Ямпольский, ИИ не может объяснить то, что он решил, и/или мы не можем понять данное объяснение, поскольку люди недостаточно умны, чтобы понять реализованные концепции. Если мы не понимаем решений ИИ и у нас есть только «черный ящик», мы не сможем понять проблему и снизить вероятность будущих аварий.

Например, системам искусственного интеллекта уже поручено принимать решения в таких сферах, как здравоохранение, инвестирование, трудоустройство, банковское дело и безопасность, и это лишь некоторые из них. Такие системы должны быть способны объяснить, как они пришли к своим решениям, в частности, чтобы продемонстрировать, что они свободны от предвзятости.

Ямпольский объясняет: «Если мы привыкнем принимать ответы ИИ без объяснения причин, по сути, рассматривая его как систему Oracle, мы не сможем сказать, начнет ли он давать неверные или манипулятивные ответы».

Контролируя неконтролируемое

По мере увеличения возможностей ИИ его автономность также увеличивается, но наш контроль над ним уменьшается, объясняет Ямпольский, а увеличение автономности является синонимом снижения безопасности.

Например, чтобы сверхинтеллект избежал получения неточных знаний и устранить любую предвзятость своих программистов, он мог бы игнорировать все такие знания и заново открыть/доказать все с нуля, но это также устранило бы любую прочеловеческую предвзятость.

«Человечество стоит перед выбором: станем ли мы подобны младенцам, о которых заботятся, но не контролируют, или мы отказываемся от полезного опекуна, но остаемся ответственными и свободными».

Он предполагает, что можно найти точку равновесия, в которой мы пожертвуем некоторыми возможностями в обмен на некоторый контроль за счет предоставления системе определенной степени автономии.

Согласование человеческих ценностей

Одним из предложений по контролю является создание машины, которая бы точно следовала человеческим приказам, но Ямпольский указывает на возможность противоречивых приказов, неправильного толкования или злонамеренного использования.

Если бы ИИ действовал скорее как советник, он мог бы обойти проблемы с неправильной интерпретацией прямых приказов и возможностью злонамеренных приказов, но автор утверждает, что для того, чтобы ИИ был полезным советником, он должен иметь свои собственные высшие ценности.

«Большинство исследователей безопасности ИИ ищут способ привести будущий сверхинтеллект в соответствие с ценностями человечества. ИИ, ориентированный на ценности, будет предвзятым по определению, предвзятость в пользу человека, хорошая или плохая, по-прежнему остается предвзятостью. Парадокс ИИ, ориентированного на ценности, заключается в том, что человек, явно приказывающий системе ИИ что-то сделать, может получить «нет», в то время как система пытается сделать то, что на самом деле хочет человек. Человечество либо защищают, либо уважают, но не то и другое», — объясняет он.

Минимизация риска

По его словам, чтобы свести к минимуму риск ИИ, он должен быть модифицируемым с возможностью «отменить», ограниченным, прозрачным и простым для понимания на человеческом языке.

Он предлагает разделить весь ИИ на контролируемый и неконтролируемый, ничего не следует снимать с повестки дня и ограничивать моратории и даже рассматривать возможность частичного запрета на определенные типы технологий ИИ.

Вместо того, чтобы разочаровываться, автор книги заключает: «Скорее, это повод для большего числа людей копать глубже и увеличивать усилия и финансирование исследований в области безопасности ИИ. Возможно, мы никогда не добьемся 100% безопасного ИИ, но мы можем сделать ИИ более безопасным пропорционально нашим усилиям, что намного лучше, чем ничего не делать. Нам нужно использовать эту возможность с умом».

Авторы другого исследования утверждают, что искусственный интеллект предсказывает успех антидепрессанта сертралина уже через неделю.

Запись Можно ли управлять искусственным интеллектом? впервые появилась Medical Insider.


Читайте также

В тренде на этой неделе

За сутки ВСУ потеряли под Курском 280 человек и три танка

Это было дерби! «Волгарь» вырвал победу у СК «Астрахань» на последних секундах кубкового матча

Армия России уничтожила в курском и сумском приграничье сотни боевиков ВСУ (КАРТА)

ВКС России разносят в клочья скопления сил и техники ВСУ на курском направлении (ВИДЕО)

Загрузка...

Загрузка...
Новости последнего часа со всей страны в непрерывном режиме 24/7 — здесь и сейчас с возможностью самостоятельной быстрой публикации интересных "живых" материалов из Вашего города и региона. Все новости, как они есть — честно, оперативно, без купюр.



News-Life — паблик новостей в календарном формате на основе технологичной новостной информационно-поисковой системы с элементами искусственного интеллекта, тематического отбора и возможностью мгновенной публикации авторского контента в режиме Free Public. News-Life — ваши новости сегодня и сейчас. Опубликовать свою новость в любом городе и регионе можно мгновенно — здесь.
© News-Life — оперативные новости с мест событий по всей Украине (ежеминутное обновление, авторский контент, мгновенная публикация) с архивом и поиском по городам и регионам при помощи современных инженерных решений и алгоритмов от NL, с использованием технологических элементов самообучающегося "искусственного интеллекта" при информационной ресурсной поддержке международной веб-группы 123ru.net в партнёрстве с сайтом SportsWeek.org и проектом News24.


Владимир Зеленский в Украине


Светские новости



Сегодня в Украине


Другие новости дня



Все города России от А до Я