Возможно, если человек попытается изменить фундаментальные настройки в ИИ, то и сам человек окажется лишним на этой планете. Фото Андрея Ваганова
«Монополист в сфере искусственного интеллекта может стать властелином мира». Эти слова Владимира Путина, сказанные им 30 мая на совещании по вопросам развития технологий в области искусственного интеллекта (ИИ), сразу же обросли интерпретациями. Между тем, если вчитаться в смысл высказывания, то становится понятно: в нем присутствует не только постановка технологической цели, но и озабоченность возможностью развития процесса в деструктивном, опасном для человечества направлении.
Трудно не согласиться с мыслью о том, что здесь присутствуют не только «колоссальные возможности», но и «трудно прогнозируемые сегодня угрозы». И самая серьезная из них действительно связана с монополизацией, сосредоточением «контрольного пакета» нового направления в одних руках. Причем речь идет не только о технологическом лидерстве, совершенстве систем, но и об их концептуальных настройках.
На сегодняшний день большинство разработчиков едины в том, что системы ИИ должны создаваться таким образом, чтобы их цели и поведение были схожи с человеческими ценностями на протяжении всей их работы. Равно, как и в том, что развитие ИИ не должно вступать в противоречие с задачами устойчивого развития, и наносить ущерб экосистемам. Казалось бы, все ясно, но...
Технологии – как правило, универсальны. А вот представления о том, что такое «ущерб экосистемам», могут сильно различаться у различных групп населения земного шара. К примеру, у активистов WWF, создающих спецотряды для защиты редких животных, и жителей Непала и Конго, практикующих традиционные виды охоты.
А что делать, если завтра некто, получивший монополию на ИИ, поставит вопрос о глобальной системе правосудия, объективной и беспристрастной? Какие ценности и принципы будут заложены в алгоритм? Или представим себе создание глобальной системы социальных рейтингов, подобных той, что уже действует сегодня в Китае.
Допустим, в КНР ее наличие заставляет серьезно задуматься хулиганов, нарушителей правил дорожного движения и хронических неплательщиков по кредитам. Но что делать, если потенциальный создатель подобной системы в планетарном масштабе будет оценивать нас по совершенно другим принципам? Например, заинтересуется нашим мировоззрением? И будет поощрять за «правильные» убеждения, выраженные в тех же социальных сетях, и карать за «ошибочные»?
А если речь пойдет об автоматизированных системах управлениях и придется выбирать: закрыть ТЭЦ с ее выбросами парниковых газов или оставить без тепла живущих поблизости людей?
Еще более остро стоит вопрос о нашей готовности ответственно и последовательно следовать ценностным ориентирам в вопросах развития ИИ.
Казалось бы, наступление цифровой эпохи требует от человечества качественно нового уровня осознанности. Однако культурный код постмодерна диктует совсем другое поведение – инфантильное, эгоцентричное и во всех отношениях раскрепощенное. В этом контексте вопрос стоит сегодня даже не о том, выйдет ли ИИ из-под контроля человека, погрузив человечество в ситуацию, хорошо показанную в голливудских блокбастерах вроде «Матрицы» или «Терминатора».
Речь идет о нашей способности задать процессу ценностное направление и контролировать его на всех этапах. Особенно на фоне продолжающейся борьбы с «репрессивной моралью» и становящихся мейнстримом суждений о том, что никаких вечных, незыблемых ценностей нет. Ценности, мол, меняются вместе со сменой поколений, если не быстрее. Одни ценности были у бебибумеров, другие – у поколения Х, третьи – у миллениалов. По‑разному смотрят на мир советские комсомольцы – строители БАМа, «малиновые пиджаки» 90-х и сегодняшние хипстеры на гироскутерах.
Конечно, бросать с чувством собственного превосходства такие сентенции в лицо священнику или учительнице обществознания безопасно и ненаказуемо. Совсем другое дело – искусственный интеллект. В романе Артура Кларка «Одиссея‑2001» описана реакция ИИ на попытку человека изменить фундаментальные настройки заложенной в него программы. И это была грустная история.
Очень похоже на то, что развивать ИИ, обходя трудно прогнозируемые сегодня угрозы, сможет лишь тот, кто способен ответственно и осознанно подойти к вопросу о ценностях. В противном случае есть риск, что игровая и имитационная аксиология (философская наука о ценностях) постмодерна приведет нас к неспособности передать самообучающемуся искусственному интеллекту устойчивые ценностные ориентиры. Со всеми вытекающими отсюда последствиями.
Впрочем, будем оптимистами. Возможно, что уже очень скоро будет сформирован качественно иной запрос на лидерство в сфере развития ИИ. Лидером станет тот, кто сможет передать ИИ ценностный капитал человечества, сделав его по‑настоящему безопасным и гуманным. Не приносящим человека в жертву экономоцентризму, а раскрывающим новые возможности для развития, совершенствования, творчества.
Можно ли хотя бы помечтать о том, чтобы таким лидером стала Россия? А почему бы и нет?!
комментарии(0)