Очередная встреча дискуссионного клуба «Цифровая реальность» была посвящена регулированию в сфере искусственного интеллекта. Участники встречи обсудили проблему гиперперсонализации и связанные с ней риски, а также вопросы установления рамок приемлемого применения искусственного интеллекта. Они согласились с тем, что искусственный интеллект сегодня стал одним из драйверов изменений информационного пространства, однако последствия его проникновения в цифровую среду не всегда носят позитивный характер.
За последние несколько лет информационное пространство сильно поменялось. Во многом это связано с популярностью соцсетей: в них появляются новые инструменты, а искусственный интеллект становится основой для множества информационных сервисов, и в первую очередь выдачи контента.
«Для пользователей это происходит незаметно и делает более комфортным использование социальных платформ. Самое главное, что принес искусственный интеллект, — это именно гиперперсонализация, делающая пользование платформой более интересным и заставляющая проводить в ней больше времени», — подчеркнул Юрий Колотаев, член молодежного совета Координационного центра доменов RU/РФ.
Термин «гиперперсонализация» подразумевает существенную разницу в объеме данных, привлекаемых для персонализации контента, и используемых для этого инструментах. Персонализация выполняется не только по гендерной принадлежности, семейному положению и предпочтениям, но и по последним действиям потребителя сервиса, геолокации и т. п. Однако проблема заключается в том, что такой подход влечет создание длинного цифрового следа каждого пользователя. Это может быть довольно чувствительная информация, о раскрытии которой человек даже не подозревает. И возможность ее нечистоплотного использования уже стала реальностью. Самая большая проблема — возможность точно таргетировать информационные атаки. Персонализированная выдача информации — первое, что может нанести вред.
«Цифровая реальность ставит ребром многие вопросы. Часто возникают ситуации, когда людьми легко манипулировать», — констатировал Колотаев. То, что мы видим в Сети, не всегда прозрачно, иногда сложно заметить границу между реальностью и эмоциональной составляющей информации.
Данные в руках террористов
Как отметила Дарья Базаркина, ведущий научный сотрудник отдела исследований европейской интеграции Института Европы Российской академии наук, информационные атаки активно берутся на вооружение террористическими организациями.
Террористы манипулировали аудиторией и до появления искусственного интеллекта. Они всегда использовали психологические приемы, позволявшие создать видимость широкой поддержки их действий и массовости сторонников. Однако искусственный интеллект расширяет возможности пропаганды. Террористы, несмотря на архаичность взглядов, готовы использовать в работе самые продвинутые инструменты. Например, вербовщику всегда требовалось значительное время, чтобы войти в доверие к человеку, определить его сильные и слабые стороны. Анализ тональности поведения жертвы на различных ресурсах может радикально ускорить этот процесс. Для убеждения людей начинают применять технологию дипфейков, когда для продвижения идей используют наиболее привлекательную для конкретного человека персону. Именно поэтому террористические организации активно привлекают в свои ряды разработчиков инструментов манипуляции сознанием.
Удобство имеет свою цену
«Мы часто готовы платить высокую цену за удобство — это черта человека, о которой многие забывают», — напомнила Наталья Клюева, доцент философского факультета МГУ. Скажем, распознавание клиента по лицу и оплата товаров одним касанием подразумевают довольно большой объем раскрываемой информации.
Тем не менее гуманитарные аспекты развития и применения технологий становятся все более актуальными, и это говорит об их развитии: общество ждет новых ориентиров их использования. Очевиден общественный интерес к этическим вопросам в сфере искусственного интеллекта. И этика присутствует в национальных стратегиях развития искусственного интеллекта, хотя во многих случаях такая тема не раскрывается подробно, а документы носят рекомендательный характер. Тем не менее достигнуто общее понимание того, что принципы действия искусственного интеллекта должны соответствовать моральным установкам общества.
Андрей Игнатьев, руководитель аналитического направления Центра глобальной ИТ-кооперации, говоря о регулировании искусственного интеллекта, заметил, что человек борется со злом на протяжении всей истории и одним из важных элементов этой борьбы является поиск морально-нравственных ориентиров внутри себя. «Искусственный интеллект не этичен по определению. Говоря о его этике на нынешнем этапе развития, надо подразумевать именно этику людей, принимающих участие в создании и эксплуатации таких систем», — заявил он.
Выбирая между удобством и безопасностью, следует оценивать, насколько велики побочные эффекты этого удобства: доступность результатов нашей жизнедеятельности в цифровом мире может быть использована против нас. В идеале мы должны сами определять рамки своей прозрачности. Это можно сравнить с выходом человека в море на судне: он расширяет свои возможности, но принимает сопутствующие этому риски.