
Ключевым событием I международного форума “Этика искусственного интеллекта (ИИ): начало доверия”, который во вторник открылся в Москве, стало подписание “Кодекса этики искусственного интеллекта”. Документ дал старт добровольному саморегулированию и внедрению инструмента “мягкой силы” в достижение согласия между ИИ и человеком.
То, как кодекс поможет человеку и машинному мышлению наводить между собой мосты, дал понять вопрос генерального директора Infowatch Натальи Касперской первому заместителю председателя Сбербанка Александру Ведяхину. “Моей знакомой Сбербанк отказал в кредите за минуту. Как ей быть?” – спросила Касперская.
– Опротестовать решение, – ответил Александр Ведяхин. – Да, мы ввели в систему кредитования стратегию “посевных инвестиций”, когда алгоритм ИИ оценивает шансы клиента на получение кредита. Он исходит из рационального расчета – способности клиента выдержать долговую нагрузку, но право вето у ИИ нет. Финальное решение принимает человек. Мы уже столкнулись с тем, что выравнивание этических принципов иногда ведет к отказу от них. Алгоритм ИИ не может посмотреть человеку в глаза, когда он, например, берет кредит на развитие бизнеса. И тут отказ от учета интересов сторон создает проблему этического свойства – без баланса интересов люди отказываются от работы с компаниями. Проще говоря, неустойчивая этика ведет к неустойчивому бизнесу. Когда мы это поняли, приступили к созданию кодекса этики ИИ.
Другое дело, как заметил Александр Ведяхин, “приземлить” как норму кодекс этики ИИ в сознание людей и корпораций будет как в случае со стаканом воды, когда он наполовину пуст, наполовину полон, непросто. Так, по данным ЮНЕСКО, 72% граждан пяти стран (США, ФРГ, Австралии, Великобритании и Канады) не доверяют ИИ, а 65 % граждан 26 стран полагают, что этические рамки – ключевой фактор доверия ИИ. Одна из относительно доверяющих искусственному интеллекту стран – Россия. 48% россиян, по данным ВЦИОМ, доверяют цифровым технологиям. Правда, Россия одной из первых в мире сформулировала пять рисков и угроз, которые сопровождают внедрение “цифры” в жизнь, – дискриминация, потеря приватности, потеря контроля над ИИ, причинение вреда человеку ошибками алгоритма, применение в неприемлемых целях. Все они включены в принятый “Кодекс этики искусственного интеллекта” как угрозы правам и свободам человека.
– В ответ на риски кодекс утвердил основные принципы внедрения ИИ – прозрачность, правдивость, ответственность, надежность, инклюзивность, беспристрастность, безопасность и конфиденциальность, – говорит заместитель председателя правительства России Дмитрий Чернышенко. – Принципы трансграничны и наднациональны, поскольку Россия играет активную роль в развитии наднационального этического регулирования ЮНЕСКО. Другое дело, что, приняв российский кодекс этики ИИ, мы будем требовать от иностранных IT-платформ и соцсетей соблюдения российского законодательства. У нас есть инструменты для работы с иностранными сервисами, хотя надеемся найти точки этического согласия. Поиску их алгоритмов кодекс этики ИИ, верю, поможет.
“Фильтром цифровой безопасности и устойчивого развития будущего” назвала принятый “Кодекс этики ИИ” генеральный директор “Яндекса” в России Елена Бунина. Она сравнила этичность поведения искусственного интеллекта с тем, что любая машина с водителем может совершить красивый вираж, от которого дух захватывает, а этика ИИ, беспилотников в частности, в том и состоит, чтобы снизить риски и быть полезным и безопасным для человека. Вот только человеку надо учиться строить отношения с ИИ как с высокой технологией, которой хочешь не хочешь, а учиться, надо.
– Этика людей по отношению к ИИ заключена в нашей осторожности, – убеждена соавтор и разработчик кодекса ИИ Наталья Касперская. – Вопрос доверия к цифре – это вопрос учета ошибки ИИ, или риска принятия неправильного решения. Мы же пока по всему миру наблюдаем азарт от роста использования машинного интеллекта, что ведет к массовому оглуплению. И это видно на бытовом уровне. Мы разучились считать в уме. Даже продавцы в магазинах складывают на калькуляторе медленнее покупателей. Водители Яндекс.Такси не знают городов, выросло поколение пилотов, которое не способно сажать самолет на ручном управлении. При этом важные технологии усложняются, а навыки людей снижаются. Вот еще, почему любая система ИИ – потенциальная модель рисков и угроз, которые “Кодекс этики ИИ” не снизит, если человек не будет развиваться.
Прогноз разработчиков кодекса однозначен: люди еще не на все грабли наступили, чтобы управлять ИИ как данностью. Этому человека может научить принятый “Кодекс этики ИИ” при двух условиях. Первое условие предрек еще Айзек Азимов, а люди все равно попали в эту ловушку, – “побороть зависимость” от ИИ, когда лень выйти из сетей, лень самим искать дорогу, лень даже слушать советы цифровой Алисы. Второе – саморазвитие человека и доработка “Кодекса этики ИИ” по настоянию человека и тех вызовов его интеллекту, которые еще предъявит ИИ.
“Кодекс этики искусственного интеллекта” разработан на основе “Национальной стратегии развития ИИ на период до 2030 года”. Авторы кодекса – Альянс в сфере искусственного интеллекта РФ, Аналитический центр при правительстве РФ и Минэкономразвития.
Источник: https://rg.ru/2021/10/26/v-rossii-podpisan-kodeks-etiki-iskusstvennogo-intellekta.html