
Ключевым событием I международного форума «Этика искусственного интеллекта (ИИ): начало доверия», который во вторник открылся в Москве, стало подписание «Кодекса этики искусственного интеллекта». Документ дал старт добровольному саморегулированию и внедрению инструмента «мягкой силы» в достижение согласия между ИИ и человеком.
То, как кодекс поможет человеку и машинному мышлению наводить между собой мосты, дал понять вопрос генерального директора Infowatch Натальи Касперской первому заместителю председателя Сбербанка Александру Ведяхину. «Моей знакомой Сбербанк отказал в кредите за минуту. Как ей быть?» — спросила Касперская.
— Опротестовать решение, — ответил Александр Ведяхин. — Да, мы ввели в систему кредитования стратегию «посевных инвестиций», когда алгоритм ИИ оценивает шансы клиента на получение кредита. Он исходит из рационального расчета — способности клиента выдержать долговую нагрузку, но право вето у ИИ нет. Финальное решение принимает человек. Мы уже столкнулись с тем, что выравнивание этических принципов иногда ведет к отказу от них. Алгоритм ИИ не может посмотреть человеку в глаза, когда он, например, берет кредит на развитие бизнеса. И тут отказ от учета интересов сторон создает проблему этического свойства — без баланса интересов люди отказываются от работы с компаниями. Проще говоря, неустойчивая этика ведет к неустойчивому бизнесу. Когда мы это поняли, приступили к созданию кодекса этики ИИ.
Другое дело, как заметил Александр Ведяхин, «приземлить» как норму кодекс этики ИИ в сознание людей и корпораций будет как в случае со стаканом воды, когда он наполовину пуст, наполовину полон, непросто. Так, по данным ЮНЕСКО, 72% граждан пяти стран (США, ФРГ, Австралии, Великобритании и Канады) не доверяют ИИ, а 65 % граждан 26 стран полагают, что этические рамки — ключевой фактор доверия ИИ. Одна из относительно доверяющих искусственному интеллекту стран — Россия. 48% россиян, по данным ВЦИОМ, доверяют цифровым технологиям. Правда, Россия одной из первых в мире сформулировала пять рисков и угроз, которые сопровождают внедрение «цифры» в жизнь, — дискриминация, потеря приватности, потеря контроля над ИИ, причинение вреда человеку ошибками алгоритма, применение в неприемлемых целях. Все они включены в принятый «Кодекс этики искусственного интеллекта» как угрозы правам и свободам человека.
— В ответ на риски кодекс утвердил основные принципы внедрения ИИ — прозрачность, правдивость, ответственность, надежность, инклюзивность, беспристрастность, безопасность и конфиденциальность, — говорит заместитель председателя правительства России Дмитрий Чернышенко. — Принципы трансграничны и наднациональны, поскольку Россия играет активную роль в развитии наднационального этического регулирования ЮНЕСКО. Другое дело, что, приняв российский кодекс этики ИИ, мы будем требовать от иностранных IT-платформ и соцсетей соблюдения российского законодательства. У нас есть инструменты для работы с иностранными сервисами, хотя надеемся найти точки этического согласия. Поиску их алгоритмов кодекс этики ИИ, верю, поможет.
«Фильтром цифровой безопасности и устойчивого развития будущего» назвала принятый «Кодекс этики ИИ» генеральный директор «Яндекса» в России Елена Бунина. Она сравнила этичность поведения искусственного интеллекта с тем, что любая машина с водителем может совершить красивый вираж, от которого дух захватывает, а этика ИИ, беспилотников в частности, в том и состоит, чтобы снизить риски и быть полезным и безопасным для человека. Вот только человеку надо учиться строить отношения с ИИ как с высокой технологией, которой хочешь не хочешь, а учиться, надо.
— Этика людей по отношению к ИИ заключена в нашей осторожности, — убеждена соавтор и разработчик кодекса ИИ Наталья Касперская. — Вопрос доверия к цифре — это вопрос учета ошибки ИИ, или риска принятия неправильного решения. Мы же пока по всему миру наблюдаем азарт от роста использования машинного интеллекта, что ведет к массовому оглуплению. И это видно на бытовом уровне. Мы разучились считать в уме. Даже продавцы в магазинах складывают на калькуляторе медленнее покупателей. Водители Яндекс.Такси не знают городов, выросло поколение пилотов, которое не способно сажать самолет на ручном управлении. При этом важные технологии усложняются, а навыки людей снижаются. Вот еще, почему любая система ИИ — потенциальная модель рисков и угроз, которые «Кодекс этики ИИ» не снизит, если человек не будет развиваться.
Прогноз разработчиков кодекса однозначен: люди еще не на все грабли наступили, чтобы управлять ИИ как данностью. Этому человека может научить принятый «Кодекс этики ИИ» при двух условиях. Первое условие предрек еще Айзек Азимов, а люди все равно попали в эту ловушку, — «побороть зависимость» от ИИ, когда лень выйти из сетей, лень самим искать дорогу, лень даже слушать советы цифровой Алисы. Второе — саморазвитие человека и доработка «Кодекса этики ИИ» по настоянию человека и тех вызовов его интеллекту, которые еще предъявит ИИ.
«Кодекс этики искусственного интеллекта» разработан на основе «Национальной стратегии развития ИИ на период до 2030 года». Авторы кодекса — Альянс в сфере искусственного интеллекта РФ, Аналитический центр при правительстве РФ и Минэкономразвития.
Источник: https://rg.ru/2021/10/26/v-rossii-podpisan-kodeks-etiki-iskusstvennogo-intellekta.html
