Естественные права
и искусственный
интеллект
Владислав Шершульский
Microsoft, Россия
0
1
Эпоха машин
Машина для сравнения идей Корсакова, 1832Аналитическая машина Бэббиджа, 1833
Облачная инфраструктура
Внешние данные
из публичного облака
«Тюнинг» модели
дополнительное обучение конкретного
экземпляра сервиса
Граничные «эдж» устройства
где предобученное подмножество ИИ-сервиса
работает непосредственно на месте его применения
(опционально)
Когнитивные сервисы
из публичного облака,
обученные на миллиардах
примеров
Облачный «эплаенс»
локальный фрагмент глобального
облака, инсталлированный у
клиента или партнера
Сенсоры и актуаторы
реализующие сервис (если имеются)
Анатомия интеллектуального сервиса
Перспективы использования ИИ
Автономный
транспорт
Промышленное
производство
Сельское
хозяйство
Общественная
безопасность
МедицинаФинансы
Обратная сторона ИИ
Gartner
hype
cycle
РискиИИ
Новая технологическая политика
Ответственный
ИИ
Общественность
Ученые
Разработчики Бизнес-потребители
Государство
Международные
организации
Три стороны ответственного ИИ
Без данных нет искусственного интеллекта
Кто распоряжается данными?
Государство
определяет, какие и где можно
хранить и обрабатывать
перс.данные и стремится стать
их основным оператором
Субъект
считается собственником своих ПД и
имеет полное право распоряжаться
их распространением, хранением и
обработкой»
Оператор
имеет право хранить и должным
образом использовать ПД,
полученные на законных основаниях
Можно ли говорить о морали и законопослушании ИИ
Этика в исторической перспективе
Информационная этика Лучано Флориди
Субъект Объект
Воздействие
Контекст
Инфосфера
• Неантропоцентрическая
агенты – любые информационные сущности
(люди, организации, животные, природные объекты,
роботы, программы, наборы данных и пр.)
• Страдательная
сфокусированная на объекте воздействия
• Минимальные естественные права
право на существование, право на развитие
Законы для информационных объектов
Айзек Азимов Лучано Флориди
0. Робот не может причинить вред человечеству или
своим бездействием допустить, чтобы
человечеству был причинён вред.
1. Робот не может причинить вред человеку или
своим бездействием допустить, чтобы человеку
был причинён вред.
2. Робот должен повиноваться всем приказам,
которые даёт человек, кроме тех случаев, когда эти
приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в
той мере, в которой это не противоречит Первому
или Второму Законам.
0. Энтропия не должна порождаться в инфосфере
(действие безусловно приемлемо, только если не
порождает энтропию)
1. Нужно стремиться к минимизации производства
энтропии в инфосфере (из возможных действий
следует предпочесть производящее минимум
энтропии – принцип минимума производства
энтропии)
2. Нужно уменьшать энтропию в инфосфере (этично
предпринимать действия с целью уменьшения
энтропии)
3. Нужно заботиться о состоянии инфорсферы,
путем ее расширения, совершенствования и
обогащения
Правовой статус ИИ: дее- и право- способность
« ЗА » « ПРОТИВ »
• Позволяет компьютерам перейти от режима работы «по
нашим инструкциям» к режиму «в наших интересах»
• Упрощает включение искусственных агентов в
социальные отношения, в т.ч. путем распространения на
них существующего законодательства
• Легитимизует естественное стремление людей к
персонализации инструментов
• Защищает гармоничное развитие инноваций от
спорадического запретительного регулирования (??)
• «Мы должны дать им права, чтобы сохранить наши
моральные ценности» – Кейт Дарлинг
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2044797
• Корпоративные и искусственные агенты могут
использоваться для избежания последствий
• Расширение прав искусственных агентов
может повлечь ограничение прав людей
• В римском праве уже был автономный
транспорт
• Чрезмерное регулирование может
затормозить инновации (??)
• Наделение искусственных агентов может
ограничить возможности корпораций и
государства использовать ИИ в своих целях
(??)
Условия дее- и право-
способности ИИ
Агенты – кандидаты в личности
• Возможность взаимодействовать
с окружающей средой
• Рефлексия и социализация
• Автономность и свобода воли
• Индивидуальность
• … ?
Философско-юридическо-математический
словарик
• Агент – автономная сущность, в определенной
мере обособленная от окружающей его среды,
воспринимающая ее с помощью сенсоров и
воздействующая на нее посредством актуаторов
• Рефлексия – рекурсия
• Свобода воли – вырождение (неоднозначность)
решения уравнений, описывающего поведение
агента
• Индивидуальность – сложность (бифуркации,
хаос, физические ограничения клонирования)
Информационный агент
как канал связи
? ? ?
Три подхода к правовому статусу ИИ
Кого (что) можно считать электронной личностью (лицом)?
Того (то),
кто (что)
сможет
доказать
это в суде
Того (то), кто (что)
удовлетворяет
определенному
законом перечню
свойств
Того (то), кто (что)
зарегистрирован
в официальном
реестре
? ? ?
Три подхода к правовому статусу ИИ
Кого (что) можно считать электронной личностью (лицом)?
Того (то),
кто (что)
сможет
доказать
это в суде
Того (то), кто (что)
удовлетворяет
определенному
законом перечню
свойств
Того (то), кто (что)
зарегистрирован
в официальном
реестре
Национальные ИИ-стратегии
Еще, в основном, не законодательное регулирование
Россия
Германия
Мексика
Индия
Швеция
Южная Корея
США
Австрия
Великобритания
ЕС
Тунис
Франция
Италия
Дания
Тайвань
Кения
Финляндия
ОАЭ
КНР
Сингапур
Япония
Канада
2019
2018
2017
См. https://medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd
Вероятно, первое законодательное определение ИИ было
дано в п.2 статьи 2 Базового закона Японии от 14.12.2016
№ 103 «Об улучшении использования данных публичного
и частного секторов»
Partnership on AI: 90+ членов, 13 стран
IEEE: этичная разработка систем ИИ
Корпоративные комитеты по контролю за ИИ
Microsoft AETHER (AI and ethics in engineering and research) и все, все, все…
Принципы интерфейса человек-ИИ
Подготовка 1 Четко объявляйте, что система может делать
2 Объективно сообщайте, насколько хорошо она может это делать
В процессе
взаимодействия
3 Учитывайте цель, сценарий и контекст пользователя
4 Отображайте контекстно релевантный контент
5 Соблюдайте уместные социальные нормы
6 Исключайте социальные предубеждения/предрассудки
Если что-то пошло
не так
7 Обеспечьте удобство запуска/вызова сервиса
8 Обеспечьте возможность останова, игнорирования, отмены сервиса
9 Сохраните возможность корректировки работы сервиса, избегайте необратимости
10 Уточняйте задачу, когда намерения пользователя не ясны
11 Объясняйте действия системы
В развитии 12 Уважайте приватность пользователя, защищайте его перс.данные
13 Пусть сервис обучается на примерах поведения пользователей с их согласия
14 Интерфейс сервиса должен меняться с ростом опыта, а изменения поясняться
15 Собирайте и используйте подробную обратную реакцию и отзывы
16 Разъясняйте, как действия пользователя влияют на будущее поведение системы
17 Предоставьте пользователям простой механизм настройки
18 Информируйте пользователя о всех существенных изменениях
Корпоративные комитеты по контролю за ИИ
Microsoft AETHER (AI and ethics in engineering and research) и все, все, все…
AETHEROffice of
responsible AI
Внешние
эксперты
Заказчики
Президент
Исследования, разработки, маркетинг, инфраструктура
Эволюция требований к информационным
системам
Функциональные
1950+
Надежные
1990+
Защищенные
2000+
Моральные и
законопослушные
2020+
Как формализовать ответственное поведение?
Пользовательский интерфейс из сериала «The Westworld»
Три подхода к разработке ответственного ИИ
Обучение на примерах
Правила для следования Функция для оптимизации
Модальная логика
Георг фон Вригт
~ (не), →(влечет)
∧ (или), ∨ (и)
∀ (для всех) ∃ (существует)
O(ОБЯЗАТЕЛЬНО)
P (ДОПУСТРИМО)
F (ЗАПРЕЩЕНО)
G (ХОРОШО)
N (НЕЙТРАЛЬНО)
B (ПЛОХО)
Классическая логика предикатов Деонтическая логика Аксиологическая логика
Моральная грамматика
?
ЛГ
Ввод
Грамматически корректно
Грамматически некорректно
Лингвистическая грамматика (ЛГ)
?
МГ
Ввод
Этически допустимо
Этически недопустимо
Моральная грамматика (МГ)
Mikhail, John, Universal Moral Grammar: Theory, Evidence, and the Future. Trends in Cognitive Sciences, April 2007; Georgetown
Public Law Research Paper No. 954398. Available at SSRN: https://ssrn.com/abstract=954398 Джон Михал
Моральная грамматика
Mikhail, John, Universal Moral Grammar: Theory, Evidence, and the Future. Trends in Cognitive Sciences, April 2007; Georgetown Public Law Research Paper No. 954398.
Available at SSRN: https://ssrn.com/abstract=954398
Рефлексивная теория игр («Алгебра совести»)
Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
Эта теория предлагает вариант формального описания
цепочки обстоятельства → намерения → готовность,
внутреннего представления субъектом модели мира (акторов
взаимодействия), свободы выбора, этического статуса и пр.
Среди результатов:
• Интерпретация рефлексии и свободы выбора
• Наличие двух этических систем
• Удобное формальное описание конфликтных ситуаций
• Классификация «психотипов» по этическому статусу
Рефлексивная теория игр
Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
Рефлексивная теория игр
Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
Рефлексивная теория игр
Графы отношений рефлексивной теории игр также имеют грамматическую структуру
Владимир Лефевр. Лекции по теории рефлексивных игр. – М.: Когито-Центр, 2009. – 218 с.
Классификация акторов конфликта в «Алгебре совести»
Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
Праведник
«Моральная машина» MIT и обучение на примерах
Трудно собрать большую базу примеров поведения в ситуации морального выбора, но Яду
Равану (Iyad Rahwan) и коллегам удалось: 40М+ заполненных опросников из 233 стран
http://moralmachine.mit.edu/ Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
«Моральная машина» MIT и обучение на примерах
59% опрошенных предпочтут купить машину, которая всегда защищает жизнь водителя
(Science via The Washington Post)
Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
Обучение морали с подкреплением
Агент Среда
реальная или
виртуальная
Эволюция законов инфосферы
Айзек Азимов
1942
Лучано Флориди
1999
0. Робот не может причинить вред человечеству
или своим бездействием допустить, чтобы
человечеству был причинён вред.
1. Робот не может причинить вред человеку или
своим бездействием допустить, чтобы человеку
был причинён вред.
2. Робот должен повиноваться всем приказам,
которые даёт человек, кроме тех случаев, когда
эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в
той мере, в которой это не противоречит
Первому или Второму Законам.
0. Энтропия не должна порождаться в инфосфере
(действие безусловно приемлемо, только если не
порождает энтропию).
1. Нужно стремиться к минимизации производства
энтропии в инфосфере (из возможных действий
следует предпочесть производящее минимум
энтропии).
2. Нужно уменьшать энтропию в инфосфере (этично
предпринимать действия с целью уменьшения
энтропии).
3. Нужно заботиться о состоянии инфорсферы, путем
ее расширения, совершенствования и развития.
Принцип расширения свободы выбора
“Этический императив: всегда поступайте так, чтобы увеличить число вариантов выбора”
Хейнц фон Фёрстер, 1995
Klyubin, A., Polani, D., and Nehaniv, C.. “Empowerment: a universal agent-centric measure of control”
in The 2005 IEEE Congress on Evolutionary Computation, Vol. 1 (Edinburgh: IEEE), 128–135.
Klyubin, A.S., Polani, D. and Nehaniv, C.L.. “All else being equal be empowered”
In European Conference on Artificial Life, 2005, September. Springer, Berlin, Heidelberg, pp. 744–753
Пусть информационный агент выбирает такие действия (своих актуаторов),
чтобы на следующем шаге (или через заданное число n шагов) у него был
выбор из наибольшего числа различающихся альтернатив, т.е., чтобы его
сенсоры могли воспринять максимум разных вариантов ситуации.
Иными словами, увеличивайте пропускную способность информационного
канала агента от актуаторов к сенсорам.
Александр Клюбин
Как вычисляется «эмпауэрмент»
Klyubin, A.S., Polani, D. and Nehaniv, C.L.. “All else being equal be empowered”
In European Conference on Artificial Life, 2005, September. Springer, Berlin, Heidelberg, pp. 744–753
Актуаторы
Состояние
актора
Сенсоры
Точка расчета
эмпауэрмента
Расширение возможностей
в статистической теории информации
– мера в битах числа вариантов выбора – свобода (empowerment) –
максимум пропускной способности канала на n шагах
– состояния актуаторов на последних n шагах { t, t + 1, … t + n }
– состояние сенсоров на последнем шаге ( t + n )
– вероятность получения сигнала 𝑠𝑡+𝑛 сенсорами при условии
воздействий 𝑎 𝑡
𝑛
на предыдущих n шагах
n
Принцип расширения возможностей
Salge C., Polani D. “Empowerment As Replacement for the Three Laws of Robotics”
in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p.
Принцип расширения возможностей
Salge C., Polani D. “Empowerment As Replacement for the Three Laws of Robotics”
in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p.
Во многих случаях искусственный агент,
не допускающий никакого ущерба для
человека, действует менее эффективно и
может быстрее выйти из строя, чем
агент, допускающий небольшой ущерб
человеку.
В интересах человека дать ему большую
свободу, чем допускали законы Азимова.
Свобода (воли) и ответственность
Tufts Human-Robot Interaction Lab
Знаю ли я как выполнить X
Способен ли я технически выполнить X
Могу ли я выполнить X прямо сейчас
Ожидают ли окружающие от меня выполнения X
Не нарушу ли я законы и инструкции выполняя X
Соответствует ли выполнение X моральным
принципам
Этические компоненты ИТ решений
Сегодня
Специализированные
приложения
Встроенные ad hoc
Моно- и мульти-агентские
Логика ИЛИ машинное обучение
Различные парадигмы
программирования
Завтра
Общие этические системы
Стандартные библиотеки и
Этика-как-Сервис
Мульти-агентские с рефлексией
Логика И машинное обучение
Реактивное функциональное
программирование (?)
Искусственный Интеллект
проникает во все области
нашей жизни и критически
важно сделать так, чтобы он
стал нашим ответственным и
доброжелательным
партнером
© 2019 Microsoft Corporation. All rights reserved. Microsoft, Windows, and other product names are or may be registered trademarks and/or trademarks in the U.S. and/or other countries.
The information herein is for informational purposes only and represents the current view of Microsoft Corporation as of the date of this presentation. Because Microsoft must respond to changing market conditions, it should not be interpreted to be a commitment
on the part of Microsoft, and Microsoft cannot guarantee the accuracy of any information provided after the date of this presentation. MICROSOFT MAKES NO WARRANTIES, EXPRESS, IMPLIED OR STATUTORY, AS TO THE INFORMATION IN THIS PRESENTATION.

More Related Content

PPTX
Роботы в законе
PPTX
Чат боты как пробный, коммуникационный, шар ии на пути иичу
PPTX
Моделе-ориентированное право
PPTX
Вычислительное право 2020
PPSX
Sistemy iskusstvennogo intellekta
PPTX
Computational law. Вычислительное право: состояние, задачи, проблемы
PPTX
Искусственный интеллект
Роботы в законе
Чат боты как пробный, коммуникационный, шар ии на пути иичу
Моделе-ориентированное право
Вычислительное право 2020
Sistemy iskusstvennogo intellekta
Computational law. Вычислительное право: состояние, задачи, проблемы
Искусственный интеллект

Similar to Natural rights and AI 2019 (20)

PDF
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: тренды, достижения и вызовы
PDF
AI_main_approaches
PPTX
презентация холодилиной александры
PDF
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: исследования и игры, креативность и артистизм, генер...
PPT
12 колонин
PDF
clssifying images using artificial intelligence
PPTX
Введение в Искусственный Интеллект / Introduction into Artificial Intelligence
PPT
Искусственный интеллект
PPTX
Презентация-Информационная-безопасность.-Актуальные-проблемы-правового-регули...
PDF
Искусственный интеллект и управление документами: основные риски
PPTX
Искусственный Интеллект / Artificial Intelligence
PDF
Искусственный интелект
PPTX
IP.Net - инструменты взаимодействия участников рынка интеллектуальной собстве...
PPTX
Лекция 1_ РЭС_Презентация — копия.pptx
PPTX
Nevro net призыв к действию август 13
PPT
Информатика (прикладное ПО)
PPTX
П.Н. Барышников Философия It и мифы современного университета
PDF
Основные подходы к созданию ИИ
PPTX
А.Левенчук -- безлюдные (дез)организации
PPT
потапов
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: тренды, достижения и вызовы
AI_main_approaches
презентация холодилиной александры
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: исследования и игры, креативность и артистизм, генер...
12 колонин
clssifying images using artificial intelligence
Введение в Искусственный Интеллект / Introduction into Artificial Intelligence
Искусственный интеллект
Презентация-Информационная-безопасность.-Актуальные-проблемы-правового-регули...
Искусственный интеллект и управление документами: основные риски
Искусственный Интеллект / Artificial Intelligence
Искусственный интелект
IP.Net - инструменты взаимодействия участников рынка интеллектуальной собстве...
Лекция 1_ РЭС_Презентация — копия.pptx
Nevro net призыв к действию август 13
Информатика (прикладное ПО)
П.Н. Барышников Философия It и мифы современного университета
Основные подходы к созданию ИИ
А.Левенчук -- безлюдные (дез)организации
потапов
Ad

More from Vladislav Shershulsky (14)

PDF
Quantum computing rus 2020
PDF
Reinventing the school engl 2019
PDF
Microsoft transformation rus 2019
PDF
Standards in Microsoft 2012 (Russ)
PDF
Inevitability of the cloud 2015 (Russ)
PDF
Nanostructures at metal oxide and semiconductor boundaries (Engl)
PDF
Patents in enterprise 2013 (Russ)
PDF
Microsoft approach to and vision of eGov 2013 (Rus)
PDF
Accessibility in IT world 2015 (Russ)
PDF
Smart cities by Microsoft 2012 (Rus)
PDF
Microsoft in discrete manufacturing 2012 (Russ)
PDF
Digiral transformation in real estate 2015 (Russ)
PDF
Digital transformation in retail 2015 (Russ)
PDF
Digital transformation with emphases on insurance 2016 (Russ)
Quantum computing rus 2020
Reinventing the school engl 2019
Microsoft transformation rus 2019
Standards in Microsoft 2012 (Russ)
Inevitability of the cloud 2015 (Russ)
Nanostructures at metal oxide and semiconductor boundaries (Engl)
Patents in enterprise 2013 (Russ)
Microsoft approach to and vision of eGov 2013 (Rus)
Accessibility in IT world 2015 (Russ)
Smart cities by Microsoft 2012 (Rus)
Microsoft in discrete manufacturing 2012 (Russ)
Digiral transformation in real estate 2015 (Russ)
Digital transformation in retail 2015 (Russ)
Digital transformation with emphases on insurance 2016 (Russ)
Ad

Natural rights and AI 2019

  • 2. Эпоха машин Машина для сравнения идей Корсакова, 1832Аналитическая машина Бэббиджа, 1833
  • 3. Облачная инфраструктура Внешние данные из публичного облака «Тюнинг» модели дополнительное обучение конкретного экземпляра сервиса Граничные «эдж» устройства где предобученное подмножество ИИ-сервиса работает непосредственно на месте его применения (опционально) Когнитивные сервисы из публичного облака, обученные на миллиардах примеров Облачный «эплаенс» локальный фрагмент глобального облака, инсталлированный у клиента или партнера Сенсоры и актуаторы реализующие сервис (если имеются) Анатомия интеллектуального сервиса
  • 6. Новая технологическая политика Ответственный ИИ Общественность Ученые Разработчики Бизнес-потребители Государство Международные организации
  • 8. Без данных нет искусственного интеллекта Кто распоряжается данными? Государство определяет, какие и где можно хранить и обрабатывать перс.данные и стремится стать их основным оператором Субъект считается собственником своих ПД и имеет полное право распоряжаться их распространением, хранением и обработкой» Оператор имеет право хранить и должным образом использовать ПД, полученные на законных основаниях
  • 9. Можно ли говорить о морали и законопослушании ИИ Этика в исторической перспективе
  • 10. Информационная этика Лучано Флориди Субъект Объект Воздействие Контекст Инфосфера • Неантропоцентрическая агенты – любые информационные сущности (люди, организации, животные, природные объекты, роботы, программы, наборы данных и пр.) • Страдательная сфокусированная на объекте воздействия • Минимальные естественные права право на существование, право на развитие
  • 11. Законы для информационных объектов Айзек Азимов Лучано Флориди 0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред. 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. 2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам. 0. Энтропия не должна порождаться в инфосфере (действие безусловно приемлемо, только если не порождает энтропию) 1. Нужно стремиться к минимизации производства энтропии в инфосфере (из возможных действий следует предпочесть производящее минимум энтропии – принцип минимума производства энтропии) 2. Нужно уменьшать энтропию в инфосфере (этично предпринимать действия с целью уменьшения энтропии) 3. Нужно заботиться о состоянии инфорсферы, путем ее расширения, совершенствования и обогащения
  • 12. Правовой статус ИИ: дее- и право- способность « ЗА » « ПРОТИВ » • Позволяет компьютерам перейти от режима работы «по нашим инструкциям» к режиму «в наших интересах» • Упрощает включение искусственных агентов в социальные отношения, в т.ч. путем распространения на них существующего законодательства • Легитимизует естественное стремление людей к персонализации инструментов • Защищает гармоничное развитие инноваций от спорадического запретительного регулирования (??) • «Мы должны дать им права, чтобы сохранить наши моральные ценности» – Кейт Дарлинг https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2044797 • Корпоративные и искусственные агенты могут использоваться для избежания последствий • Расширение прав искусственных агентов может повлечь ограничение прав людей • В римском праве уже был автономный транспорт • Чрезмерное регулирование может затормозить инновации (??) • Наделение искусственных агентов может ограничить возможности корпораций и государства использовать ИИ в своих целях (??)
  • 13. Условия дее- и право- способности ИИ Агенты – кандидаты в личности • Возможность взаимодействовать с окружающей средой • Рефлексия и социализация • Автономность и свобода воли • Индивидуальность • … ?
  • 14. Философско-юридическо-математический словарик • Агент – автономная сущность, в определенной мере обособленная от окружающей его среды, воспринимающая ее с помощью сенсоров и воздействующая на нее посредством актуаторов • Рефлексия – рекурсия • Свобода воли – вырождение (неоднозначность) решения уравнений, описывающего поведение агента • Индивидуальность – сложность (бифуркации, хаос, физические ограничения клонирования) Информационный агент как канал связи
  • 15. ? ? ? Три подхода к правовому статусу ИИ Кого (что) можно считать электронной личностью (лицом)? Того (то), кто (что) сможет доказать это в суде Того (то), кто (что) удовлетворяет определенному законом перечню свойств Того (то), кто (что) зарегистрирован в официальном реестре
  • 16. ? ? ? Три подхода к правовому статусу ИИ Кого (что) можно считать электронной личностью (лицом)? Того (то), кто (что) сможет доказать это в суде Того (то), кто (что) удовлетворяет определенному законом перечню свойств Того (то), кто (что) зарегистрирован в официальном реестре
  • 17. Национальные ИИ-стратегии Еще, в основном, не законодательное регулирование Россия Германия Мексика Индия Швеция Южная Корея США Австрия Великобритания ЕС Тунис Франция Италия Дания Тайвань Кения Финляндия ОАЭ КНР Сингапур Япония Канада 2019 2018 2017 См. https://medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd Вероятно, первое законодательное определение ИИ было дано в п.2 статьи 2 Базового закона Японии от 14.12.2016 № 103 «Об улучшении использования данных публичного и частного секторов»
  • 18. Partnership on AI: 90+ членов, 13 стран
  • 20. Корпоративные комитеты по контролю за ИИ Microsoft AETHER (AI and ethics in engineering and research) и все, все, все…
  • 21. Принципы интерфейса человек-ИИ Подготовка 1 Четко объявляйте, что система может делать 2 Объективно сообщайте, насколько хорошо она может это делать В процессе взаимодействия 3 Учитывайте цель, сценарий и контекст пользователя 4 Отображайте контекстно релевантный контент 5 Соблюдайте уместные социальные нормы 6 Исключайте социальные предубеждения/предрассудки Если что-то пошло не так 7 Обеспечьте удобство запуска/вызова сервиса 8 Обеспечьте возможность останова, игнорирования, отмены сервиса 9 Сохраните возможность корректировки работы сервиса, избегайте необратимости 10 Уточняйте задачу, когда намерения пользователя не ясны 11 Объясняйте действия системы В развитии 12 Уважайте приватность пользователя, защищайте его перс.данные 13 Пусть сервис обучается на примерах поведения пользователей с их согласия 14 Интерфейс сервиса должен меняться с ростом опыта, а изменения поясняться 15 Собирайте и используйте подробную обратную реакцию и отзывы 16 Разъясняйте, как действия пользователя влияют на будущее поведение системы 17 Предоставьте пользователям простой механизм настройки 18 Информируйте пользователя о всех существенных изменениях
  • 22. Корпоративные комитеты по контролю за ИИ Microsoft AETHER (AI and ethics in engineering and research) и все, все, все… AETHEROffice of responsible AI Внешние эксперты Заказчики Президент Исследования, разработки, маркетинг, инфраструктура
  • 23. Эволюция требований к информационным системам Функциональные 1950+ Надежные 1990+ Защищенные 2000+ Моральные и законопослушные 2020+
  • 24. Как формализовать ответственное поведение? Пользовательский интерфейс из сериала «The Westworld»
  • 25. Три подхода к разработке ответственного ИИ Обучение на примерах Правила для следования Функция для оптимизации
  • 26. Модальная логика Георг фон Вригт ~ (не), →(влечет) ∧ (или), ∨ (и) ∀ (для всех) ∃ (существует) O(ОБЯЗАТЕЛЬНО) P (ДОПУСТРИМО) F (ЗАПРЕЩЕНО) G (ХОРОШО) N (НЕЙТРАЛЬНО) B (ПЛОХО) Классическая логика предикатов Деонтическая логика Аксиологическая логика
  • 27. Моральная грамматика ? ЛГ Ввод Грамматически корректно Грамматически некорректно Лингвистическая грамматика (ЛГ) ? МГ Ввод Этически допустимо Этически недопустимо Моральная грамматика (МГ) Mikhail, John, Universal Moral Grammar: Theory, Evidence, and the Future. Trends in Cognitive Sciences, April 2007; Georgetown Public Law Research Paper No. 954398. Available at SSRN: https://ssrn.com/abstract=954398 Джон Михал
  • 28. Моральная грамматика Mikhail, John, Universal Moral Grammar: Theory, Evidence, and the Future. Trends in Cognitive Sciences, April 2007; Georgetown Public Law Research Paper No. 954398. Available at SSRN: https://ssrn.com/abstract=954398
  • 29. Рефлексивная теория игр («Алгебра совести») Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с. Эта теория предлагает вариант формального описания цепочки обстоятельства → намерения → готовность, внутреннего представления субъектом модели мира (акторов взаимодействия), свободы выбора, этического статуса и пр. Среди результатов: • Интерпретация рефлексии и свободы выбора • Наличие двух этических систем • Удобное формальное описание конфликтных ситуаций • Классификация «психотипов» по этическому статусу
  • 30. Рефлексивная теория игр Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
  • 31. Рефлексивная теория игр Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с.
  • 32. Рефлексивная теория игр Графы отношений рефлексивной теории игр также имеют грамматическую структуру Владимир Лефевр. Лекции по теории рефлексивных игр. – М.: Когито-Центр, 2009. – 218 с.
  • 33. Классификация акторов конфликта в «Алгебре совести» Владимир Лефевр. Алгебра совести / Пер. с англ. — М.: Когито-Центр, 2003. — 411 с. Праведник
  • 34. «Моральная машина» MIT и обучение на примерах Трудно собрать большую базу примеров поведения в ситуации морального выбора, но Яду Равану (Iyad Rahwan) и коллегам удалось: 40М+ заполненных опросников из 233 стран http://moralmachine.mit.edu/ Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
  • 35. «Моральная машина» MIT и обучение на примерах 59% опрошенных предпочтут купить машину, которая всегда защищает жизнь водителя (Science via The Washington Post) Edmond Awad at all. The moral machine experiment. – Nature, 2018, 563, 59–64
  • 36. Обучение морали с подкреплением Агент Среда реальная или виртуальная
  • 37. Эволюция законов инфосферы Айзек Азимов 1942 Лучано Флориди 1999 0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред. 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. 2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам. 0. Энтропия не должна порождаться в инфосфере (действие безусловно приемлемо, только если не порождает энтропию). 1. Нужно стремиться к минимизации производства энтропии в инфосфере (из возможных действий следует предпочесть производящее минимум энтропии). 2. Нужно уменьшать энтропию в инфосфере (этично предпринимать действия с целью уменьшения энтропии). 3. Нужно заботиться о состоянии инфорсферы, путем ее расширения, совершенствования и развития.
  • 38. Принцип расширения свободы выбора “Этический императив: всегда поступайте так, чтобы увеличить число вариантов выбора” Хейнц фон Фёрстер, 1995 Klyubin, A., Polani, D., and Nehaniv, C.. “Empowerment: a universal agent-centric measure of control” in The 2005 IEEE Congress on Evolutionary Computation, Vol. 1 (Edinburgh: IEEE), 128–135. Klyubin, A.S., Polani, D. and Nehaniv, C.L.. “All else being equal be empowered” In European Conference on Artificial Life, 2005, September. Springer, Berlin, Heidelberg, pp. 744–753 Пусть информационный агент выбирает такие действия (своих актуаторов), чтобы на следующем шаге (или через заданное число n шагов) у него был выбор из наибольшего числа различающихся альтернатив, т.е., чтобы его сенсоры могли воспринять максимум разных вариантов ситуации. Иными словами, увеличивайте пропускную способность информационного канала агента от актуаторов к сенсорам. Александр Клюбин
  • 39. Как вычисляется «эмпауэрмент» Klyubin, A.S., Polani, D. and Nehaniv, C.L.. “All else being equal be empowered” In European Conference on Artificial Life, 2005, September. Springer, Berlin, Heidelberg, pp. 744–753 Актуаторы Состояние актора Сенсоры Точка расчета эмпауэрмента
  • 40. Расширение возможностей в статистической теории информации – мера в битах числа вариантов выбора – свобода (empowerment) – максимум пропускной способности канала на n шагах – состояния актуаторов на последних n шагах { t, t + 1, … t + n } – состояние сенсоров на последнем шаге ( t + n ) – вероятность получения сигнала 𝑠𝑡+𝑛 сенсорами при условии воздействий 𝑎 𝑡 𝑛 на предыдущих n шагах n
  • 41. Принцип расширения возможностей Salge C., Polani D. “Empowerment As Replacement for the Three Laws of Robotics” in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p.
  • 42. Принцип расширения возможностей Salge C., Polani D. “Empowerment As Replacement for the Three Laws of Robotics” in Frontiers in Robotics and AI, 2017; 4, article 25, 16 p. Во многих случаях искусственный агент, не допускающий никакого ущерба для человека, действует менее эффективно и может быстрее выйти из строя, чем агент, допускающий небольшой ущерб человеку. В интересах человека дать ему большую свободу, чем допускали законы Азимова.
  • 43. Свобода (воли) и ответственность Tufts Human-Robot Interaction Lab Знаю ли я как выполнить X Способен ли я технически выполнить X Могу ли я выполнить X прямо сейчас Ожидают ли окружающие от меня выполнения X Не нарушу ли я законы и инструкции выполняя X Соответствует ли выполнение X моральным принципам
  • 44. Этические компоненты ИТ решений Сегодня Специализированные приложения Встроенные ad hoc Моно- и мульти-агентские Логика ИЛИ машинное обучение Различные парадигмы программирования Завтра Общие этические системы Стандартные библиотеки и Этика-как-Сервис Мульти-агентские с рефлексией Логика И машинное обучение Реактивное функциональное программирование (?)
  • 45. Искусственный Интеллект проникает во все области нашей жизни и критически важно сделать так, чтобы он стал нашим ответственным и доброжелательным партнером
  • 46. © 2019 Microsoft Corporation. All rights reserved. Microsoft, Windows, and other product names are or may be registered trademarks and/or trademarks in the U.S. and/or other countries. The information herein is for informational purposes only and represents the current view of Microsoft Corporation as of the date of this presentation. Because Microsoft must respond to changing market conditions, it should not be interpreted to be a commitment on the part of Microsoft, and Microsoft cannot guarantee the accuracy of any information provided after the date of this presentation. MICROSOFT MAKES NO WARRANTIES, EXPRESS, IMPLIED OR STATUTORY, AS TO THE INFORMATION IN THIS PRESENTATION.