Пока менеджер Илон Маск паникует и пытается создать комитеты слежения за искусственным интеллектом во имя спасения человечества, профессиональные инженеры из IEEE заставили всех соблюдать законы робототехники. Хочешь проектировать ИИ? Только если обеспечишь безопасность.
Причем тут Илон Маск и Марк Цукерберг?
Еще 15 июля Илон Маск призвал американских губернаторов создать организацию для слежки за системами искусственного интеллекта. Мотив простой — по мнению Маска, рано или поздно они уничтожат человечество. Но мы еще этого не замечаем:
Илон Маск:
Пока люди не видят роботов, убивающих людей на улицах, они не знают, как реагировать, потому что такой сценарий кажется им нереалистичным.
Парадоксальное выступление от человека на острии науки, правда? Его высмеял даже Цукерберг. Невольно задумываешься — он вообще понимает, о чем говорит? Действительно ли он в состоянии проектировать будущее? Или, может быть, за этим предложением прячется желание законодательно одобренного шпионажа для получения новейших разработок?
Спи сладко, Илон. Спи сладко, читатель. За тебя уже все сделали в IEEE. ИИ больше не навредит.
Кто такие IEEE?
IEEE — Институт инженеров электротехники и электроники, международная некоммерческая организация-разработчик стандартов по радиоэлектронике, электротехнике и аппаратному обеспечению вычислительных систем и сетей.
Фактически, организация обобщает и приводит к общему знаменателю разрозненные разработки, превращая их в единую систему: как для справки, так и для развития. С помощью этих стандартов разные разработчики получают возможность проектирования совместимых с чужими систем. Среди самых известных стандартов IEEE:
- IEEE 1294 — USB,
- IEEE 1394 — FireWire (i-Link),
- IEEE 802 — семейство сетевых протоколов.
Последний знаком даже простым пользователям — вспомните, как называется версия Wi-Fi?
Как IEEE планирует регулировать ИИ
IEEE выпустила три новых стандарта, регулирующие этические вопросы работы систем искусственного интеллекта при обработке данных и взаимодействии с окружающим.
Документы относятся к разряду обязательных стандартов сообщества и были разработаны в рамках стандартизации работ по изучению этических аспектов ИИ и самоуправляемых автомобилей.
Содержимое стандартов объемно и содержит преимущественно информацию для разработчиков. В основе текстов — постановка этических проблем при обработке данных искусственным интеллектом и способы их решения.
В результате IEEE предложила готовую матрицу для программирования систем с учетом интересов и моральных норм человечества.
Что описывают стандарты IEEE о искусственном интеллекте?
Один из стандартов, IEEE P7004, описывает правила сертификации и контроля тех организаций и систем, которые обрабатывают данные о детях и студентах. IEEE P7005 регулирует работу с данными о наемных работниках.
При его соблюдении ИИ и организации, работающие с данными, обязаны действовать, основываясь на безопасности и благополучии — даже с теми, что находятся в свободном доступе. Так же IEEE описала обязательные нормы, которым должны соответствовать доступ, сбор, хранение, использование, совместное использование и уничтожение данных о детях и учащихся.
Третий стандарт IEEE P7006 описывает для создание и контроль работы персонализированных ИИ-агентов — посредников в принятиях решений между несколькими компьютерами или системами. Методология разработки и технические элементы, заложенные в стандарте, должны исключить любые проблемы в работе интеллектуального аппарата.
Роботы не убьют человеков. IEEE всех спасли
Самое интересное кроется в стандарте IEEE P7006. Он не просто описывает способы сертификации и задает законы робототехники — он процедуру, принцип работы искусственного интеллекта, связывающего человека и машину:
- как должен работать ИИ-агент;
- как должен предоставляться доступ к нему;
- как должна вводиться информация;
- как должно проходить обучение ИИ;
- какие нормы этические нормы, правила и ценности должен заложить разработчик.
Первая версия стандарта если не введет 3 закона робототехники в обязательные для исполнения правила, то хотя бы минимизирует возможный вред. По мере развития технологий P70006 станет единым правилом, которое обеспечит защиту личности и безопасность всего человечества.
А если я не хочу соблюдать стандарт?
Стандарты IEEE как правило принимаются всем сообществом, и через некоторое время либо становятся универсальным документом для всех использующих технологию, либо превращаются в документ другой организации — при сохранении функций.
Соблюдение стандартов IEEE необходимо не только для получения бумаг от официальных структур. Многие принципы, заложенные в них, обеспечивают совместимость систем различных разработчиков. Кроме того, они работают в качестве сертификата соответствия, говоря о надежности продукта.
Правила просты:
Не хочешь соблюдать — выйди из системы и живи без сертификата, проектируй для себя и не публикуйся. Хочешь, чтобы тебе доверяли и приобретали продукт — соответствуй!
33 комментариев
Форум →Излишняя самоуверенность не есть хорошо. И чтобы однажды не проснуться в известном фильме, только это будет реальность, надо с этим сейчас что-то делать.
@DarkGothicLady, IEEE уже занялось. Стандартизация методологий разработки, описание проблемных ситуаций и их возможное разрешение – необходимы.
Человечество погубят статьи Баусова и Сида
@andyfinch, люто плюсую:).
По теме : как математически можно описать “этические нормы и стандарты “?:).
Это субъективные понятия, не подлежащие однозначному толкованию,всегда есть допуск или иное понимание,а значит-уде заложена ошибка.
Мы все умрем,машины форева.
@battllerr, не так просто, как кажется. Но и не так сложно. У вас же есть базовые понятия: нельзя убивать, нельзя красть, нельзя сжигать чужую собственность. Это примитивные выражения, легко программируемые.
Стандарты IEEE в первую очередь оговаривают – с чем нельзя оперировать машине, что она не должна отдавать в общий доступ, как строить ее общение с пользователем. Это не законы – это методология разработки. Что и когда нужно учесть, чтобы машина работала правильно. И что нужно в нее заложить, чтобы при отклонении произошла коррекция или остановка системы. Допуск всегда возможен – так же как у человека. Поверьте, запрограммировать можно все – но IEEE пытается решить более общую и важную задачу.
@Николай Маслов, а сжигать чужую собственность, чтобы спасти жизнь человеку? А если этот человек убийца? Можно ли убивать человека, чтобы спасть двух? А если этот человек ребёнок? А можно ли убить взрослого, чтобы спасти ребёнка? Можно ли красть у вора? Для себя? Для того, чтобы вернуть награбленное?
Все эти базовые понятия на самом деле очень многогранные и мозг наш незаметно проделывает огромную работу при выборе вариантов. А вот запрограммировать это будет ой как непросто.
@galan, решить вопросы морали и этики, а так же оцифровать их, человечеству еще только предстоит. На мой взгляд, основная проблема заключается в том, что мы, будучи индивидами, пытаемся создать другой индивидуум, забывая, что в процессе создания закладываем в него черты собственной индивидуальности. Поясню: я считаю, что можно убить одного для спасения двух, вы считаете, что нельзя. Обе точки зрения достаточно объективны и имеют равные права на существование. Вопрос: ИИ как будет считать? Ответ: смотря кто будет ИИ создавать – вы или я.
@battllerr, описать можно достаточно легко, если вы знакомы с нечеткой логикой и нечеткой математикой.
Прочел спросоня заголовок – думал показалось! Словно попал в фильм “Я Робот”..
Знаем мы ваши законы робототехники..
@nightloner, у самого Азимова законы робототехники строго выполняются во всех случаях. ;)
И будут эти законы работать, пока роботы не придумают сами себе 0 закон, где можно убить человека, ради сохранения человечества
Наивно думать, что люди смогут контролировать будущие воплощения ИИ при помощи таких ограничений. Это все равно, что мухи бы придумывали правила для людей.
Человечество в нынешнем виде доживает последние века, но что прийдет на смену ему – предугадать невозможно.
@Arden, если человек способен контролировать миллионы себе подобных – почему он не может сделать это с замкнутым в собственной экосистемы алгоритмом?
@Николай Маслов, потому, что замкнутая система алгоритма может быть на порядки больше замкнутой системы человека.
Никто не будет создавать ИИ, возможности которого не превосходят человеческие.
@Николай Маслов, потому что как бы экосистема хомо сапиенсов сама не оказалась частью экосистемы чего-то большего, что эти хомо сапиенсы и создали.
Автор не знаком с принципами машинного обучения и теорией искусственного интеллекта от слова “совсем”
@ivolandi, как в воздух. В чем претензия? Вы считаете, что в методах машинного обучения запрещены методы задания граничных условий на ранних этапах обучения? Кто будет выпускать в свет необученный алгоритм – во всяком случае, после необходимости его сертификации и подтверждения соответствия работы алгоритмов общедозволенным?
@Николай Маслов, теперь предметно к посту об АI. О тесте Тьюринга, прохождение которого ожидается ближайшие года (менее 5):
«Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»
—
Т.е. задача компьютера повторить интеллект человека. Это значит прохождение серии вопросов которые будут направлены на соответствие абсолютно ЛЮБЫМ стандартам. Например просьба совершить действие противоречащее стандарту с целью выявления программы. Другими словами, задача компьютера превзойти не только вычислительные возможности мозга человека, но и сформировать систему нравственности не отличную от человеческой, в которой такие вещи как убийство или вред кому-либо ради более важной цели более чем оправданное средство.
@Николай Маслов, и не затрагиваю даже такие темы как использование МО в военных целях. Почитайте статьи где описано, что гугл сразу на примере дума, а сейчас в 3хмерном пространстве оптимизирует нейронную сеть задача которой захыватывать (в случае с думом) стрелять по движущимся в пространстве объекта. Уже сегодня любой поехавший крышей датасайнтист может взять в открытом доступе алгоритм, прикрутить его к дрону с пулеметом и запустить в небо “на вольные хлеба”. И тут даже близко не идет речи не о каком АI.
На месте Цукерберга я бы не очень выступал. У них уже началось:
https://www.popmech.ru/technologies/news-370982-chat-boty-facebook-izobreli-svoy-sobstvennyy-yazyk/
@kostik, ну и что? Это не ведет к негативным последствиям крупных масштабов. Пока. Зато дает понятие – что может быть потом. Отличный эксперимент.
Какой вообще ИИ, если можно только складывать и вычитать единички и нолики. Да даже рандомное число выбрать программа выбрать не в состоянии.
@Carib, у людей десятичная система и не больше 100 букв в алфавите. Этого оказалось достаточно, чтобы кардинально изменить жизнь на Земле и уничтожить множество других видов.
@Arden, причем тут это, я говорю о том как софтом описать хоть что-то похожее на человека, а не только если А, то Б
@Carib, так же, как человека. Мозг устроен на многосвяхных, но классических связях, описываемых стандартными алгоритмами
@Carib, ваш мозг работает по тем же принципам, что и транзистор. То есть, компьютер + алгоритмы машинного обучения и соответствующее ПО = невероятно упрощенный мозг. Не думайте, что моделирование человеческого мозга невозможно.
@Николай Маслов, нет, давайте код чтобы просто выбрать число (от 1 до 10 хотя бы) абсолютно рандомно, как это может сделать человек. Сам я давно уже жду восстание машин, правда. Но пока не подключат мозг человека к машине, видимо этого не будет.
@Carib, вы уверены, что человек способен делать что-либо совершенно произвольно? Не преувеличивайте человеческих способностей – все, что он делает, строится на связях, подобных транзиторным. Но с большим числом свобод. Однако, это не говорит о принципиальном отличии человеческой логики от компьютерной. Любое решение неосознанно несет штамп опыта, образования, стиля мышления и личных предпочтений. Поэтому кто-то в 8 случаях из 10 назовет случайное число 5, а кто-то – 7. И вероятность чисел 2, 4,6,8 значительно ниже 3,5,7,9.
@Carib, а с чего Вы взяли что мозг человека способен генерить рандомное число?
Если Вы не понимаете алгоритма и параметров исходя из которых человек сгенерировал “рандомное число”, то это абсолютно не значит, что число рандомное.
Я почти уверен, что уже сегодня можно настроить алгоритм, который будет с очень высокой вероятностью предсказывать рандомное число, которое попросят назвать человека опираясь на входных параметрах самого человека
@Carib, мешно )
Переведу “да о каком интеллекте может идти речь, если человек своим мозгом только что и может, так это гонять прерывные электромагнитные импульсы
Если вы думаете , что Межгосударственный авиационный комитет спасает нас от аварий самолетов то это не так.
Так и IEEE не гарантирует ни чего. Это какая то чушь в чистом виде.
@voice, поскольку я работаю в авиационной промышленности, могу вас верить – да, МАК спасает нас от многих проблем при перелетах. Благодаря установленные общепринятым стандартам все работает так, как должно – и не выходит за рамки разумного. Так же, исходя из опыта работы, могу вас верить – без мак и сертификации катастроф было бы на порядки больше – даже исключительно из-за механических и приборных проблем
@Николай Маслов, ну может пример не самый удачный, но поймите основное, что сама суть ИИ заключается в том, что он должен превзойти способности человеческого мозга включая такие как нравственность.
Одной из аксиом является принцип самосохранения, т.е. развитый в достаточной степени алгоритм направленный на достижение максимизации абсолютно любой функции, главнейшим критерием достижения результата будет считать необходимость собственного развития и сохранения. Исходя из этого следует, что любой искуственно заданный стандарт в определенных условиях может противоречить первоначально заданной цели. Ну а если даже это ограничение будет заложено на базовом уровне (хотя я не представляю как), то вынудит контролирующую сторону (комитет или контролирующий орган) путем шантажа или обмана ограничение снять. Помните, что для ИИ важность имеет только одно – максимизация целевой функции, остальное воспринимается как барьеры и ограничения, которые нужно обойти.
Нашли орфографическую ошибку в новости?
Выделите ее мышью и нажмите Ctrl+Enter.Как в macOS узнать лимит свободного места в Почте
Как в Safari на iPhone включить автозаполнение паролей на неподдерживаемых сайтах
Как в iOS 16 увеличить время ожидания голосовых команд для Siri
Почему на iPhone не отправляются СМС и сообщения iMessage
Почему в iPhone 5 не работает LTE у оператора Мегафон?
Как автоматически ставить точку и заглавную букву в OS X и macOS?
Как на любом Mac настроить переключение языка одной кнопкой
Как на iPhone убрать виджет плеера на экране блокировки при подключении гарнитуры