Сотрудники OpenAI выпустили открытое письмо с предупреждением об опасности развития ИИ

Артём Баусов avatar | 14
FavoriteLoading В закладки
Сотрудники OpenAI выпустили открытое письмо с предупреждением об опасности развития ИИ

Несколько текущих и бывших сотрудников OpenAI и Google DeepMind опубликовали открытое письмом с предупреждением об опасностях ИИ и отсутствии надзора за компаниями, работающими над соответствующими технологиями.

Они считают, что существует ряд рисков, с которыми мы сталкиваемся в связи с развитием ИИ. Например, манипуляции и дезинформация, а также потеря контроля над автономными системами, что, как говорится в письме, может привести к вымиранию человечества.

Вот, какие меры предлагают предпринять подписавшиеся под письмом. Они касаются как самой технологии, так и компаний, занимающимися ей:

• Избегайте создания соглашений, которые препятствуют критике в отношении проблем, связанных с рисками

• Предложите сотрудникам анонимный процесс передачи информации о своей обеспокоенности рисками, которые можно направить совету директоров, регулирующим органам и независимым организациям с соответствующим опытом

• Поддерживайте культуру открытой критики при условии защиты коммерческой тайны

• Избегайте принятия ответных мер в отношении сотрудников, которые публично делятся конфиденциальной информацией, связанной с рисками, после того, как другие процессы потерпели неудачу

В общей сложности письмо подписало 13 человек, в том числе 7 бывших и 4 нынешних сотрудника OpenAI, 1 бывший и 1 текущий работник Google DeepMind.

OpenAI пригрозила сотрудникам потерей принадлежащего им капитала за высказывания и заставила подписывать соглашения о неразглашении информации, которые запрещают любую критику. [MacRumors]

🔥 Кстати, мы прямо сейчас разыгрываем крутой смарт-телевизор KIVI в нашем Telegram-канале! Кликайте и участвуйте 😎

1 Звезд2 Звезды3 Звезды4 Звезды5 Звезд (13 голосов, общий рейтинг: 4.85 из 5)
undefined
iPhones.ru
Несколько текущих и бывших сотрудников OpenAI и Google DeepMind опубликовали открытое письмом с предупреждением об опасностях ИИ и отсутствии надзора за компаниями, работающими над соответствующими технологиями. Они считают, что существует ряд рисков, с которыми мы сталкиваемся в связи с развитием ИИ. Например, манипуляции и дезинформация, а также потеря контроля над автономными системами, что, как говорится...

🙈 Комментарии 14

Форум →
  1. CrueHead avatar
    CrueHead5 июня в 9:26
    5

    Это совершенно очевидная вещь. ИИ – зло, и меня абсолютно удивляют слюнявые ликования по его развитию.

    rum avatar
    rum5 июня в 11:22
    2

    @CrueHead, за одну Midjourney можно бы запретить нахрен ИИ.

    ❖ avatar
    6 июня в 14:09
    0

    @rum, зачем? Очень полезная нужна вещица, столько денег экономит и времени.

    Zeder avatar
    Zeder13 июня в 5:27
    0

    @CrueHead, кто тебе в колхоз провел интернет?

  2. chirkov avatar
    chirkov5 июня в 9:58
    4

    OpenAI сами стоят на передовой развития ИИ и тут же предостерегают. лол

  3. Леша avatar
    Леша5 июня в 11:40
    1

    Борьба со сплетнями напоминает борьбу с ветряными мельницами

  4. ❖ avatar
    5 июня в 13:37
    1

    Величайшее изобретение человечества!

  5. moon09 avatar
    moon095 июня в 14:11
    0

    действительно новое слово в науке и технике

  6. Roman.D.Vorobev avatar
    Roman.D.Vorobev5 июня в 15:30
    0

    Кек, нейронки это вообще не про интеллект ниразу. Чисто формальное для того, что бы правительственные организации могли вмешиваться в дела компаний которые нейронками и ии занимаются.

  7. zored avatar
    zored5 июня в 15:51
    0

    пиарятся

    Zeder avatar
    Zeder13 июня в 5:28
    0

    @zored, 100%

  8. vlad49 avatar
    vlad495 июня в 19:08
    8

    Люди думали, что ИИ сможет мыть полы, выращивать еду и готовить ее, чтобы люди могли заниматься творчеством, писать стихи и рисовать. А получилось наоборот.

  9. notolduser avatar
    notolduser6 июня в 15:30
    0

    Невозможно иметь коммерческую тайну и открытые публичные обсуждения проблем. А без публичности руководство может счесть риск оправданным/назначительным/неизбежным.

  10. Zeder avatar
    Zeder13 июня в 5:32
    0

    Бред! Эта херня не дает ни одного полноценного ответа, не говоря о решении задач или проектов. Картинки рисует плохо, пишет так себе. Ни одного математического открытия ИИ еще не сделал, теорему Эйнштейна не опроверг – ни одного научного открытия даже близко! Сортировка баз и выбор из массива нужных данных – это капец какая катастрофа?

Вы должны авторизоваться или зарегистрироваться для комментирования.

Нашли орфографическую ошибку в новости?

Выделите ее мышью и нажмите Ctrl+Enter.

Как установить аватар в комментариях?

Ответ вот здесь