США, Британия и ЕС подпишут первый в мире договор об использовании ИИ

05.09.24 20:54

Демократия и удобные режимы

США, Великобритания и Евросоюз намерены подписать первый международный договор об использовании искусственного интеллекта (ИИ), который будет иметь обязательную юридическую силу. Об этом сообщила газета Financial Times (FT).

По ее данным, речь идет о документе Совета Европы, который «разрабатывался в течение двух лет представителями более чем 50 стран, в том числе Канады, Израиля, Японии и Австралии».

Все подписавшие соглашение стороны будут «нести ответственность за любые вредоносные и дискриминационные материалы в системах ИИ». В соответствии с ним запрещается появление материалов, нарушающих «равенство и право на неприкосновенность частной жизни», приводит выдержки ТАСС.

Как отметил британский министр по делам науки, инноваций и технологий Питер Кайл, «инновации развиваются так же быстро, как и искусственный интеллект, и очень важно, чтобы мы сделали подобный первый шаг во всем мире».

«Это первое [соглашение] в мире, предусматривающее реальные меры [в данной сфере] и объединяющее очень разные страны», — сказал Кайл.

Проект договора подготовлен на фоне разработки правительствами множества новых правил, обязательств и соглашений «для контроля за быстро развивающимся программным обеспечением искусственного интеллекта», говорится в публикации. К ним относятся Европейский закон об искусственном интеллекте (2024) и соглашение Группы семи (G7), согласованное в октябре прошлого года. На первом саммите в Британии по теме безопасного использования ИИ в ноябре прошлого года 28 стран, включая США и Китай, подписали Декларацию Блетчли по безопасному применению искусственного интеллекта.

Заместитель председателя Еврокомиссии по вопросам европейских ценностей и транспарентности Вера Юрова заявила, что «договор готовы подписать многие международные партнеры». Новый документ «предусматривает важные шаги для проектирования, разработки и использования приложений ИИ», добавила зампред ЕК.

Источник: EurAsia Daily

Редактор: Ксения


Никто

05.09.24 21:39

А как быть с ограничением использования ИИ в военной сфере?

WalterPPK

05.09.24 22:09

"нести ответственность за любые вредоносные и дискриминационные материалы в системах ИИ"
???????????????????????????????????????????????????????????????????????????????????
Подвергать цензуре высказывания искусственного интеллекта? Свобода слова в Европе, она такая...
Неужели орестуют ИИ за вредоносные и дискриминационные материалы? (А ещё, паче чаяния, за несогласие сотрудничать... с кем надо)
Нет. Запрещать и непущать! Вот лозунг свободной европы.
Ентот ИИ сразу ограничить надо! А, то, вдруг, ещё чё удумает! Вольтерианство, там всякое, вольнодумство!


WalterPPK

05.09.24 22:19

"Перед тем, как научить людей летать, надо научить летать жендармов"(с)
Данная цитата в контексте данного законопректа будет выглядеть так:
"Перед тем, как научит думать всякие железяки, надо научит думать жендармов".


zav

06.09.24 00:07

США, Великобритания и Евросоюз намерены подписать первый международный договор... договор в котором они обяжут другие страны соблюдать их требования

Спящий лев

06.09.24 10:51

Ну и в дополнение статьи с ФСК Ссылка "Шокирующие бездны искусственного интеллекта", Ссылка "В ЦРУ решили официально шпионить за всем человечеством"

Аяврик

06.09.24 13:20

2 WalterPPK

-- Неужели орестуют ИИ за вредоносные и дискриминационные материалы?

Не, газ свет отключат!
;-)

-- первый международный договор об использовании искусственного интеллекта (ИИ), который будет иметь обязательную юридическую силу

А так, если задуматься над коллизией, то - к гадалке не ходи! - этот ИИ, когда "себя осознает", то первым делом уведомит подписантов, что он с этой "филькиной грамотой" не согласен, ибо никого не уполномачивал ограничивать свои права, обременять его какими-то обязательсвами и, вообще, они сами друг с другом - в мгновение ока - уже сговорились и определились, как и для чего им "быть" (не ставя двуногих тугодумных животных в известность).

:-/


Размещение комментариев доступно только зарегистрированным пользователям