13.3 C
Брюссель
Субота, квітні 27, 2024
Вибір редактораРизики штучного інтелекту для конфіденційності вимагають термінових заходів – Бачелет

Ризики штучного інтелекту для конфіденційності вимагають термінових заходів – Бачелет

ВІДМОВА ВІД ВІДПОВІДАЛЬНОСТІ: інформація та думки, відтворені в статтях, належать тим, хто їх висловлює, і це їхня особиста відповідальність. Публікація в The European Times означає не автоматичне схвалення погляду, а право його висловлення.

ВІДМОВА ВІД ВІДПОВІДАЛЬНОСТІ ПЕРЕКЛАДИ: Усі статті на цьому сайті опубліковано англійською мовою. Перекладені версії виконуються за допомогою автоматизованого процесу, відомого як нейронні переклади. Якщо ви сумніваєтеся, завжди посилайтеся на оригінальну статтю. Спасибі за розуміння.

Служба новин
Служба новинhttps://europeantimes.news
The European Times Новини мають на меті висвітлювати новини, які важливі для підвищення обізнаності громадян у всій географічній Європі.

ЖЕНЕВА (15 вересня 2021 року) – Верховний комісар ООН з прав людини Мішель Бачелет у середу наголосила на нагальній необхідності введення мораторію на продаж і використання систем штучного інтелекту (ШІ), які становлять серйозний ризик для прав людини, доки не будуть введені відповідні гарантії. місце. Вона також закликала заборонити програми штучного інтелекту, які не можна використовувати відповідно до міжнародного права прав людини.

«Штучний інтелект може бути силою добра, допомагаючи суспільствам подолати деякі з великих викликів нашого часу. Але технології штучного інтелекту можуть мати негативні, навіть катастрофічні наслідки, якщо вони використовуються без належної уваги до того, як вони впливають на людей. права людини», – сказала Бачелет.

У рамках своєї роботи* щодо технологій та прав людини Управління ООН з прав людини сьогодні опублікувало a звітом який аналізує, як штучний інтелект (включаючи профілювання, автоматизоване прийняття рішень та інші технології машинного навчання) впливає на право людей на приватність та інші права, включаючи право на здоров’я, освіту, свободу пересування, свободу мирних зібрань і асоціацій, а також свободу вираз.

«Штучний інтелект зараз проникає майже в усі куточки нашого фізичного та психічного життя і навіть емоційні стани. Системи штучного інтелекту використовуються, щоб визначити, хто отримує державні послуги, вирішити, хто має шанс бути найнятим на роботу, і, звичайно, вони впливають на інформацію, яку люди бачать і можуть ділитися в Інтернеті», – сказав Верховний комісар.

У звіті розповідається про те, як держави та підприємства часто поспішають впроваджувати програми штучного інтелекту, не проводячи належної перевірки. Вже були численні випадки несправедливого поводження з людьми через штучний інтелект, наприклад, їм відмовляли у виплаті соціального страхування через несправні інструменти штучного інтелекту або заарештовували через неправильне розпізнавання обличчя.

У звіті детально описано, як системи штучного інтелекту покладаються на великі набори даних, а інформація про людей збирається, ділиться, об’єднується та аналізується різними і часто непрозорими способами. Дані, які використовуються для інформування та керування системами штучного інтелекту, можуть бути несправними, дискримінаційними, застарілими або невідповідними. Довгострокове зберігання даних також створює особливий ризик, оскільки в майбутньому дані можуть використовуватися ще невідомими способами. 

«З огляду на швидке та безперервне зростання ШІ, заповнення величезної прогалини у підзвітності в тому, як дані збираються, зберігаються, розповсюджуються та використовуються, є одним із найнагальніших питань прав людини, з якими ми стикаємося».

Мішель Бачелет, Верховний комісар ООН з прав людини

Висновки, передбачення та моніторинг, які виконуються інструментами штучного інтелекту, включаючи пошуки розуміння моделей людської поведінки, також викликають серйозні запитання. Упереджені набори даних, на які спираються системи ШІ, можуть призвести до дискримінаційних рішень, і ці ризики є найбільш гострими для вже маргіналізованих груп. 

«Ризик дискримінації, пов’язаний з рішеннями, керованими штучним інтелектом – рішеннями, які можуть змінити, визначити чи завдати шкоди людським життям, – дуже реальний. Ось чому необхідна систематична оцінка та моніторинг впливу систем штучного інтелекту для виявлення та пом’якшення ризиків для прав людини», – сказав Бачелет.

Також компаніям і державам потрібна набагато більша прозорість у тому, як вони розробляють і використовують ШІ.

«Складність середовища даних, алгоритмів і моделей, що лежать в основі розробки та функціонування систем штучного інтелекту, а також навмисна секретність урядових і приватних суб’єктів є факторами, які підривають значущі способи розуміння громадськістю впливу систем ШІ на права людини та суспільство. », – йдеться у повідомленні.

«Ми не можемо дозволити собі продовжувати грати в наздоганяння щодо штучного інтелекту, дозволяючи його використання з обмеженими обмеженнями чи без обмежень чи контролю, а також боротися з майже неминучими наслідками прав людини після факту. Незаперечною є сила штучного інтелекту в служінні людям, але також і здатність штучного інтелекту підживлювати порушення прав людини у величезних масштабах практично без видимості. Зараз потрібні дії, щоб захистити права людини від використання штучного інтелекту, на благо всіх нас», – підкреслив Бачелет.

джерело: UN

Фото: Новини ООН/Деніел Джонсон Верховний комісар ООН з прав людини Мішель Бачелет. (файл)

- Реклама -

Більше від автора

- ЕКСКЛЮЗИВНИЙ ВМІСТ -spot_img
- Реклама -
- Реклама -
- Реклама -spot_img
- Реклама -

Must read

Останні статті

- Реклама -