9.1 C
Брюссель
П'ятниця, квітень 19, 2024
Міжнародне покриттяНебезпеки ШІ, про що конкретно Байден говорив з Microsoft, Google,...

Небезпеки штучного інтелекту, про що конкретно Байден говорив із Microsoft, Google та іншими керівниками?

ВІДМОВА ВІД ВІДПОВІДАЛЬНОСТІ: інформація та думки, відтворені в статтях, належать тим, хто їх висловлює, і це їхня особиста відповідальність. Публікація в The European Times означає не автоматичне схвалення погляду, а право його висловлення.

ВІДМОВА ВІД ВІДПОВІДАЛЬНОСТІ ПЕРЕКЛАДИ: Усі статті на цьому сайті опубліковано англійською мовою. Перекладені версії виконуються за допомогою автоматизованого процесу, відомого як нейронні переклади. Якщо ви сумніваєтеся, завжди посилайтеся на оригінальну статтю. Спасибі за розуміння.

Служба новин
Служба новинhttps://europeantimes.news
The European Times Новини мають на меті висвітлювати новини, які важливі для підвищення обізнаності громадян у всій географічній Європі.

Щоб передбачити небезпеку ШІ, президент Джо Байден провів а засідання з генеральними директорами видатних штучний інтелект (ШІ), зокрема Microsoft і Google, наголошуючи на важливості забезпечення безпеки своїх продуктів перед розгортанням.

Розвиток генеративного штучного інтелекту, прикладом якого є такі програми, як ChatGPT, викликав значний інтерес, що змусило компанії поспішити з випуском подібних продуктів, які, на їхню думку, революціонізують динаміку роботи.

Мільйони користувачів навколо світ почали використовувати ці інструменти, які мають потенціал для встановлення медичних діагнозів, написання сценаріїв, складання юридичних записок і налагодження програмного забезпечення. Проте зростає занепокоєння щодо потенційних порушень конфіденційності, упереджених рішень щодо працевлаштування та сприяння шахрайству та кампаніям з дезінформації.

Президент Байден, який сказав, що особисто використовував ChatGPT, закликав чиновників розглянути поточні та потенційні ризики, які ШІ становить для окремих осіб, суспільства та національної безпеки. Він і офіційні особи Білого дому наголосили на необхідності для компаній бути прозорими з політиками, оцінювати безпеку своїх систем ШІ та захищати їх від зловмисних атак.

ChatGPT – ілюстративний рендеринг. Кредит зображення: BoliviaInteligente через Unsplash, безкоштовна ліцензія

Небезпеки ШІ

Під час двогодинної зустрічі керівники Google, Microsoft, OpenAI і Anthropic, а також віце-президент Камала Гарріс і ключові посадові особи адміністрації обговорювали питання прозорості, оцінки безпеки та захисту від кіберзагроз.

Віце-президент Харріс висловив потенційні переваги технології штучного інтелекту, визнаючи при цьому занепокоєння щодо безпеки, конфіденційності та громадянських прав. Вона підкреслила, що генеральні директори несуть «юридичну відповідальність» за забезпечення безпеки своїх продуктів ШІ, а адміністрація відкрита для вдосконалення правил і законодавства в цій галузі.

Після зустрічі Сем Альтман з OpenAI заявив, що компанії дійшли згоди щодо необхідних дій.

Адміністрація також оголосила про інвестиції 140 мільйонів доларів від Національного наукового фонду для створення семи нових дослідницьких інститутів ШІ. Крім того, Бюджетно-управлінське управління Білого дому опублікує політичні рекомендації щодо використання ШІ федеральним урядом.

Провідні розробники штучного інтелекту, зокрема Anthropic, Google, Hugging Face, NVIDIA, OpenAI і Stability AI, візьмуть участь у публічній оцінці своїх систем штучного інтелекту.

Очікується, що поширення технології штучного інтелекту призведе до збільшення кількості політичної реклами, створеної з використанням зображень штучного інтелекту, і регуляторні органи США тісно співпрацюють із Радою з торгівлі та технологій США та ЄС у сфері регулювання технологій.

Джерело посилання

- Реклама -

Більше від автора

- ЕКСКЛЮЗИВНИЙ ВМІСТ -spot_img
- Реклама -
- Реклама -
- Реклама -spot_img
- Реклама -

Must read

Останні статті

- Реклама -