У заяві Google заявляє, що не розробляє AI для використання у зброї

Після суперечок навколо проекту Maven, штучного інтелекту Google, що використовується у військових районах урядом США, компанія вирішила зайняти публічну позицію з цього приводу. У тексті, підписаному президентом Сундар Пікі, веб-гігант говорить, що він не розробляє ШІ для використання у зброї;

Протягом усього маніфесту Піхай підкреслює потенціал штучного інтелекту, посилаючись на роль цієї технології в здоров’ї, наприклад, запобігання сліпоти та діагностики раку та навколишнього середовища, як спробу передбачити виникнення лісових пожеж. . Така технологічна сила, визнає керівник, залишає багато питань у повітрі.

"Ми визнаємо, що така потужна технологія викликає не менш вагомі питання щодо її використання", - сказав він. «Те, як воно розробляється та використовується, матиме значний вплив на суспільство протягом багатьох років. Як лідери ШІ, ми відчуваємо велику відповідальність зробити це правильно », - додає він.

Основи

Саме на цьому тлі Google перелічує сім основних принципів штучного інтелекту:

1. Бути корисними
2. Уникайте створення чи посилення несправедливих упереджень
3. Створити та протестувати на безпеку.
4. Бути відповідальним перед людьми
5. Включіть принципи конфіденційності з самого початку
6. Підтримуйте високі стандарти наукової досконалості
7. Будьте доступні для використання, що відповідає цим принципам.

"Ми хочемо дати зрозуміти, що поки ми не розвиваємо штучний інтелект для використання у зброї, ми продовжимо свою роботу з урядами та військовими в багатьох інших сферах", - каже виконавча влада. Він наводить такі галузі, як кібербезпека, військовий набір та ветеранська охорона здоров'я, як приклади "інших областей".

Незважаючи на добрі наміри Google, історія показує, що їх не завжди достатньо, щоб запобігти використанню технологічного прогресу для припинення життя людей та забезпечення військової переваги над багатими країнами.

У заяві Google заявляє, що не розробляє AI для використання в зброї TecMundo