Юридичний портал

Google тепер має можливість використовувати штучний інтелект для розробки озброєнь – які зміни відбулися?

Принципи Google більше не включають положення, які забороняють використання штучного інтелекту для розробки зброї, систем спостереження та інших технологій, що можуть завдати шкоди людству.

У вівторок, 4 лютого, компанія Google внесла зміни до своїх етичних принципів, що стосуються штучного інтелекту (ШІ), відмовившись від раніше проголошеного зобов'язання не використовувати цю технологію для військових цілей або спостереження. Про це повідомляє The Washington Post.

Раніше в принципах Google, що стосуються штучного інтелекту, містився розділ, у якому зазначалися сфери, в яких компанія не планує розробляти чи використовувати технології ШІ. Як видно з копії, викладеної в онлайн-архіві Wayback Machine, цей розділ складався з чотирьох основних пунктів:

На 5 лютого цей розділ на сайті не представлений. Представник Google не відповів на запитання журналістів стосовно політики компанії з питань озброєння та спостереження, але зазначив, що слід звернутися до звіту, опублікованого у вівторок керівником підрозділу штучного інтелекту Демісом Гассабісом і старшим віцепрезидентом з технологій і суспільства Джеймсом Маньікою.

У документі зазначено, що Google переглядає свої принципи стосовно штучного інтелекту у відповідь на глобальну конкуренцію за домінування у цій сфері, що виникає на фоні ускладненого геополітичного середовища. Це створює потребу для компаній, які працюють у демократичних країнах і співпрацюють з клієнтами з сектору уряду та національної безпеки, адаптувати свої підходи.

"Ми вважаємо, що демократії повинні лідирувати в розробці ШІ, керуючись такими основними цінностями, як свобода, рівність і повага до прав людини. І ми вважаємо, що компанії, уряди та організації, які поділяють ці цінності, повинні працювати разом, щоб створити ШІ, який захищає людей, сприяє глобальному зростанню і підтримує національну безпеку", -- заявили Гассабіс і Маньіка.

У новій редакції принципів Google щодо штучного інтелекту зазначається, що компанія планує забезпечити людський контроль та враховувати відгуки користувачів, аби впевнитися, що її технології відповідають "загальноприйнятим нормам міжнародного права та правам людини". Додатково, компанія зобов'язується проводити випробування своїх технологій, щоб "зменшити ймовірність ненавмисних або негативних наслідків".

Нагадаємо, інженер, відомий у мережі під псевдонімом STS 3D створив роботизовану гвинтівку, яка працює на основі чат-бота зі штучним інтелектом ChatGPT від компанії OpenAI. За словами представника OpenAI, розробника повідомили, що він порушив політику компанії, а також закликали "припинити цю діяльність".

Раніше генерал Ентоні Коттон, який очолює Стратегічне командування США, зазначив, що існуюча система ядерного командування, управління та зв'язку потребує оновлення. Це оновлення має на меті підвищити її стійкість до нових викликів, зокрема шляхом інтеграції штучного інтелекту та технологій машинного навчання.

Читайте також