Поддержать команду Зеркала
Беларусы на войне
  1. «Это все было понято неправильно». Вадим Галыгин — о своей позиции в 2020 году
  2. С 1 сентября беларусы обязаны обеспечить детям образование на родине. А что с живущими за границей — рассказали в Минобразования
  3. Новая глава ПВТ позвала уехавших айтишников домой, но с условием. «Зеркало» попросило их ответить — вот что вышло
  4. Российская армия достигла границы Днепропетровской области: в ISW рассказали о ее тактике с целью продвинуться вглубь
  5. «Это наши деньги, народные». Вслед за картофельным заговором Лукашенко обнаружил в торговле кредитный
  6. «Правдивое обещание 3». Иран запустил ракеты по Израилю
  7. В Индии пассажирский самолет рухнул на жилой район. Погибли по меньшей мере 265 человек
  8. «А мы можем себе это позволить?» ООН назвала главную причину, почему в семьях стало меньше детей, — беларусским властям не понравится
  9. Власти, по всей видимости, хотят «отжать» очередной частный бизнес. В этой истории появились новые подробности
  10. «Ребята, мы обнаглели до крайности». Лукашенко объяснил, почему летает по Беларуси на вертолете, а не ездит с кортежем
  11. После свадьбы вора в законе Лукашенко приказал разобраться с ним. Как «эскадроны смерти» уничтожали беларусских авторитетов
  12. Чиновники взялись за зарплаты населения — рассылают «письма счастья» и придумали новшество
  13. «Восстающий лев». Израиль нанес масштабные удары по Ирану — атакованы ядерные объекты и ракетные заводы


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.