• Пн. Май 10th, 2021

hi-hech-zone.ru

Новости Технологий

Google просит сотрудников позитивней отзываться про ИИ / Хабр

Автор:ClearMind

Дек 25, 2020


Google просит своих сотрудников воздерживаться от представления ИИ-инструментов компании в негативном свете. Компания советует рецензентам поддерживать «позитивный тон» в своих обзорах.

В соответствии с новой политикой Google исследователи должны консультироваться с юристами, прежде чем приступать к рассмотрению «деликатных тем». Согласно внутренним документам Google, изучение ИИ-сервисов компании на предмет предвзятости является одной из таких тем. Среди десятков других «деликатных тем» оказались нефтяная промышленность, Китай, Иран, Израиль, COVID-19, обеспечение безопасности жилья, страхование, данные о местоположении, религия, беспилотные автомобили, телекоммуникации и системы, рекомендующие или персонализирующие веб-контент.

Как пишет Reuters, руководство Google рекомендует рецензентам искусственного интеллекта компании «проявлять большую осторожность и задавать позитивный тон». 

«Это не означает, что мы должны прятаться от реальных проблем, создаваемых программным обеспечением», — подчеркивают в Google. Тем не менее, некоторые штатные исследователи Google считают, что Google пытается их контролировать.

«Если мы исследуем то или иное явление с учетом нашего опыта, и нам не разрешается публиковать наши выводы, это означает, что мы сталкиваемся с серьезной проблемой цензуры», — указывает старший научный сотрудник Google Маргарет Митчелл.

Напряжение между Google и некоторыми из сотрудников компании обострилось после увольнения ученой Тимнит Гебру, которая вместе с Митчелл возглавляла команду по этическим вопросам работы ИИ Google. Гебру утверждает, что ее уволили за критику в адрес ИИ-инструмента по распознаванию и обработке речи. В ноябре Гебру в письме коллегам заявила, что Google стоит лучше работать над тем, чтобы ИИ компании «не закреплял гендерные предубеждения и не использовал оскорбительных высказываний». Руководство Google попросило Гебру убрать ее имя из рецензии. В ответ на это Гебру выставила компании ряд условий. В случае их невыполнения исследовательница пообещала «отработать в компании последние дни». По словам Гебру, руководство «приняло ее отставку». Гебру утверждает, что в отставку она не подавала, руководство решило все за нее.

Руководитель ИИ-подразделения Google Джефф Дин заявил, что Гебру подробно описала потенциальный вред технологии, но не коснулась мер по его устранению, поэтому научная работа Гебру не соответствует требованиям компании. Он также подчеркнул, что ученая подала в отставку сама, так как в письме заявила о намерении покинуть компанию.

В последние годы Google активно включает ИИ-инструменты в свои услуги. Компания использует искусственный интеллект для интерпретации сложных поисковых запросов, рекомендаций на YouTube и автозаполнения предложений в Gmail. По словам Дина, за последний год исследователи компании опубликовали более 200 статей о разработке ИИ. В одном из документов Google для научных сотрудников указано, что «все чаще кажущиеся безобидными проекты поднимают этические, репутационные, нормативные или правовые вопросы». Поэтому отныне консультации с юристами по поводу «деликатных тем» будут дополнять стандартную проверку рецензий на соответствие правилам компании и неразглашение коммерческой тайны.



Source link

Добавить комментарий

Ваш адрес email не будет опубликован.

двадцать − тринадцать =