Социальная сеть Facebook перестанет использовать систему распознавания лиц, говорится в сообщении компании Meta, которой принадлежит соцсеть.
«Мы прекращаем работу системы распознавания лиц в Facebook. Люди, которые соглашались [на ее использование], больше не будут автоматически определяться на фото и видео. Мы удалим индивидуальные шаблоны для распознавания лиц более чем 1 млрд человек», — сообщили в Meta.
Свое решение в компании объяснили тем, что в обществе растет озабоченность по поводу использования этой технологии. Как отметил вице-президент по искусственному интеллекту в Facebook Джером Песенти, регуляторы пока находятся в процессе разработки «четкого набора правил», которые бы регулировали использование системы распознавания лиц. «В условиях такой сохраняющейся неопределенности мы считаем целесообразным ограничить использование системы распознавания лиц», — написал он (цитата по Reuters).
«А разговоров-то было»: как соцсети отреагировали на ребрендинг Facebook Фотогалерея
По словам Песенти, удаление шаблонов для распознавания лиц будет развернуто по всему миру. Ожидается, что эту работу компания завершит к декабрю.
www.adv.rbc.ru
В последние месяцы в адрес Facebook поднялась волна критики. К этому привели несколько факторов. Одним из них стал глобальный сбой в работе соцсети, а также принадлежащих компании Instagram и WhatsApp 4 октября. Вечером того дня акции Facebook упали на 5%, а сам сбой вызвал активное обсуждение в США вопросов, связанных с работой компании.
Помимо этого, 25 октября ряд американских СМИ опубликовали расследование «Досье Facebook» (The Facebook Papers) о проблемах в работе Facebook. В распоряжении изданий оказались внутренние документы компании, переданные бывшей сотрудницей Facebook Фрэнсис Хауген. Изучив их, журналисты среди прочего выяснили, что руководство Facebook вмешивалось в работу соцсети, чтобы дать политикам привилегии при публикации постов, а также что Facebook не справляется с модерацией постов, разжигающих ненависть, в особенности тех, что написаны не на английском языке.