Читать бесплатно книгу «Анатомия господства: запад, капитализм и конструирование реальности» Алексея Хромова полностью онлайн — MyBook

Глава 6: Технологии и власть

Современный мир немыслим без технологий, которые проникли во все сферы человеческой жизни, обещая прогресс, эффективность и новые возможности. От искусственного интеллекта и больших данных до социальных сетей и биотехнологий – инновации стремительно меняют наши способы общения, работы, познания и даже самовосприятия. Однако за блестящим фасадом технологического оптимизма часто скрываются сложные отношения власти, контроля и неравенства. Технологии не являются нейтральными инструментами; их разработка, внедрение и использование тесно связаны с экономическими интересами, политическими целями и идеологическими установками тех, кто их контролирует. В этой главе мы рассмотрим, как технологии становятся не только продуктом, но и инструментом власти, формируя новые арены для гегемонии, эксплуатации и сопротивления.

1 Цифровой колониализм: данные как ресурс.

В эпоху цифровизации персональные и коллективные данные превратились в один из самых ценных ресурсов, сравнимый по значимости с нефтью или другими природными ископаемыми. Однако, подобно тому, как в колониальную эпоху природные ресурсы "периферии" беззастенчиво эксплуатировались "центром", сегодня мы наблюдаем новую форму колониализма – цифровой, где глобальный Север, представленный преимущественно крупными технологическими корпорациями из США и, в меньшей степени, Европы и Китая, осуществляет масштабный сбор, обработку и монетизацию данных, генерируемых пользователями по всему миру, особенно в странах глобального Юга. Эта асимметрия в контроле над данными и инфраструктурой их обработки создает новые формы зависимости и углубляет существующее глобальное неравенство.

Механизмы цифрового колониализма многообразны. Крупные технологические платформы (социальные сети, поисковые системы, облачные сервисы, операционные системы мобильных устройств), большинство из которых базируются в развитых странах, предоставляют свои услуги пользователям по всему миру, часто "бесплатно" или по низкой цене. Однако "платой" за эти услуги становятся персональные данные пользователей: их поисковые запросы, лайки, комментарии, фотографии, геолокация, список контактов, история покупок и многое другое. Эти данные собираются в огромных масштабах, анализируются с помощью сложных алгоритмов и используются для таргетированной рекламы, разработки новых продуктов, прогнозирования поведения и даже влияния на него.

Страны глобального Юга, не обладающие собственными мощными технологическими платформами и развитой инфраструктурой обработки данных, становятся, по сути, "сырьевыми придатками" в этой новой экономике данных. Их граждане генерируют огромные объемы данных, которые затем "экспортируются" для обработки и монетизации корпорациями Севера, не принося при этом существенной экономической выгоды самим странам-производителям данных. Отсутствие местного законодательства по защите данных, слабая цифровая грамотность населения и зависимость от иностранных технологических решений делают страны Юга особенно уязвимыми для такой эксплуатации.

Более того, контроль над данными означает не только экономическую власть, но и возможность культурного и идеологического влияния. Алгоритмы, формирующие новостные ленты, рекомендации контента и результаты поиска, разработаны и настроены в соответствии с ценностями и интересами их создателей. Это может приводить к распространению западных культурных образцов, маргинализации местного контента и даже к манипулированию общественным мнением в интересах внешних акторов.

"Умные города", "цифровое правительство" и другие инициативы по цифровизации, продвигаемые в развивающихся странах часто с помощью западных компаний и консультантов, также могут нести в себе элементы цифрового колониализма. Хотя они обещают повышение эффективности и улучшение качества жизни, они также предполагают передачу контроля над критически важной городской и государственной инфраструктурой и данными в руки иностранных корпораций, создавая долгосрочную технологическую зависимость.

Попытки некоторых стран Юга регулировать трансграничные потоки данных, требовать локализации данных на своей территории или развивать собственные национальные цифровые платформы часто наталкиваются на сопротивление со стороны крупных технологических держав и международных организаций, продвигающих идею "свободного потока данных", которая на деле выгодна прежде всего тем, кто уже контролирует глобальную цифровую инфраструктуру.

Таким образом, цифровой колониализм представляет собой современную форму имперской эксплуатации, где данные становятся новым ресурсом, а технологическое превосходство – инструментом установления и поддержания глобальной гегемонии. Борьба за "цифровой суверенитет", за право контролировать собственные данные и технологическое развитие, становится одной из ключевых задач для стран глобального Юга в XXI веке.

2 ИИ: алгоритмическая дискриминация.

Искусственный интеллект (ИИ) стремительно проникает во все новые сферы нашей жизни, от систем распознавания лиц и беспилотных автомобилей до алгоритмов, принимающих решения в кредитовании, найме на работу, медицине и даже правосудии. Сторонники ИИ видят в нем инструмент для повышения эффективности, объективности и решения сложных проблем, недоступных человеческому разуму. Однако растущее применение ИИ выявляет и его темную сторону – потенциал для кодификации и усиления существующих социальных предрассудков и дискриминационных практик через так называемую "алгоритмическую дискриминацию". Вместо того чтобы быть нейтральным и объективным, ИИ может незаметно воспроизводить и даже усугублять неравенство, заложенное в данных, на которых он обучается, и в логике, по которой он функционирует.

Проблема алгоритмической дискриминации возникает из нескольких источников. Во-первых, системы ИИ обучаются на больших массивах данных, которые отражают существующие в обществе предубеждения и исторические несправедливости. Если данные, используемые для обучения, содержат, например, гендерные или расовые стереотипы (например, если в прошлом на определенные должности чаще принимали мужчин или представителей определенной расы, или если определенные группы населения чаще подвергались полицейскому контролю), то алгоритм, обученный на этих данных, неизбежно усвоит эти предрассудки и будет воспроизводить их в своих решениях. Он может научиться ассоциировать определенные характеристики (пол, расу, возраст, место жительства) с определенными исходами, даже если эти ассоциации являются результатом исторической дискриминации, а не объективных факторов.

Во-вторых, сами разработчики ИИ, будучи людьми со своими собственными (часто неосознанными) предубеждениями, могут вносить их в архитектуру алгоритмов или в процесс отбора и разметки данных. Недостаточное разнообразие в командах разработчиков ИИ (например, преобладание мужчин или представителей одной культуры) также может приводить к тому, что системы будут лучше работать для одних групп населения и хуже – для других.

В-третьих, непрозрачность многих алгоритмов ИИ ("черный ящик") затрудняет выявление и исправление дискриминационных практик. Часто бывает сложно понять, на основании каких именно факторов алгоритм принял то или иное решение, что делает невозможным его оспаривание или коррекцию. Это особенно опасно в таких критически важных сферах, как правосудие (где алгоритмы могут использоваться для оценки риска рецидива) или медицина (где они могут влиять на диагностику или распределение ресурсов).

Примеры алгоритмической дискриминации уже многочисленны. Системы распознавания лиц хуже работают с лицами женщин и людей с темным цветом кожи. Алгоритмы, используемые для отбора резюме, могут отдавать предпочтение кандидатам-мужчинам или выпускникам определенных вузов. Кредитные скоринговые системы могут отказывать в кредитах жителям определенных районов или представителям определенных этнических групп, даже если их кредитоспособность не вызывает сомнений. Алгоритмы, используемые в социальных сетях для модерации контента, могут непропорционально часто удалять посты или блокировать аккаунты представителей маргинализированных групп.

Последствия такой алгоритмической дискриминации могут быть очень серьезными. Она не только закрепляет и усиливает существующее неравенство, но и придает ему видимость научной объективности и беспристрастности ("компьютер не ошибается"). Это затрудняет борьбу с дискриминацией и может привести к созданию "цифрового апартеида", где доступ к возможностям и ресурсам определяется невидимыми и неконтролируемыми алгоритмами.

Решение проблемы алгоритмической дискриминации требует комплексного подхода, включающего повышение качества и репрезентативности данных, используемых для обучения ИИ, разработку методов выявления и устранения предвзятости в алгоритмах, обеспечение прозрачности и подотчетности систем ИИ, а также привлечение широкого круга экспертов и общественности к обсуждению этических и социальных последствий их применения. Важно также развивать критическое мышление и цифровую грамотность, чтобы люди могли понимать, как работают алгоритмы и как они могут влиять на их жизнь, и не принимать их решения на веру. Иначе ИИ, вместо того чтобы стать инструментом прогресса, рискует превратиться в еще один механизм углубления разделения и несправедливости в нашем мире.

3 Соцсети: фабрики согласия.

Социальные сети, такие как VK, TikTok и другие, возникли с обещанием демократизировать общение, предоставить голос каждому, укрепить социальные связи и способствовать свободному обмену информацией и идеями. Они быстро превратились в неотъемлемую часть повседневной жизни миллиардов людей, став основной площадкой для общения, получения новостей, самовыражения и даже политической мобилизации. Однако, за этой привлекательной витриной глобальной деревни, где каждый может быть услышан, скрывается более сложная и тревожная реальность: социальные сети, принадлежащие преимущественно крупным технологическим корпорациям, все чаще функционируют как мощные "фабрики согласия", формирующие общественное мнение, направляющие поведение пользователей и служащие интересам своих владельцев и их партнеров, а не идеалам свободной и открытой дискуссии.

Ключевую роль в этом процессе играют алгоритмы персонализации, которые определяют, какой контент пользователи видят в своих лентах. Эти алгоритмы анализируют предыдущее поведение пользователя (лайки, комментарии, просмотры, подписки) и показывают ему преимущественно то, что, по их мнению, будет ему интересно и вызовет его вовлеченность , поскольку именно вовлеченность является главной метрикой, которую стремятся максимизировать платформы для увеличения времени, проводимого пользователями на сайте, и, соответственно, доходов от рекламы.

Это приводит к созданию так называемых "пузырей фильтров" или "эхо-камер", где пользователи оказываются окружены информацией и мнениями, подтверждающими их уже существующие убеждения, и изолированы от альтернативных точек зрения. Внутри таких пузырей легко распространяются дезинформация, фейковые новости и пропаганда, поскольку критическое осмысление затруднено отсутствием контр-аргументов и преобладанием единомышленников. Это способствует поляризации общества, усилению радикализма и снижению способности к конструктивному диалогу.

Механизмы виральности, заложенные в архитектуру соцсетей, также играют важную роль. Контент, вызывающий сильные эмоции (гнев, возмущение, страх, восторг), имеет больше шансов быстро распространиться, независимо от его правдивости или объективности. Это создает благодатную почву для манипуляций, как коммерческих, так и политических. Политические акторы, как внутренние, так и внешние, могут использовать соцсети для проведения кампаний влияния, распространения пропаганды, дискредитации оппонентов или вмешательства в выборы, используя ботофермы, фейковые аккаунты и таргетированную рекламу.

Модерация контента, осуществляемая платформами (часто с помощью тех же ИИ-алгоритмов), также является предметом озабоченности. Правила сообщества и решения о том, какой контент удалять или ограничивать, разрабатываются и применяются непрозрачно, часто с двойными стандартами, и могут быть использованы для цензуры неугодных мнений или подавления голосов, критикующих доминирующие нарративы или интересы корпораций и государств, с которыми они сотрудничают.

Система монетизации через таргетированную рекламу превращает пользователей в товар, чьи данные и внимание продаются рекламодателям. Это не только нарушает приватность, но и создает мощные стимулы для сбора все большего количества персональных данных и для удержания пользователей на платформе как можно дольше, даже если это достигается за счет демонстрации им спорного, кликбейтного или вызывающего зависимость контента.

Культура инфлюенсеров, процветающая в соцсетях, также способствует формированию определенных потребительских паттернов и ценностных ориентаций, часто связанных с демонстративным потреблением, культом успеха и внешней привлекательности, что соответствует интересам корпораций, производящих эти товары и услуги.

Таким образом, социальные сети, будучи изначально задуманы как платформы для свободного общения, во многом превратились в инструменты формирования "управляемого согласия". Они создают иллюзию выбора и разнообразия мнений, но на деле направляют внимание и поведение пользователей в русло, выгодное их владельцам и рекламодателям, способствуя конформизму, поляризации и распространению манипулятивного контента. Осознание этих механизмов и развитие навыков критического медиапотребления становятся необходимыми условиями для сохранения интеллектуальной автономии в эпоху цифровых фабрик согласия.

Бесплатно

0 
(0 оценок)

Читать книгу: «Анатомия господства: запад, капитализм и конструирование реальности»

Установите приложение, чтобы читать эту книгу бесплатно