Прозрачность — это не только доступность нутра системы для общественности. Как демонстрирует противопоставление Twitter и Facebook, она также подразумевает, что отдельные пользователи интуитивно понимают, как работает система. Это необходимо, чтобы люди могли контролировать эти инструменты и пользоваться ими — а не чтобы инструменты контролировали нас и пользовались нами.

Прежде всего, мы должны лучше себе представлять, какими нас видят эти сайты. Google утверждает, что это позволяет «панель инструментов», где можно отслеживать все подобные данные и управлять ими. На деле она весьма запутанна и многослойна, и среднему пользователю практически невозможно разобраться в ней и пользоваться ею. Facebook, Amazon и другие компании не дают пользователям из США скачать полный комплект персональных данных, которыми эти компании пользуются, а в Европе законы требуют именно этого. Вполне резонно ожидать, что информация, которую мы передаем компаниям, будет нам доступна, и большинство американцев, по данным Калифорнийского университета в Беркли, разделяют это ожидание [440] . У нас должна быть возможность заявить: «Вы ошибаетесь. Может, я и был когда-то серфером, фанатом комиксов или демократов, но сейчас — уже нет».

Одного знания, какую именно информацию о нас хранят компании, недостаточно. Они также должны гораздо четче объяснить нам, как они ее используют: какая часть ее персонализирована, до какой степени и на каких основаниях. Посетитель персонализированного сайта новостей должен иметь возможность посмотреть, сколько людей видят разные статьи — возможно, даже увидеть цветную карту, показывающую области общего и особенного. Естественно, это предполагает признание того, что персонализации в принципе существует, — а в ряде случаев у компаний есть серьезные основания не признавать этого. Однако их резоны по большей части носят коммерческий, а не этический характер.

Бюро интерактивной рекламы (Interactive Advertising Bureau — IAB) уже работает над этим. IAB, отраслевая ассоциация онлайновых рекламных агентств, пришла к выводу, что, если сервисы персонализированной рекламы не расскажут пользователям, как именно происходит персонализация, потребители в конце концов разозлятся и потребуют от правительства урегулировать этот процесс. Поэтому ассоциация побуждает своих участников выводить с каждой рекламой кнопки, позволяющие узнать, на какие персональные данные она опирается, как изменить их или вовсе отключить их использование. Поставщики контента, которые используют схожие механизмы персонализации, также должны рассмотреть такую возможность.

Но и в этом случае прозрачность не решает проблемы, если компании не уделяют внимание нескольким параметрам: повышение вероятности случайных открытий, более гуманистичный и тонкий подход к идентичности, освещение общественных проблем и культивация гражданственности.

Пока компьютеры лишены сознательности, сочувствия и разума, в пропасти между нашими реальными личностями и сигналами, на основе которых создается персонализированная среда, многое будет теряться. И, как я писал в главе 4, алгоритмы персонализации могут провоцировать «замкнутый цикл идентичности»: то, что программа знает о вас, определяет вашу медийную среду, а медийная среда влияет на ваши будущие предпочтения. Этой проблемы можно избежать, но тогда алгоритмы должны обеспечивать приоритет принципа «фальсификации»: стремиться опровергнуть свое представление о вас. (Например, если Amazon решит, что вы поклонник криминальных романов, ему стоит активно предлагать вам книги других жанров, чтобы проверить свою первоначальную гипотезу.)

Компании, обладающие большой редакторской властью, также должны приложить больше усилий к развитию публичного пространства и гражданственности. Конечно, кое-что они уже предпринимают: те, кто зашел на Facebook 2 ноября 2010 года [441] , увидели баннер с вопросом о том, проголосовали ли они. Проголосовавшие поделились этой новостью со своими друзьями, а поскольку некоторые голосуют под давлением окружения, вполне возможно, что Facebook увеличил число волеизъявившихся. Google много работал над тем, чтобы сделать информацию об участках для голосования более открытой и легкодоступной. Ссылки на этот инструмент выводились в тот день на главной странице Google. Неизвестно, стремились ли компании таким образом повысить свою прибыль (функция «найди свой участок», вероятно, была бы прекрасна для политической рекламы) или нет, однако оба проекта привлекли внимание пользователей к возможности политического участия и проявления гражданской позиции.

Ряд пишущих о новых технологиях программистов и журналистов, с которыми я общался, лишь поднимали брови на вопрос о том, могут ли персонализированные алгоритмы добиться чего-то большего на этом фронте. В конце концов, как заметил один из них, кто будет решать, что важно, а что нет? Со стороны разработчиков Google, по мнению другого, было бы неэтично придавать некоторым видам информации большее значение, чем другим. Хотя вообще-то именно этим они все время и занимаются.

Оговорюсь, что я вовсе не тоскую по прошлому, когда небольшая группа всемогущих редакторов в одностороннем порядке решала, что важно, а что нет. Очень многие по-настоящему важные темы (например, геноцид в Руанде) не прошли этот фильтр, тогда как многие не слишком существенные новости оказались на первых страницах газет. Но я также не думаю, что нам стоит совсем списывать со счетов этот подход. В Yahoo News считают, что возможен и промежуточный вариант: сочетание автоматической персонализации с традиционным редакторским руководством. Некоторые темы видны всем, поскольку они исключительно важны. Другие показываются только отдельным пользователям. И хотя команда редакторов Yahoo тратит массу времени на интерпретацию данных о кликах и изучение того, какие статьи пошли хорошо, а какие нет, они не слепо подчиняются этой методике. «Наши редакторы воспринимают аудиторию как людей со своими интересами, а не просто как поток данных о популярности новостей, — сказал мне один сотрудник Yahoo News. — Как бы мы ни ценили эти данные, их отфильтровывают люди, думающие о том, какого черта все это значит. Почему статья по этой теме, которую мы считаем важной для читателей, не так популярна? Как мы можем расширить ее аудиторию?» [442]

Возможны и чисто программные решения. Например, почему бы не взять за основу всеобщие представления о том, что важно? Представьте на секунду: что если бы рядом с каждой кнопкой «Мне нравится» на Facebook была и кнопка «Важно»? И все материалы можно помечать как одной из этих кнопок, так и обеими. И Facebook мог бы опираться на оба этих сигнала — что людям нравится и что они считают действительно важным, — чтобы насыщать вашу ленту новостей и делать ее более индивидуальной. Ясное дело, в таком случае в нее чаще будут попадать новости из Пакистана, даже учитывая, что у каждого человека весьма субъективное понимание важного. Коллаборативная фильтрация вовсе не обязательно приводит к импульсивному медиапотреблению: все дело в том, какие ценности фильтры стремятся вывести на первый план. Или же Google и Facebook могут установить над результатами поиска и новостной лентой бегунок от позиции «только то, что нравится мне» к позиции «то, что нравится другим людям, а я, вероятно, возненавижу». Это позволит пользователям находить личный баланс между жесткой персонализацией и более разнообразным информационным потоком. У такого подхода два преимущества: он покажет людям, что персонализация имеет место, и вручит контроль над ней самим пользователям.

У архитекторов стены фильтров есть и еще одна задача. Они могут заложить в систему возможность случайных озарений, чтобы их фильтры могли показывать людям темы, лежащие за пределами их обычного опыта. Зачастую это будет входить в противоречие с задачей оптимизации в краткосрочной перспективе: система персонализации, включающая элемент случайности, по определению принесет меньше кликов. Но по мере того как осведомленность о проблеме персонализации будет расти, в долгосрочной перспективе это окажется правильным шагом: потребители, возможно, станут выбирать именно те системы, которые грамотно представляют им новые темы. Возможно, нам нужна противоположность премии Netflix — «Серендипная премия» для систем, которые лучше всего удерживают внимание читателей, демонстрируя им новые темы и идеи.

вернуться

440

Jeffrey Rosen. The Web Means the End of Forgetting. New York Times Magazine, July 21, 2010, www.nytimes.com/2010/07/25/magazine/25privacyt2.html?_r=18cpagewanted=all.

вернуться

441

День выборов в Конгресс США. Прим. пер.

вернуться

442

Из интервью автора.