Las empresas tecnológicas como Facebook y Twitter están marcando sus límites. Será difícil.

Desde sus primeros días, Silicon Valley se ha visto animado por un entendimiento casi absolutista del libre discurso. Además de excepciones por fraude, pornografía u amenazas específicas, la opinión prevaleciente entre muchas plataformas tecnológicas ha sido permitir que casi cualquiera publique prácticamente lo que sea. Estas sensibilidades incluso están consagradas en las leyes estadounidenses, que dan a las empresas una amplia inmunidad a que se les someta a un proceso judicial con base en lo que sus usuarios publican.

Sin embargo, y con buena razón, los valores absolutistas han terminado.

En los últimos dos años, las plataformas tecnológicas, presionadas por abogados y los medios en relación con el daño ocasionado por la desinformación, la propaganda patrocinada por el Estado y el acoso, han comenzado a revisar completamente sus actitudes hacia lo que la gente puede decir en línea y cómo puede decirlo.

La semana pasada, Facebook anunció un nuevo plan para eliminar la desinformación que determine que podría conducir a un daño inminente. Además, WhatsApp, la subsidiaria de mensajes de Facebook, mencionó que limitaría qué tan ampliamente se pueden reenviar los mensajes en el servicio a fin de disminuir los rumores virales, algunos de los cuales han originado violencia entre las multitudes en lugares como India.

Las nuevas políticas son parte de un cambio más grande. Los servicios en línea —no solo Facebook, sino también Google, Twitter, Reddit e incluso aquellos que están lejos de las noticias y la política, como Spotify— están replanteando su relación con el mundo fuera de línea. Se están haciendo una pregunta básica: ¿dónde comienza y termina nuestra responsabilidad?

Esto es muy importante, y las empresas tecnológicas ya se tardaron en tomar una postura más firme contra las mentiras y el acoso. Aun así, mientras forcejean con la cuestión de la responsabilidad y dónde establecer sus límites en ciertos tipos de contenido, todos deberíamos prepararnos para un camino bastante accidentado.

Esta es la razón: una estrategia en la que la intervención es casi nula ha sido central para el crecimiento de las plataformas tecnológicas, ya que permite tener una escala que se expande por el mundo sin asumir los costos sociales de su ascenso. No obstante, debido a que su influencia es tan grande ahora —Facebook por sí solo tiene más de 2000 millones de usuarios— y están tan profundamente incrustadas en nuestras vidas, una estrategia de mayor involucramiento para vigilar el contenido se propagaría en todo el mundo, alterando la política, las empresas mediáticas y casi todo en la sociedad.

También podría tener el efecto opuesto del que muchos críticos buscan: una mejor supervisión de su propio contenido podría, de hecho, aumentar el poder que las plataformas tecnológicas tienen para modelar nuestras vidas.

Pasé buena parte de la semana pasada hablando con gente que estaba trabajando en estos temas tanto dentro como fuera de esas empresas. Esas conversaciones me dejaron motivado en cuanto a su seriedad, pero pocas respuestas a las preguntas que enfrentan dejarán satisfechas a las personas.

Es genial que los gigantes tecnológicos por fin se estén percatando de sus efectos en el mundo real, pero hay un enorme margen de error en su enfoque para revisar el contenido. Muchas cosas están destinadas a salir mal —ya sea vigilando demasiado o muy poco— y tal vez no puedan explicar de manera satisfactoria por qué tomaron ciertas decisiones, lo cual levantará sospechas en todos los bandos.

La semana pasada, llamé la atención a Facebook por la complejidad aburrida de sus políticas emergentes de contenido, que se extienden en lo que respecta a las virtudes de la libre expresión, pero permiten a la empresa ser laxa en eliminar o reducir la distribución de ciertas publicaciones por una gran variedad de motivos. No solo las políticas de Facebook son difíciles de entender, las reglas de Twitter también provocan el mismo mareo.
Tras hablar con estas y otras empresas, entendí por qué son difíciles de entender los esfuerzos para resolver sus problemas. Las plataformas tecnológicas dicen que no quieren ser imprudentes: todas buscan la contribución de muchas partes involucradas sobre cómo desarrollar políticas de contenido. También les preocupa enormemente la libre expresión y todavía se inclinan a darle a la gente la libertad de publicar lo que quiera.

En lugar de prohibir el discurso, suelen tratar de mitigar sus efectos negativos buscando metodologías técnicas, como contener la divulgación de ciertos mensajes alterando los algoritmos de recomendación o imponiendo límites a su diseminación viral.

Artículos relacionados

“Por algo hay políticas matizadas”, comentó Monika Bickert, directora de políticas de Facebook. “Parte de esto es muy complicado, y, cuando estas políticas se elaboran, no hay un grupo de gente sentada en Menlo Park, California, diciendo dónde pensamos que debería estar el límite”.

Bickert comentó que ha organizado reuniones habituales con diversos expertos para debatir cómo Facebook debería establecer los límites en un sinfín de discursos. En general, la empresa elimina contenido que es ilegal, peligroso, fraudulento, o que es falso o basura. No obstante, en el caso de áreas que son más difusas, como la desinformación, adopta un enfoque distinto.

“Reducimos la distribución de información que es inexacta e informamos a la gente con más contexto y perspectiva”, comentó Tessa Lyons, gerente de producto que encabeza el esfuerzo de Facebook para frenar la desinformación en el News Feed o muro de noticias.

Para ello, Facebook se ha asociado con decenas de organizaciones que verifican información de todo el mundo. Así limita la diseminación de noticias que se hayan considerado falsas, al mostrar esas publicaciones con menor frecuencia en los muros de noticias de los usuarios, y también muestra artículos más veraces como alternativa a los que no son exactos.

Una de las interrogantes que persisten se relaciona con la neutralidad política. Algunos conservadores han atacado a Facebook diciendo —sin más evidencias a excepción del hecho de que Silicon Valley es una incubadora liberal— que sus esfuerzos de vigilar el discurso podrían estar sesgados. En respuesta, Facebook ha invitado a Jon Kyl, un exsenador republicano, para que audite a la empresa en busca de sesgo contra los conservadores. Mientras tanto, algunos liberales han argumentado que Facebook, al negarse a excluir a empresas de derecha que son fábricas de conspiraciones como Infowards de Alex Jones, está cediendo ante la derecha.

Pregunté a Bickert si Facebook toma en cuenta las posibles repercusiones políticas al decidir sus políticas. Me dijo que su equipo “busca contribuciones de expertos y organizaciones externas a Facebook de tal modo que podamos entender mejor distintas perspectivas y el impacto de nuestras políticas en las comunidades mundiales”.

Eso es gratificante, pero no llega al meollo del asunto: Facebook es una corporación con fines de lucro que, tanto por motivos regulatorios como de imagen de marca, quiere parecer políticamente imparcial. No obstante, si determina que algunos actores políticos —digamos la extrema derecha en Estados Unidos o dictadores autoritarios en otras partes— están dando auge a más falsas noticias que sus opositores, ¿cómo podemos confiar en que hará algo al respecto?

La misma sospecha aplica a otras plataformas: aunque el presidente Donald Trump probablemente viole las políticas de contenido de Twitter, se le ha permitido seguir publicando en la plataforma. Imaginen la indignación si lo bloquearan.

Esto nos lleva al tema más amplio de la transparencia. Bickert adopta una postura mesiánica en relación con la apertura —señala que Facebook fue la primera plataforma grande en publicar un reglamento para toda su comunidad.

Eso es saludable. No obstante, si las políticas escritas de Facebook son claras, la manera en que las aplica no lo es tanto. Poco se sabe, por ejemplo, sobre el ejército de trabajadores bajo contrato que la empresa emplea para revisar contenido considerado peligroso; es decir, la gente que realmente toma las decisiones (Facebook dice que se les capacita extensamente y que se auditan sus acciones). Además, dado que casi todo en Facebook es personalizado y que muchas de sus reglas se aplican a través de giros leves en su algoritmo de clasificación, el efecto general de sus políticas de contenido puede ser muy difícil de determinar para los externos.

A pesar de todo, al final todos nos quedamos ante una encrucijada. Incluso si están trabajando con externos para crear estas políticas, cuanto más hagan estas empresas para moderar qué sucede en sus páginas, más importante se vuelven sus políticas para el discurso mundial.

A mucha gente le preocupa que Mark Zuckerberg ya sea demasiado poderoso. El peligro es que todavía no hemos visto nada.

También podría gustarte
Comentarios
Cargando