Cómo reparar la red sin fastidiarla más (o bien, esto solo lo arreglamos entre todos)

Víctor Sampedro Blanco*

«Destrozaron cosas (…) y luego se replegaron en su dinero o en una vasta indiferencia».

  1. Scott Fitzgerald, El gran Gatsby.

“Move fast, and break things”. Lema original de Facebook.

El efecto más perverso de la pseudodemocracia digital es el ahondamiento en la brecha de las desigualdades. La población datificada –convertida en datos– es perfilada, baremada y clasificada según su productividad y capacidad de consumo, hábitos y preferencias. De modo que las nuevas condiciones laborales generan diferencias salariales insostenibles y horizontes vitales precarios que destruyen las clases medias. Analistas de ideologías opuestas concluyen que con la clase media desaparece el sustrato y la cohesión social que necesita la democracia. Así que, cabalgando sobre el empobrecimiento cognitivo y material, avanzan los destropopulismos –también llamados neofascismos– de la Alt-right, más conocida como la (ultra)derecha digital.

Vayamos por partes. Porque, como veremos en un primer lugar, internet se ha degradado mucho y se plantean soluciones falsas. Además, el tiempo corre y las amenazas se incrementan. Y el remedio puede ser peor que la enfermedad, si quienes aplican esas soluciones son los estados y las corporaciones responsables de que –al contrario de lo que se nos prometía– vivamos en “sociedades del desconocimiento y la desinformación”. Por último, nos atrevemos a ponerle tareas a ese “nosotros” implícito en el subtítulo de este ensayo. El remedio, si aún lo hay, vendrá de las manos de todas y todos. Es decir, será mancomunado, buscará el bien común.

  1. Necesitamos arreglar esto, que está muy mal, y no bastan las buenas intenciones ni la solución es tecnológica.

VIVIMOS EN LA LLAMADA “economía de la atención y la vigilancia” que secuestra nuestra atención para que generemos datos acerca de todas nuestras facetas vitales. Esos datos se ofrecen y venden al mejor postor en el mercado de la publicidad comercial y la propaganda política. La penetración y la granularidad –distribución en todo el tejido social– de internet aseguran un flujo constante de datos. Procesados, identifican determinados segmentos sociales e individuos para dirigirles mensajes persuasivos automatizados. Además, se personalizan y ajustan a perfiles muy específicos.

Si la intención promocional de los contenidos digitales se disfraza –presentándolos como noticias o informaciones– estamos ante las mal llamadas fake news. El término correcto sería pseudoinformación (del griego pseudo, mentira). Se trata, en realidad, de propaganda negra que encubre sus objetivos y a sus promotores. Asimismo, denigra a la competencia con argumentos falaces o evidencias inventadas o descontextualizadas. El resultado a gran escala sería la pseudocracia: el régimen donde manda quien más y mejor miente. ¿Cómo? Desde tribunas digitales propias y medios afines que avalan sus mentiras. Pero, sobre todo, convirtiéndonos en propagandistas –viralizadores– de toda clase de infundios y falsedades[1].

La pseudoinformación se sirve de tecnologías adictivas que –como en la comida rápida– fomentan monodietas digitales. Servidas a la mesa o en pantalla, resultan insanas y perjudican el bienestar psíquico y físico. Por si no fuese poco, son insostenibles en términos sociales, políticos y ecológicos. La tecnología digital –como la comida procesada– se hace presente en todos los entornos, de forma cotidiana y constante. Su intención no es solo que “no puedas dejar de mirar y clicar –o de comer y quemar calorías falsas–”. Pretenden convencernos de que “no podemos vivir” sin pantallas ni fast food.

A medida que la tecnología avanza, delegamos más funciones y habilidades cognitivas en los dispositivos. Así que, como ejemplo obvio, usamos el móvil como “memoria externa”; convertido en agenda de contactos, citas, calendario, notas, etc. En realidad, es la mina de donde nosotros mismos extraemos nuestros datos sin percibir salario alguno y convirtiendo nuestro ocio en tiempo laboral no remunerado.

La dependencia tecnológica se torna muy problemática en el metaverso y la inteligencia artificia [IA]. Pensemos en el asistente o tutor personal que acompañará al alumnado en el proceso educativo desde la etapa prescolar. Ante máquinas que superan nuestra capacidad de percepción y procesamiento –y que tomarán decisiones por nosotros–, no basta invocar la ética o entregarnos a soluciones tecnológicas. La brecha respecto a los humanos mejorados con una IA y actuando en un metaverso expandido será enorme. En absoluto resulta obvio que las “mejoras” redunden en el individuo ni en la sociedad.

Moverse rápido y romper cosas era el lema de Facebook, ahora rebautizado como Meta y cada día más multado por extraer ilegalmente datos de los usuarios para crear perfiles singulares a los que dirigir la publicidad. La nueva marca matriz de Facebook, Instagram y Whatsapp intenta dejar atrás, en el olvido, la crisis de reputación que provocaron los muchos escándalos que la han sacudido. Aquella invocada “innovación destructiva” propulsaba beneficios ingentes a costa de la estabilidad personal de los usuarios y la cohesión social. Pero ni “el dinero” ni “la indiferencia” de Mark Zuckerberg y Cía. –propios de El Gran Gatsby y de un tiempo que anticipaba dos guerras mundiales– pueden tapar la crisis de unas tecnologías que podríamos considerar obsoletas por sus efectos: desarticulan del tejido social y contaminan la esfera pública hasta el punto de hacerla irrespirable. ¿Cuándo caerán en el oprobio que ahora conlleva fumar o alimentarse solo de comida basura?[2].

El Nobel de economía, Alvin Roth, califica de “repugnante” el mercado de los datos digitales, equiparándolo al tráfico de órganos o a la trata de seres humanos. Desde la criminología, Steve Tombs y David Whyte consideran las grandes tecnológicas un ejemplo de “corporaciones criminales”: irresponsables de los daños inherentes a su modelo de negocio. Pero ese negocio está bajo sospecha y bajo la lupa de los legisladores. Y, además, quizás ya no resulte tan lucrativo.

Zuckerberg compareció en 2018 ante el Congreso de EE UU por el primer escándalo grave –el de Cambridge Analytica– que sacudió a la corporación. Junto con Jeff Bezos (propietario de Amazon) y Elon Musk (y su controvertida y escandalosa compra de Twitter) despedían a legiones de trabajadores, mientras, por ejemplo, las acciones de Meta caían en picado.

Más allá de la posibilidad del estallido de una burbuja.com –de las tecnológicas–, como la acaecida en el arranque del milenio, no es evidente que la democracia sobreviva a la pseudocracia digital. La ciudadanía se muestra fragmentada en su capacidad cognitiva, encerrada en cámaras polarizadas de eco y (auto)promoción. A los investigadores les resulta muy difícil probar estos efectos a nivel individual. Para empezar, porque la industria no abre ni comparte los datos. Pero el impacto se manifiesta a escala social, contribuyendo a la enorme desigualdad material y económica que genera la economía digital.

La población datificada –convertida en datos– es perfilada, baremada y clasificada según su productividad y capacidad de consumo, hábitos y preferencias. De modo que las nuevas condiciones laborales generan diferencias salariales insostenibles y horizontes vitales precarios que destruyen las clases medias. Analistas de ideologías opuestas concluyen que con la clase media desaparece el sustrato y la cohesión social que necesita la democracia. Así que, cabalgando sobre el empobrecimiento cognitivo y material, avanzan los destropopulismos –también llamados neofascismos– de la Alt-right, una contracción con la que en inglés se conoce a la (ultra)derecha digital.

Ante la evidencia incontestable de los efectos negativos de su modelo de negocio, Silicon Valley pone el énfasis en una “IA ética”. No escasean los analistas que lo denuncian como una estrategia para fraternizar con el mundo académico, al que la industria coopta en reuniones regulares con las universidades para legitimarse. Basta señalar, que el primer director del fondo MIT-Harvard para estos asuntos figuraba en los círculos de Jeffrey Epstein. Poca ética cabe esperar de esos ámbitos de poder impune y delitos sexuales. El CEO mentado también había sido “líder de política pública global” para la IA en Google. No extraña, por tanto, que convocase encuentros sobre “Equidad, Responsabilidad y Transparencia” en la computación con el patrocinio de Google, Facebook y Microsoft.

La solución no será estrictamente tecnológica, como anuncia la industria. Tampoco lo es erradicar el hambre en el mundo, algo técnicamente posible desde el siglo pasado. Las patentes y copy-rights de la industria digital han transferido, de forma masiva y secreta, derechos de los “usuarios” a los “propietarios”. Sirviéndonos de una metáfora, los primeros montan su negocio o altavoz de autopromoción en un territorio ajeno, además repleto de cámaras y sensores. Así que cuando quieres cambiar algo en la aplicación o los dispositivos no puedes: interferirías en la recolección de datos. Queda claro que nunca fue una buena idea instalarse en un despacho que no sea tuyo. Ni cultivar en el terreno de otro… o gestionar tu “marca digital” en el Twitter de Elon Musk o el Twich de Jeff Bezos.

El código abierto y libre permite mayor control social y autonomía al usuario. Por ello garantiza cierta soberanía tecnológica. Pero será la articulación política de las máquinas y programas –no ellas en sí mismas– lo que determine su función social y la contribución al bien común. El software libre no conlleva políticas emancipadoras per se. Usar software libre no equivale a una forma de participación política. Y salirse del software cerrado no desafía la hegemonía de los CEO sobre los informáticos. Los hackers –meritocráticos, por definición– huyen de la proletarización y se mantienen en la cúspide de la innovación digital. Si algo está claro, a estas alturas, es que la lucha contra la mercantilización de los bienes comunes de la comunicación y la información es política, no técnica.

Las soluciones vendrían de crear instituciones para regular y articular iniciativas de distinto signo: propietarias y mancomunadas; estatales, privadas y sociales; mercantiles y sin ánimo de lucro; corporativas y cooperativas… En este ámbito el movimiento del software libre y abierto sí ha demostrado que es posible tejer y sostener una red de relaciones para producir, distribuir y perfeccionar bienes de forma sostenida. Si no son del todo comunes, al menos están disponibles sin mercantilizar ni monetarizar. Uno de esos bienes comunes sería un sistema para acabar con la peudoinformación: la mentira disfrazada de noticia y diseñada para triunfar en un mercado digital contrario a las libertades civiles.

  1. Los remedios no pueden esperar, porque la regresión resulta innegable y el ruido, intolerable.

VARIAS AMENAZAS recientes pesan sobre la libertad de expresión y los derechos cívicos que debieran conferir a la ciudadanía un papel protagónico en internet[3]. Los recortes provienen del marco legal, su aplicación judicial y los monopolios corporativos con un modelo de negocio tóxico.

En reglamentos de aplicación directa en toda la UE –como el de Servicios Digitales– se ha colado un “mecanismo de crisis” que permite a la Comisión Europea exigir a los proveedores de servicios –buscadores y redes sociales– que bloqueen contenidos que supongan “amenazas graves” sin intervención judicial previa. El bloqueo de servidores y webs rusas tras la invasión de Ucrania representa el caso más reciente, pero se replicará en el futuro. Tras introducirlas, las tecnologías de control se acaban asentando y extendiéndose a otros ámbitos.

Abundan las sentencias judiciales que restringen la libertad de expresión anteponiendo la propiedad intelectual, el derecho al honor, a la propia imagen y al olvido digital o por discursos de odio. Desde el 11-S, la “guerra antiterrorista” ha facilitado un mayor control de la red. Las compañías norteamericanas actúan como monopolios de facto en todo el mundo, excepto en regímenes claramente censores como China. Pero los algoritmos “inteligentes” censuran o invisibilizan la libertad de expresión a ambos lados de la “Gran Muralla” digital, erigida después de Tiananmén. En Oriente –incluyendo Rusia, Corea del Norte o Irán– la censura algorítmica es ejercida por el Estado. En Occidente, por corporaciones privadas.

La irresponsabilidad de las compañías norteamericanas por los contenidos que publican y viralizan los usuarios ha sido la norma general hasta ahora. Pero podría alterarse por varios procesos en curso en el Tribunal Supremo de EE UU. Este decidirá, por ejemplo, si Google es responsable de la matanza del Bataclan en París por haber permitido en su plataforma Youtube difundir vídeos incitando a la violencia islamista[4].

El vacío legal genera excesos y profundas carencias. No se han legislado en detalle los principios de legalidad, necesidad y proporcionalidad. De modo que la censura o la cancelación de cuentas y webs resultan abusivas y discrecionales. Las redes más implantadas expulsaron a Trump y no, por ejemplo, a Jair Bolsonaro o Narendra Modi, por comportamientos digitales tanto o más reprobables. Pero, como se ha desvelado más tarde y veremos enseguida, “proteger la democracia estadounidense” se considera más importante que defenderla en Brasil o la India.

Por ahora, las compañías estadounidenses no tienen que cumplir el reglamento de la Unión Europea para la protección de datos de 2016. Así que siguen recopilando datos personales de europeos y procesándolos a su antojo. De modo que el ruido y la pseudoinformación campan a sus anchas en la internet nacional e internacional. La pseudocracia devasta los sistemas político-informativos. Rehuyendo el catastrofismo y el conformismo cabe recuperar propuestas como la de Andrew Yang. Este candidato a la nominación presidencial demócrata en 2020 propuso crear un “Departamento de Economía de la Atención”[5].

Yang invocaba el precedente del movimiento para la reducción del ruido en 1968. Entonces, el director general de Salud Pública de EE.UU. se preguntaba: “¿Debemos esperar a probar cada eslabón de la cadena de causalidad? En la protección de la salud, la prueba absoluta llega tarde. Esperar por ella es invitar al desastre o prolongar el sufrimiento innecesariamente”.

En aquella época, el economista –y, más tarde, premio Nobel– Herbert Simon escribía: “La información consume algo bastante obvio: la atención de sus receptores. Por lo tanto, la riqueza de información crea pobreza de atención”. De modo que dos autores de referencia, Justin Zorn y Leigh Marz, concluían en el Washington Post: “Es hora de que el gobierno –una vez más– honre la paz y la tranquilidad como un bien público”.

Los intentos de regular los excesos de la economía de la atención no han hecho más que empezar. Se exige transparencia en los algoritmos, prohibir la reproducción automática y las funciones de “scroll” –desplazamiento– infinito. O colocar ciertas “advertencias” en mensajes y funciones que crean hábitos malsanos y fomentan el odio. Estas medidas modifican el diseño de los programas. Otras iniciativas más ambiciosas contemplan leyes antimonopolio y aspiran a transformar el modelo de negocio actual. Se propone, por ejemplo, prohibir la publicidad personalizada –por lo menos en ciertos productos o franjas de usuarios– para que los incentivos del mercado no impulsen a las empresas a desarrollar tecnologías nocivas[6].

Pero una cosa es regular “el exceso de ruido” y otra establecer un Ministerio de la Verdad. La primera supone una condición para mantener el diálogo social, pues sin contención de ruido no es posible la escucha. En cambio, una instancia que determine las verdades que debemos proteger y difundir es una pretensión antidemocrática. Máxime si quienes ejercerán la censura son quienes ya controlan la esfera pública digital. Con más precisión, diríamos que son los responsables del “descontrol” que les confiere poder estatal y corporativo.

  1. Arreglar internet sin que el estado y el mercado lo empeoren más

LOS GOBIERNOS Y LAS CORPORACIONES invalidan derechos digitales y crean desigualdades materiales. Resignarse al control estatal conduce al “sistema de crédito social chino”, que antepone la armonía y la cohesión colectivas a la libertad individual. De modo que todo comportamiento de la población –sea público, como las sanciones de tráfico o administrativas, o privado, como las horas de sueño y el consumo de alcohol– quedan registrados con una jerarquía de baremos “gamificados”.

Lo que parece un juego de acumular puntos virtuales tiene consecuencias materiales como la posibilidad de acceder a una beca o de adquirir determinados billetes de transporte. La nomenclatura de los dirigentes comunistas y los empresarios enriquecidos, gracias a los lazos oficiales, ocupan la cúspide de la pirámide. Los 96.000 miembros del Partido Comunista Chino (PCCH), junto con la burocracia confuciana, funcionan como correas de transmisión y control hacia la base.

En cambio, el modelo estadounidense nos aboca a asistir a versiones diferentes de lo ocurrido el 6 de enero de 2021. El asalto trumpista al Capitolio de las hordas es un contenido político estrella en una economía de la atención sobresaturada y desquiciada. El dirigente-empresario genera bulos y un espectáculo propios de un reality show o una serie conspiranoica. Aunque tachados de antisistema, Trump o Bolsonaro encajan en el mercado mediático-digital y en la industria cultural mainstream. Tanto así, que sus seguidores creen defender la democracia estadounidense. Y lo mismo pensaban los camioneros brasileños contrarios al (inexistente) fraude electoral que dio la victoria a Lula. Unos y otros viven en realidades paralelas, pero consonantes con los valores capitalistas y/o evangélicos.

Quizás las diferencias entre el control estatal y corporativo de internet no sean tan grandes. Las tecnológicas y las agencias de espionaje cibernético –con el caso paradigmático de la NSA estadounidense, denunciada por Edward Snowden– han desplegado estrategias muy similares. Ahora, además, de forma coordinada en reuniones bisemanales desde las elecciones norteamericanas de 2020[7]. Después del 11-S, la decisión de monitorizar las comunicaciones de toda la población se solapó con la implantación del “capitalismo de vigilancia”, del que habla Shoshana Zuboff. Los gobiernos y las corporaciones compartieron una misma estrategia de ocultación.

Los responsables políticos e industriales redefinieron las palabras hasta que perdieron significado. Para empezar, al usuario se le llamó “prosumidor” confiriéndole casi entidad de productor. Pero, en realidad, es un minero de datos no asalariado. Y, por si fuera poco, actúa como propagandista que se desnuda a sí mismo y a sus interlocutores digitales. El anonimato y la privacidad digitales nunca fueron blindados, los “contactos” se convirtieron en “amistades” y los likes o retuits se volvieron muestras de adhesión…

En octubre de 2021, Frances Haugen[8] –que dirigía la “Unidad de Integridad Cívica” de Facebook– filtró documentos internos sobre una segunda práctica compartida por los espías y los mercaderes de datos digitales. Niegan que existan “abusos” cuando todo el sistema de gestión algorítmica resulta abusivo. Pero mientras Zuckerberg negaba ante los congresistas que su compañía provocase efectos negativos, las investigaciones internas identificaban que, por ejemplo, Instagram provoca crisis de autoestima entre las adolescentes e incrementa sus tendencias suicidas.

La estrategia mentirosa y fraudulenta responde a la pretensión de actuar como juez y parte, para darse un sello de aprobación. Sin control externo alguno y normalizando el abuso de facto. Todos los actores involucrados en la venta y puja de datos comparten silencios vergonzantes. Las complicidades entre plataformas, aplicaciones, la industria de datos, la publicitaria y las relaciones públicas son muchas y estrechas; como los intereses que comparten.

Por último, el entramado de espionaje estatal y corporativo utiliza el secreto para ocultar información al público. Los protocolos de moderación de contenidos y cancelación de cuentas no están detallados y, como vimos, se aplican sin apenas permiso o refrendo judicial. No se hacen públicos –excepto por filtradores como Snowden y Haugen– y están sujetos a la discrecionalidad, dependiendo su aplicación del lucro corporativo. Los algoritmos son cerrados y propietarios. Los sesgos y desequilibrios están inscritos en los programas y los equipamientos informáticos. Y la pseudoinformación es el contenido privilegiado. Un modelo de negocio oculto y basado en la mentira solo puede desembocar en pseudocracia.

Sería un error demonizar a Facebook/Meta. Google también sostiene publicitariamente a numerosas webs que hacen afirmaciones poco fiables, falsas o perjudiciales sobre la salud, el clima o las elecciones. Un estudio reciente de ProPublica –el mayor análisis de las prácticas publicitarias de Google, hasta el momento[9]– revela que el gigante digital hace rentable y se lucra con la pseudoinformación. Coloca anuncios automatizados de grandes marcas acompañando falsedades, incluyendo la reciente desinformación electoral en Brasil. La discriminación no acaba aquí.

Al igual que Meta, Google aplica los protocolos contra fake news en entornos en lengua inglesa y no tanto en otros idiomas y mercados más pequeños. Según las fuentes internas de ProPublica, se debe a que Google invierte en la supervisión basándose en tres preocupaciones clave. La primera: las malas relaciones públicas que supone para las marcas anunciarse al lado de contenidos dudosos. La segunda es evitar el escrutinio o la regulación que afecte al negocio. Y la tercera, los ingresos. Las tres consideraciones tienen mayor impacto en los mercados de habla inglesa y por eso concentran la mayoría de los esfuerzos. En suma, porque la ecuación es sencilla: a más negocio, más supervisión y menos ruido. Y cuanto menos lucro, más bullicio y confusión. Todo forma parte de un proceso de compra y venta de publicidad digital complejo, opaco y en gran medida automatizado, dominado por Google. Los anunciantes, como los usuarios, se tienen que fiar de que con la censura automatizada con IA y la de revisión humana, Google no infringe sus normas.

Las tecnológicas llevan décadas negando, desviando y minimizando los problemas que generaban. Y cuando eso les dejó de funcionar, intentaron moldear la opinión pública y una política de regulación inexistente. La piedra angular era su irresponsabilidad y nula rendición de cuentas. En el mundo virtual permitimos comportamientos que vetaríamos en el entorno físico. Pensemos en las redes y plataformas como si fuesen los tablones de anuncios de un supermercado. Por supuesto que lo que el dueño permite que se publicite allí es su responsabilidad. Imaginemos que prohíbe anunciarse a trabajadores no blancos, a no ser que se trate de servicios sexuales. Eso por el lado del mercado.

También en las instalaciones de los servicios públicos existen tablones con anuncios susceptibles de ser censurados. Pero los criterios de moderación no pueden ser impuestos unilateralmente por los empresarios o los gobernantes. Pareciera necesario contar con el concurso de las partes afectadas; concediendo iniciativa a la ciudadanía más allá de consumir y pagar impuestos, cambiar de marca de supermercado o de sigla electoral.

No cabe ceder todo el protagonismo a los monopolios tecnológicos de facto. En los EE UU –y, por extensión, en Occidente– figuran Google, Microsoft, Amazon, Facebook, IBM, and Apple, que se pueden resumir en el acróstico G-MAFIA. Y en China dominan los BAT –Baidu, Alibaba y Tencent– a los que se suma TikTok. Es la red que desplaza al resto de plataformas, revelando dos evidencias. China ya no solo copia, sino que innova, mejorando el original. Y esas mejoras se deben a ventajas comparativas trascendentales. En concreto, casi millón y medio de habitantes sometidos a una monitorización constante y un extractivismo de datos obligatorio y centralizado, sin competidor posible para el desarrollo de la IA, resulta clave. Los algoritmos de TikTok seleccionan videos adictivos, ajustados en tiempo récord al perfil de usuario.

  1. “Esto solo lo arreglamos entre todos”

LAS CÁMARAS DE COMERCIO y una veintena de grandes empresas españolas lanzaron este eslogan en febrero de 2010: “Esto solo lo arreglamos entre todos”. Se trataba de una campaña para generar iniciativas ciudadanas que respondiesen a la dura situación económica. El primer post de respuesta en Expansión lanzaba una carga de profundidad en toda regla: “Ya, estos lo que quieren es que de nuevo los pobres consuman, pidiendo créditos, que ya no les dan, para que su economía, de empresas desfasadas, no competitivas, basadas en explotar mano de obra barata, vuelva a dar los beneficios de antaño, y seguir diciendo que son empresarios.” Cierto, en lugar de “reinventar” o “refundar” el capitalismo financiero se extremaron sus lógicas.

Algo parecido pudiera ocurrir en el ámbito digital si no embridamos a las corporaciones y a los estados para reinventar, retejer con nuevos mimbres, internet. Las advertencias y los llamados a la acción vienen de lejos. Después de las revelaciones de Edward Snowden en 2013, medio millar de creadores de 81 países –entre ellos Björk, Arundhati Roy, Don DeLillo, Ian McEwan, Margaret Atwood y Martin Amis; o Rafael Chirbes y Javier Marías por España– afirmaron: “La vigilancia es un robo. Estos datos no son propiedad pública, nos pertenecen. Cuando se usan para predecir nuestro comportamiento, se nos roba algo más: el principio del libre albedrío, crucial para la libertad democrática.”[10]

Intelectuales y artistas de todo el mundo exigían a los estados y corporaciones que respetasen “el derecho de todas las personas a determinar, como ciudadanos democráticos, hasta qué punto sus datos personales pueden ser legalmente recogidos, almacenados y procesados, y por quién; a obtener información sobre dónde se almacenan sus datos y cómo se utilizan; a obtener la supresión de sus datos si han sido recogidos y almacenados ilegalmente”[11]. Pero también instaban a que ciudadanía se levantase para defender esos derechos y a la ONU para que reconociese su importancia creando una declaración internacional, que los gobiernos se verían obligados a cumplir.

En enero 2019, Tim Cook, director ejecutivo de Apple, convertía la alarma anterior en una estrategia corporativa, comprometiendo su empresa con la ciberseguridad y la sostenibilidad. Señalaba cuatro principios sobre los datos digitales. Partía del derecho a minimizar los datos personales. Las empresas deberían comprometerse a eliminar la información de los datos que identifica a los clientes o evitar su recopilación no consentida. En segundo lugar, el directivo de Apple establecía el derecho al conocimiento: saber qué datos se recogen y por qué. Y, en tercer lugar, el derecho de acceso. Las empresas debieran facilitarle al usuario el poder acceder y eliminar sus datos. En cuarto y último lugar figuraba el derecho a la seguridad de los datos, sin el cual es imposible la confianza. Cabe añadir un quinto “mandamiento” que, por supuesto, Tim Cook no incluye: la portabilidad de datos.

Apple ha orientado su mercado al modelo del “jardín amurallado”. Ha creado un ecosistema propio, con dispositivos y programas específicos de su compañía y con los que pretende “encerrar” a los usuarios. De hecho, Apple sigue el modelo de las tecnológicas chinas que ofrecen plataformas con todos los servicios. Reúnen en un mismo espacio digital desde el comercio electrónico a la mensajería, pasando por el trabajo a distancia. Así logran monitorizar extensiva e intensivamente a unos usuarios que no pueden saltar los muros del jardín.

La portabilidad o posibilidad de trasladar nuestros datos a otras plataformas es la palanca de presión para que Tim Cook cumpliese una serie de demandas mínimas que se permitía reclamar en un “nuevo manifiesto de Internet”.

  1. Transparencia real en torno a la recogida y uso de datos, limitándolos al máximo.
  2. Derecho a nuestros propios datos, en condición de socios que determinan cómo y para qué se utilizan.
  3. Derecho a recoger y analizar nuestros propios datos.

Tim Cook señalaba con ambigüedad otro principio “Diversificar quién toma las decisiones”. Aludía, quizás, a una gestión mancomunada y distribuida de la esfera digital. Pero no decía como llevarla a cabo. Entre los actores concernidos, además de los intelectuales o creadores que ya hemos señalado, cabe contemplar las organizaciones internacionales. Y entre ellas, además de la ONU, en nuestro ámbito figura la OEI.

La Organización de Estados Iberoamericanos, que abarca 23 países de habla española y portuguesa, promovió en 2018 un decálogo de tecnologías que califica de “entrañables”. Frente a las que antes calificábamos de “fraudulentas” y “adictivas”, las tecnologías entrañables limitan efectos no deseados y daños imprevistos. Se caracterizarían por diez rasgos.

  1. Abiertas: sin restricciones de acceso para usarlas, copiarlas, modificarlas y distribuirlas.
  2. Polivalentes: integran diferentes objetivos en un único sistema técnico o facilitan usos alternativos por los operadores o usuarios.
  3. Dóciles: el funcionamiento, el control y la parada del sistema dependen de un operador humano.
  4. Limitadas: las tecnologías han de tener consecuencias previsibles. Si no, debe aplicarse el principio de precaución.
  5. Reversibles: ha de ser posible restaurar el medio natural o social en que se implante un sistema técnico. No podemos pretender cambiar el mundo de forma irreversible corriendo el riesgo de destruirlo.
  6. Recuperables: la obsolescencia programada debe prohibirse e incorporar al diseño como recuperar, mantener, reparar y reciclar equipos.
  7. Comprensibles: evitando las “cajas negras” que producen desconocimiento, facilitando la comprensión de su funcionamiento e identificar sus componentes.
  8. Participativas: facilitando la cooperación y la inclusión; incentivando e institucionalizando la participación para aceptar o rechazar las ofertas tecnológicas, tras debatir las opciones disponibles.
  9. Sostenibles: deben permitir el ahorrar y reciclar energías y recursos.
  10. Socialmente responsables: distribuir de forma igualitaria los recursos que se generan y, en todo caso, no empeorar la situación de los colectivos más desfavorecidos.

Pero, una vez más, la tecnología, por sí misma, no lo arreglará todo. Ciertos programas cuantifican con enorme precisión el impacto negativo de determinados actores digitales. El procesamiento del lenguaje natural, la IA y los análisis de gráficos identifican sus campañas en las redes. Pero los algoritmos “inteligentes” deben procesar antes la suficiente información. Esto impone un plazo que puede resultar letal. Porque, por poner un ejemplo, la campaña genocida contra los rohinyá –propagada por Facebook, según los documentos de F. Haugen– tendría que cobrarse un número ingente de víctimas hasta que los algoritmos identificasen a los promotores.

Los premios Nobel de la Paz en 2021, María Ressa y Dmitry Muratov, instaron el 2 de septiembre de 2022 a “despertar […]  ante la amenaza existencial de los ecosistemas de la información […] por el modelo de negocio de las grandes empresas tecnológicas obsesionado con acaparar los datos y la atención de las personas, al tiempo que socava el periodismo serio y polariza el debate en la sociedad y la vida política”.

La periodista filipina y el reportero ruso llamaban a “poner fin […a..] la estafa de nuestro supuesto consentimiento. Obligarnos a elegir entre permitir que las plataformas y los corredores de datos se den un festín con nuestros datos personales o quedar excluidos de los beneficios del mundo moderno no es ninguna opción”. Manifestaban así que las TIC digitales se habían convertido en “objeto de necesidad”. Y exigían que “[e]ste modelo empresarial poco ético debe ser frenado […] poniendo fin a la publicidad de vigilancia. […] Para que los hechos tengan una oportunidad, debemos acabar con la amplificación de la desinformación por las plataformas”.

Por último, estos representantes del periodismo crítico –acosados por las pseudocracias de Rodrigo Duterte en Filipinas y de Vladímir Putin en Rusia– señalaban que las soluciones están a nuestro alcance, son multipolares y colectivas: “juntos podemos acabar con este asalto corporativo y tecnológico a nuestras vidas y libertades, pero debemos actuar ahora”. Cabe, pues, apostar por poner a funcionar la inteligencia colectiva en red.

  1. Lo arreglaremos entre tod@s[12]

RESA Y MURATOV hacían hincapié en la necesidad de convocar a todos los actores involucrados, exigiéndoles rendir cuentas y promover iniciativas convergentes, que además sirviesen de contrapeso entre ellos. Las empresas tecnológicas, por ejemplo, deben hacer públicas “evaluaciones independientes del impacto sobre los derechos humanos” y mostrar “transparencia en todos los aspectos de su negocio”. No basta con someterse a “leyes sólidas de protección de datos”. Debieran “financiar y ayudar a los medios de comunicación independientes y a los periodistas atacados”.

No está garantizado el éxito de estas medidas. Y el desafío es enorme puesto que  –de nuevo según los periodistas mencionados– debemos “[d]esafiar la extraordinaria maquinaria de lobby, las campañas de astroturfing [corporaciones disfrazadas de movimientos cívicos] y la puerta giratoria de contratación entre las grandes empresas tecnológicas y las instituciones gubernamentales europeas.” Nick Clegg ilustra este último punto como pocas figuras políticas: pasó de ser ex-primer ministro del Reino Unido a vicepresidente de Global Affairs en Facebook. Siendo uno más, entre muchos casos semejantes, refrenda la inconveniencia de dejar en manos de los amos de los datos y de los políticos la gobernanza de internet. El periodismo profesional también se ve interpelado.

El manifiesto que comentamos invoca la legislación en curso en la UE. Europa, tras regular los servicios y datos digitales, prepara una Ley de Libertad de Prensa sobre los medios de comunicación tradicionales. Intenta recuperar su prestigio y credibilidad. Algo imprescindible, tras constatar que la pseudoinformación digital interfiere en las elecciones y divide el tejido social si se legitima en la gran pantalla televisiva y en las redacciones.

La regulación de las plataformas se presenta inevitable y urgente. Para evitar concentraciones de poder es preciso convocar “la inteligencia colectiva de las multitudes” como proponen las profesoras Vidushi Marda y Stefania Milan[13]. Estas autoras anteponen los derechos humanos a la eficacia tecnológica y recogen los consensos más extendidos entre todas las partes involucradas. Pueden agruparse en un triángulo con los vértices del estado, el mercado y la sociedad civil.

Los gobiernos y los reguladores estatales están llamados a rehuir la opción censora y punitivista. Cualquier recorte de la libre expresión debe demostrar ser necesario y proporcionado, acompañándose de mecanismos retroactivos. Como señalan Aitor Jiménez y Ekaitz Cancela en un reciente artículo[14], conviene renunciar al “afán punitivista y vigilantista, [que] ha sido incapaz de comprender que la forma en la que las plataformas gobiernan el discurso online no se basa en el control del mensaje, sino en el dominio de los flujos de información”. En otras palabras, la tarea principal reside en abrir los algoritmos y reparar los sesgos que dan visibilidad y viralizan a determinados actores que se revelan como nocivos de forma incontestable. Identificar y censurar sus infinitos y cambiantes mensajes es una tarea llamada al fracaso. En cambio, resulta factible desactivar sus cuentas automatizadas o indicarle al algoritmo que no las compute.

La prudencia frente a excesos reguladores aconseja revisar las leyes y principios de actuación existentes antes de crear más. En este sentido, Marda y Milán recuerdan que bastaría con obligar a las tecnológicas a satisfacer sus obligaciones de responsabilidad corporativa según los Principios Guía de la ONU sobre Empresas y Derechos Humanos. Los controles estrictos de contenidos pueden consolidar el poder de las grandes corporaciones, que dificultan la entrada en el mercado de pequeñas empresas y retrasan la innovación.

Gran parte de estas líneas de actuación resultarían obvias si los políticos, los gestores administrativos y el personal jurídico contasen con conocimientos actualizados. Además de incrementar su alfabetización digital, los gobernantes debieran promoverla en escuelas e institutos, organizaciones cívicas y empresas.

Además de lo ya dicho, los operadores de redes y plataformas crearían un repositorio de prácticas de transparencia para el escrutinio público de su funcionamiento. Debieran rendir cuentas de los sesgos algorítmicos y las ganancias publicitarias, informar periódicamente de las quiebras de seguridad, del uso de datos por terceros y la incidencia de la pseudoinformación, entre otras cuestiones. Nada diferente –salvando las distancias– a lo que se aplica a las infraestructuras y los servicios de suministros básicos.

Ya existen comités éticos en el seno de algunas compañías tecnológicas. Pero carecemos de instancias nacionales e independientes que ejerzan un control experto sobre las implicaciones políticas y laborales de los modelos de negocio. Es algo que corresponde exigir a la sociedad civil organizada. Como tal, debiera vigilar a los gobiernos y operadores que erosionan la libertad de expresión. Las asociaciones usuarios también deberían adquirir consciencia crítica de sus «dietas digitales». Y, de forma periódica, evaluar su propia labor de fiscalización, así como realizar auditorías independientes de los algoritmos que (in)visibilizan ciertos contenidos.

La marcha es larga y los llamados a recorrerla muchos y muchas. Pero la “hoja de ruta” está clara: alcanzar un cambio de paradigma comunicativo en varias etapas. Es posible que hayan visto el apocalíptico documental The Social Dilema, realizado para Netflix por el Center for Humane Technology (CHT): un híbrido de ONG y think tank. El CHT constituye un nodo ejemplar de la sociedad civil transnacional en estos temas. Aboga por presionar a las plataformas para que hagan ajustes inmediatos hasta cambiar el modelo de negocio que, según vimos, conduce a la pseudocracia. Acabamos reproduciendo algunas líneas de trabajo y algunos ejemplos concretos de innovaciones.

En una primera etapa se lograrían cambios en la plataforma: ajustes en su diseño visual, interactivo, etc. Por ejemplo, pueden pedir a los usuarios, mediante una notificación, que lean un artículo antes de compartirlo. Pero estas medidas no abordan los problemas de raíz derivados del modelo operativo.

La segunda etapa afecta a la gobernanza interna, con cambios aplicados por los responsables para transformar el funcionamiento y la estructura interna de las plataformas. Por ejemplo, el Consejo de Supervisión de Meta supervisaría las características de diseño inseguras, no solo los contenidos nocivos. Incentivaría a los programadores e ingenieros de algoritmos para mejorar la seguridad y el bienestar, no para aumentar solo reacciones y tiempo de conexión.

En una tercera etapa, de regulación externa. actores externos como legisladores o reguladores aproarían leyes con requisitos comunes de seguridad, limitando ciertas aplicaciones o contenidos según la edad de los usuarios, obligando a la interoperabilidad con la competencia o sancionarían ciertas prácticas comerciales inseguras o dañinas. Aunque estas medidas demoran en promulgarse, su impacto potencial sería mayor y más duradero. Un ejemplo paradigmático sería la normativa de la Unión Europea sobre datos y plataformas digitales.

Pasado el ecuador de la hoja de ruta, la cuarta etapa modifica el modelo de negocio, alterando cómo operan y reparten beneficios las empresas digitales. Una posibilidad sería crear auténticos medios sociales con un modelo de suscripción y pagos diferenciados para garantizar un acceso amplio de la población. Otra alternativa consistiría en limitar el seguimiento de los usuarios y reducir la rentabilidad de los modelos de negocio de vigilancia. Por su sesgo estadounidense, el CHT no plantea crear una red social pública, con datos abiertos y sin ánimo de lucro. Puede articularse con los servicios públicos de radiotelevisión, el sistema educativo y las redes de bibliotecas. Lejos de ser una quimera se trata de una realidad consolidada en algunas naciones; véase el caso de Nueva Zelanda. Y en otros países, como el Reino Unido, se han planteado propuestas electorales de una red y plataforma digital de la BBC.

Muy ligada a la etapa anterior, la quinta meta volante se centra en cambiar el objetivo económico con regulación legal, cambios de orientación o composición de los inversores o nuevos modelos financieros, competidores en el mercado. Un ejemplo ya mencionado sería obligar a las empresas tecnológicas a rendir cuentas con métricas públicas que expresen una sociedad más sana, y ni solo incrementos de beneficios. Otro, crear una iniciativa de interés público como la antes citada y que reúna a todas las partes interesadas en lugar de representar solo los intereses de los accionistas.

La meta final es el cambio de paradigma: una transformación generalizada de creencias, valores, comportamientos y normas fundamentales. Supondría un cambio masivo en los consumidores, como ocurrió con las tabacaleras y los cigarrillos. En unas décadas, han pasado de estar de moda a ser considerados peligrosos y letales. A las nuevas generaciones pueden movilizarles la analogía entre la tecnología y la comida basura; sobre todo si se imbrican en la lucha contra el calentamiento global.

Primero el público y los desarrolladores, después los empresarios, podrían desarrollar actitudes similares hacia las redes y las tecnologías «adictivas por diseño». Todo son soluciones parciales –porque todos somos parte del problema– y temporales –deberemos priorizarlas y combinarlas según el contexto–. Pretender una solución final, que además sea unilateral y definitiva, es una desviación totalitaria que ya hemos experimentado y que estamos de nuevo llamados a combatir.

Bibliografía

Haugen, Frances, Entrevista en 60 Minutes, CBS (4/10/2021). URL: https://www.youtube.com/watch?v=_Lx5VmAdZSI]

Haugen, Frances, Testimonio ante el Senado (7/10/2021) URL: https://www.youtube. com/watch?v=k3DDUjzdG-E].

Jiménez, Aitor y Ekaitz Cancela, “¿Es posible gobernar a las grandes tecnológicas? Análisis crítico de la Ley Europea de Servicios Digitales” Teknocultura, oct, 2022.

Jiménez, Miguel, El País (03/10/2022). “El Supremo de Estados Unidos se pronunciará sobre la responsabilidad de las redes sociales por los contenidos de sus usuarios”.

Klippenstein, Ken y Lee Fang (31/10/2022). The Intercept. “Truth cops. Leaked documents outline DHS’s plans to police disinformation”.

Marda, Vidushi y Stefania Milan, Wisdom of the crowd. Multistakeholder perspectives on the fake news debate. Annenberg:  Annenberg University Press, 2018.

Romero, Pablo, Público (14/10/2022) “Así peligra ahora mismo tu libertad de expresión en internet”.

Sampedro, Víctor, Dietética digital para adelgazar al Gran Hermano, Barcelona, Icaria, 2018. URL: www.dieteticadigital.net

Sampedro, Víctor, El cuarto poder en red. Por un periodismo (de código) libre. Barcelona: Icaria, 2014.

Sampedro, Víctor, Teorías de la comunicación y el poder. Opinión pública y pseudocracia, Madrid, Akal, 2023.

Silverman, Craig, Ruth Talbot, Jeff Kao y Anna Klühspies, (29/10/2022). ProPublica. “How Google’s Ad Business Funds Disinformation Around the World”.

The Guardian (12/10/2013) “International bill of digital rights: call from 500 writers around the world”.

Yang, Andrew, CNN Business Perspectives (20/11/2019). “Andrew Yang: As president, I will establish a Department of the Attention Economy”.

Zorn, Justin y Leigh Marz (15/09/2022). The Washington Post.  “We once had a law to defend human attention. It’s time for an update”.

[1] En Víctor Sampedro (en imprenta) Teorías de la comunicación y el poder. Opinión pública y pseudocracia. Madrid: Akal y escritos previos del autor (www.victorsampedro.com) se desarrollan estas nociones.

[2] El paralelismo entre dietas alimenticias y digitales se detalla en Víctor Sampedro (2018) Dietética digital para adelgazar al Gran Hermano. Barcelona: Icaria. Puede descargarse, con materiales didácticos, en www.dieteticadigital.net

[3] Pablo Romero. Público (14/10/2022) “Así peligra ahora mismo tu libertad de expresión en internet”.

[4] Miguel Jiménez. El País (03/10/2022). “El Supremo de Estados Unidos se pronunciará sobre la responsabilidad de las redes sociales por los contenidos de sus usuarios”.

[5] Andrew Yang. CNN Business Perspectives (20/11/2019). “Andrew Yang: As president, I will establish a Department of the Attention Economy”.

[6] Justin Zorn y Leigh Marz (15/09/2022). The Washington Post.  “We once had a law to defend human attention. It’s time for an update”.

[7] Ken Klippenstein y Lee Fang (31/10/2022). The Intercept. “Truth cops. Leaked documents outline DHS’s plans to police disinformation”.

[8] Entrevista en 60 Minutes, CBS (4/10/2021) [https://www.youtube.com/watch?v=_Lx5VmAdZSI] y Testimonio ante el Senado (7/10/2021) [https://www.youtube. com/watch?v=k3DDUjzdG-E].

[9] Craig Silverman, Ruth Talbot, Jeff Kao y Anna Klühspies (29/10/2022). ProPublica. “How Google’s Ad Business Funds Disinformation Around the World”.

[10] Citado en Víctor Sampedro (2014) El cuarto poder en red. Por un periodismo (de código) libre. Barcelona: Icaria, pág. 111.

[11] The Guardian (12/10/2013) “International bill of digital rights: call from 500 writers around the world”.

[12] Aquí retomo tesis y pasajes del final de Víctor Sampedro (en imprenta) Teorías de la comunicación y el poder. Opinión pública y pseudocracia. Madrid: Akal.

[13] Vidushi Marda y Stefania Milan (2018) Wisdom of the crowd. Multistakeholder perspectives on the fake news debate. Annenberg:  Annenberg University. Reproduzco aquí su propuesta y la que le sigue, tomándolas del final de mi libro ya citado y en imprenta.

[14] Aitor Jiménez y Ekaitz Cancela (2022) “¿Es posible gobernar a las grandes tecnológicas? Análisis crítico de la Ley Europea de Servicios Digitales” Teknocultura, oct.

* Víctor Sampedro Blanco es académico y experto en comunicación pública, catedrático de Opinión y Comunicación Pública en la Universidad Rey Juan Carlos de Madrid.

Revista editada en Madrid por Teatrero del ITEM.
Registro Legal: M.17304-1980
ISSN(e): 3020-4062