Tecnologías – Datos y algoritmos. Los GAFAM y el ocaso de la democracia. [Juan Carlos Miguel de Bustos]

Viento Sur, 23-1-2021

Correspondencia de Prensa, 24-1-2021

No existe actividad diaria en la que no intervenga alguna aplicación o algoritmo, y en esto destacan los GAFAM (Google, Amazon, Facebook, Apple y Microsoft). Incluso cuando dormimos, el teléfono recoge datos de geolocalización y, llegado el caso, podría ser utilizado para espiar conversaciones. Los relojes inteligentes ofrecen aún más información: presión, ritmo cardíaco, temperatura, etc. Una aplicación de Apple te despierta, preparas el desayuno con elementos comprados en Amazon (la cafetera y el café). Buscas en Google el debate de Trump y de Biden. Después del desayuno consultas el tiempo y miras el correo electrónico, los mensajes de WhatsApp y de Facebook. Después de desayunar llamas a Uber para que un coche te traslade al aeropuerto… Datos, datos y más datos.

Los GAFAM nos transmiten la idea de que la tecnología es neutral y siempre positiva, y conocemos e interpretamos el mundo según sus reglas. Son las primeras en valor en bolsa porque intervienen en lo que leemos, escuchamos, vemos, cómo trabajamos, cómo compramos y cómo nos relacionamos y nos divertimos. Además, como su uso ha crecido durante la pandemia (compras en Amazon, búsquedas en Google, compartir en Facebook), se convierten en empresas de crecimiento ilimitado, a prueba de recesiones (Eavis y Lohr, 2020).

De la misma manera que están presentes en múltiples actividades humanas, cabe señalar que no existe ninguna actividad en la que alguno de los GAFAM no pueda llegar a estar en el futuro, por lo que el crecimiento de los GAFAM, y especialmente Facebook y Google, puede ser caracterizado como tentacular. El conocimiento que tienen Google o Facebook les permite influir en el comportamiento de las personas. Cuando Facebook propone un nuevo contacto, o cuando Google muestra los resultados de búsquedas, que son diferentes para cada persona, según su historial, están influyendo en nuestras relaciones y en nuestra manera de entender el mundo.

A medida que los datos se acumulan y se analizan a través de algoritmos cada vez más potentes, la capacidad de influir es cada vez mayor. El problema se amplifica porque lo que buscan las empresas es obtener conocimiento de las emociones en tiempo real, porque saben que una persona en momentos de pequeña depresión es más proclive a comprar, sobre todo si en ese momento se le sugiere una determinada compra de un determinado producto (cosmética, ropa, etc.). Esto se denomina manipulación del comportamiento. El poder de los datos es enorme porque permite tener un conocimiento de las personas que puede ser utilizado comercial y políticamente.

Los GAFAM, fuente de problemas

Los GAFAM plantean grandes problemas: abuso de poder, inhiben la innovación porque adquieren las nuevas empresas que pueden competir directamente –Facebook adquirió WhatsApp–, no pagan impuestos, problemas de privacidad, adicción, desinformación y polarización ideológica. Hasta ahora, la regulación se ha realizado mediante multas, fundamentalmente en Europa. Afortunadamente, en 2020 hay muchas iniciativas que analizan el impacto de los GAFAM en diferentes ámbitos. No obstante, lo que más se ha estudiado es su comportamiento bajo el prisma de la competencia.

El 7 octubre de 2020 se ha hecho público el informe del comité norteamericano encargado de la política antitrust. Es el resultado de 16 meses de investigación y de discusión con los representantes de los GAFA (no han incluido a Microsoft, que hace varios años fue obligado a dividirse) y del análisis de más de un millón de documentos. En el informe se señala que se han aprovechado de su posición dominante y se proponen múltiples acciones: interoperabilidad de los datos, prohibir a las plataformas que favorezcan sus propios negocios (Google coloca en los primeros resultados sitios de su propiedad en búsqueda de vuelos, por ejemplo), e incluso la partición de los GAFAM. Se sugiere dotar de más medios a las agencias que estudian la competencia entre las empresas, porque en las últimas dos décadas los GAFAM han estado implicados en más de 700 adquisiciones, pero no se han analizado y se les dio el visto bueno.

El problema está en que los GAFAM se analizan por zonas (EE UU, Europa, etc.) y se proponen medidas sobre cada uno de los problemas (competencia, datos, privacidad, desinformación). Lo que se necesita es la creación de un organismo que se ocupe de las plataformas y que considere todos los aspectos (desinformación, política de competencia, impacto en la democracia, innovación, privacidad), porque todos ellos están interrelacionados.

Además, los GAFAM no pagan impuestos en los países europeos porque han diseñado sistemas de ingeniería financiera que les posibilita establecer contabilidades que les permiten pagar cantidades ridículas por sus beneficios. Francia es un ejemplo al intentar que paguen el 3% de sus ingresos en su país. Este es un impuesto pasajero mientras se discute en distintos foros, entre ellos la OCDE, sobre un impuesto más general aceptado por varios países. Por supuesto que los norteamericanos lo ven como un atentado contra sus empresas. Europa no tiene equivalentes a ninguno de los GAFAM.

Vigilancia como modelo

La vigilancia por parte de los GAFAM es el resultado de su modelo de negocio basado en el análisis de las audiencias para colocar la publicidad de los anunciantes. Para los GAFAM, la recolección de los datos no tiene límite; cuantos más mejor.

Las redes sociales constituyen la tercera actividad en la que se utiliza más tiempo, después de comer y ver la televisión. En EE UU, el promedio de uso correspondería a casi 7 años de la vida de una persona (26 años destinaría a dormir, y algo más de 8 años a ver la televisión). En las redes sociales, YouTube se utiliza unos 40 minutos por día y Facebook cerca de una hora. WhatsApp, unos 28 minutos por día (Broadband Search, 2020). Durante el tiempo de uso, Facebook establece una verdadera red de espionaje, basada no solamente en las actividades que se realizan en Facebook (fotos, relaciones, post, comentarios, likes…), sino que también recopila datos de todos aquellos sitios en los que se puede entrar con Facebook; también recibe datos de las aplicaciones que utilizamos. Además, adquiere datos de empresas como Visa o de programas de fidelización. Todo ello le permite establecer mapas de datos de cada individuo y de las relaciones. Los GAFAM tienen datos incluso de documentos borrados, historias de búsquedas, etc. Los datos de cada uno de nosotros ocupan millones de páginas (Curran, 2018).

Existen importantes nexos entre algunos de los GAFAM y organismos de la policía, servicios secretos y el Ejército. Amazon, Google y Microsoft colaboran regularmente en la investigación, mientras que, por ahora, Apple y Facebook no figuran en ningún contrato. En los últimos cuatro años, Microsoft ha participado o participa en más de 5.000 subcontratos, Amazon en 350 y Google en 250 (Poulson, 2020).

La refeudalización de la esfera pública

En 2011 John Keane (Keane, 2011), uno de los mayores pensadores actuales sobre la democracia, señalaba, entre otras, dos características que constituyen el contexto de los cambios que se dan en la información hoy: el exceso de información y la desaparición de la privacidad. Es verdad que existe una variedad infinita de ofertas de contenidos en Internet, que podemos encontrar con Google, leyendo los libros que hemos comprado en Amazon, viendo contenidos en YouTube, o leyendo y comentando noticias en Facebook. Y, en principio, podemos acceder a dicha infinitud, por lo que, en teoría, existe una democratización del acceso. En teoría, porque en ese exceso de oferta de información se mezcla todo tipo de contenidos y de calidades de información (dependiendo de la objetividad, la veracidad, la información contextualizada, las fuentes, edición, la legibilidad…) y para eso no todos tenemos las mismas herramientas para medir y establecer su calidad.

El otro problema es la privacidad. Cambia la relación entre lo privado y lo público. Lo privado ha desaparecido y aún no sabemos las consecuencias. Más que desaparecer es que hoy es propiedad de los GAFAM, especialmente de Facebook y de Google. Para ellos, la vida privada de una persona es un conjunto de datos que nos sitúa (geolocaliza) en cada momento, que sabe el grado de carga de nuestros dispositivos móviles, que lee nuestros correos, que analiza nuestras compras y nos sugiere otras, que sabe cuándo cumplimos años y cuándo lo hacen nuestros familiares o amigos, etc. Y alguno de estos datos son los que a menudo reclama la policía a alguno de los GAFAM con el fin de esclarecer algún crimen, o con cualquier otro propósito.

Alguien puede decir que existen legislaciones, como la europea, para proteger la privacidad, pero una buena parte de la gestión recae en nosotros como usuarios. Basta con que pensemos en que la media de tiempo de lectura de los textos que aprobamos relativos a las aplicaciones que se tienen en un teléfono llevaría a una persona más de 250 horas de lectura. Por eso, cerca del 90% damos el visto bueno sin leerlo (LePan, 2020).

El modelo de negocio de Facebook, centrado en la venta de la publicidad, es incompatible con la democracia plena. En un artículo en The Nation, Jeer (2020) señala que puede que Zuckenberg sea demócrata, pero su modelo de negocio “le hace ganar dinero con el auge del autoritarismo”. En Facebook han despedido a algún trabajador por protestar contra el tratamiento de favor de dos blogueras en vídeo, que se denominan Diamante y Seda (Diamond and Silk), expresentadoras de la cadena de televisión Fox (conservadora), afroamericanas, que siempre comentan a favor de Trump y que a menudo no respetan las normas de contenidos de Facebook. Que esto suceda es muy normal, porque uno de los responsables de contenidos es Joel Kaplan, que fue jefe de gabinete de George W. Bush y que también ha permitido mensajes de la extrema derecha, aunque violasen las normas de Facebook. También, en mayo de 2020 Facebook no retiró los comentarios de Trump: “empiezan los saqueos, comienzan los tiros”, a pesar de múltiples protestas dentro y fuera de Facebook en lo que se interpretaba como una incitación a la violencia. Además está Peter Thiel, que es miembro del consejo de administración de Facebook y que es conocido por apoyar a Trump, defender los monopolios y tener simpatías hacia la extrema derecha.

La existencia de simpatías hacia la extrema derecha en personas en cargos ejecutivos de Facebook facilita que pueda haber un trato de favor hacia Trump; pero el modelo de negocio no facilita la honestidad en el tratamiento de los contenidos que aparecen en Facebook. El tratamiento de favor hacia Trump se explica porque es un buen cliente de Facebook (21 millones de dólares en publicidad en 2019, y 109 millones desde su elección), y porque el tratamiento favorable a Trump ha frenado la actuación de las autoridades de la competencia contra Facebook. Además, si se hubieran aplicado las reglas de Facebook y eliminado muchos de los comentarios que ha realizado Trump, es posible que Trump hubiera llamado al boicot contra Facebook, y eso habría supuesto ingresos muchísimos menores, millones de cuentas cerradas y la apertura de una polémica de la que Facebook saldría previsiblemente mal parado.

Los algoritmos de Facebook favorecen la expansión de las noticias falsas, porque generan más comentarios, likes y reenvíos que las verdaderas: “El top 1% de las noticias falsas puede llegar a un número de personas entre 1.000 y 100.000, mientras que las verdaderas raramente llegan a 1.000”. Esto es consecuencia de los algoritmos que juegan más con emociones primitivas: nación, miedo, rabia, etc. (Thompson, 2020). Hoy los conservadores atraen en Facebook mucho más que los medios tradicionales, de forma que los más leídos en Facebook pertenecen a líderes como Dan Bongino, Davis Harris Jr., Franklin Graham, etc. y Trump, que muchas veces figura el primero. Rara vez lo son escritores de izquierdas.

En EE UU, la sección 230 de la ley de telecomunicaciones de 1996 protege a los sitios web, ya que les confiere inmunidad sobre los contenidos que son producidos por terceras personas. Esto ha comenzado a discutirse, sobre todo después de que Trump haya firmado decretos tendentes a limitar esa protección jurídica de que gozan las redes sociales. Esto es consecuencia de que Twitter, utilizado por Trump, señaló que alguno de los contenidos de Trump fuese etiquetado como falsa información. Esta ley fue aprobada en un momento en que Internet comenzaba a desarrollarse, y hoy tiene muchos detractores porque, aunque las redes sociales –Facebook y Twitter– hacen mucho para eliminar contenidos ilícitos, no hacen lo suficiente.

Las elecciones norteamericanas de 2020 muestran que la desinformación sigue estando presente y que resulta muy difícil eliminarla en las redes sociales, y en especial en Facebook. De todas formas, mucho se ha avanzado desde las elecciones de 2016, porque en aquella época el presidente de Facebook –Mark Zuckenberg– reconocía la existencia de noticias falsas (que eran una minoría) pero no reconocía su influencia (Newton, 2020). Hoy, las protestas que ha recibido Facebook han supuesto que haya avanzado mucho, pero aún insuficiente. Facebook ha organizado una red global de 70 fact-checkers y ha contratado a 35.000 personas para gestionar los contenidos en el interior de Facebook (Ghaffary, 2020). En agosto de 2020, Facebook cerró 980 grupos y 530 páginas de grupos antifascistas y anarquistas, basada en la actualización de su política de censura que actualizó ese mismo mes. Reconoce que estos grupos no son violentos, pero los cierra, y hace algo que Trump hubiera deseado hacer, pero que no ha podido (Lundi Matin, 2020).

Una investigación llevada a cabo por Pew Research Internet sobre las opiniones de investigadores, consultores, arquitectos de sistemas informáticos, etc., ha preguntado sobre cuál es el previsible impacto de la tecnología digital sobre la democracia. Las respuestas son pesimistas y colocan escenarios de menor democracia (más vigilancia, más desinformación, más influencia de los GAFAM que afecta a los resultados de las elecciones, etc.), y muchos proponen un control democrático de la innovación, estableciendo qué valores deben estar en la base de esta (Pew Research Center, 2020).

Las corporaciones gigantes innovan más que los Estados. En EE UU, los GAFAM destinan más recursos a inteligencia artificial que toda la Administración norteamericana. Su poder económico va a suponer que puedan lanzar operaciones que antes estaban reservadas a los Estados. Un ejemplo, que dista de ser hipotético, es la posibilidad de que las corporaciones, por supuesto que norteamericanas, puedan explotar recursos en el espacio, incluyendo los territoriales (Storr, 2020). La inteligencia artificial es desde 2018 la segunda preocupación de Estados Unidos, después de la seguridad (Walch, 2020). Esto significa que los algoritmos que están diseñando los GAFAM están acordes con sus objetivos, sin considerar los grandes problemas que surgen o que pueden surgir.

En una entrevista en octubre de 2020, Obama declaraba que la sociedad está perdiendo la comprensión de la verdad y de los datos (Abril, 2020). En esto culpa a las redes sociales porque tienden, según él, a aislar a las personas y a reafirmarlas en sus propias creencias y opiniones. Para Facebook, lo más importante es que una persona usuaria dedique la mayor cantidad de tiempo en Facebook, y esto es más fácil conseguirlo si lo que ve y oye le reafirma en sus opiniones y creencias. La verdad, la ética de la información las interioriza como consecuencia de la presión de organizaciones como AAz y todas aquellas que monitorizan los contenidos de Facebook.

Puertas giratorias

Los GAFAM son poderosos y utilizan las herramientas de presión (lobby) directa e indirectamente. Directamente, porque pagan a organizaciones de relaciones públicas y a asociaciones de empresas para que ejerzan la presión ante los reguladores. El líder es Google. Solo en 2019 Google destinó en Europa unos 9 millones de dólares (Cavallones, 2020) en lobbying. En EE UU, los GAFAM gastan más de 50 millones de dólares al año (Richter, 2020). Muchas de las personas que trabajan en los lobbies han estado antes en puestos de la Administración relacionados con las actividades sobre las que pretenden influir; por ejemplo, según datos de 2017-2018, 93 de los 113 contratados por Alphabet (matriz de Google) para ejercer la labor de lobby habían trabajado previamente para el gobierno. En el caso de Amazon eran 76 de 114 y para Facebook 42 de los 50 (Alfonsi, 2020).

Los funcionarios contratados proceden de todo tipo de instancias, incluidas las relacionadas con la regulación de las industrias de telecomunicaciones o de regulación de la competencia (Tech Transparency Project, 2016). Muchas veces son personas muy relevantes como Nick Clegg, que fue diputado en el Parlamento de la Unión Europea y viceprimer ministro británico y que fue contratado por Facebook como presidente de comunicaciones y asuntos globales. Otro caso es el de Tony Close, que trabajaba en la regulación de contenidos en Gran Bretaña y ha sido empleado por Facebook (Moore, 2020). Otro caso, de manual, fue la contratación de un alto empleado del Departamento de Defensa norteamericano por Amazon, mientras este pugnaba con Microsoft para conseguir de Defensa el contrato JEDI (Matsakis, 2019).

El resultado es que así se forma una red de contactos muy influyentes que pueden ayudar a influir y a esquivar las leyes que se puedan establecer. Además, cuentan con verdaderos técnicos que pueden preparar los dosiers necesarios cuando se inician procesos contra alguno de los GAFAM. Un momento clave de influencia en los procesos de regulación son los informes y estudios que los gobiernos encargan a gabinetes especializados para hacer justificar la necesidad de una regulación. Es muy fácil que para elaborarlos las consultoras contraten o encarguen alguna parte del estudio a personas conocedoras del sector que se considera y es frecuente que estas, de forma directa o indirecta, tengan relación con las personas empleadas en los GAFAM.

Difícil solución

La solución a los problemas que plantean los GAFAM no es fácil (Poitié, 2020). La creación de servicios alternativos a los que ofrecen los GAFAM es imposible, más aún si se buscan alternativas regionales, locales o lingüísticas. Las razones que impulsan el crecimiento de los GAFAM (economías de red, economías de gama, economías de datos) hacen que la alternativa sea tarea imposible. Aun así, debemos promocionar este tipo de alternativas por lo que suponen desde un plano simbólico: posibilidad de comunicar, recibir y emitir correos electrónicos, buscadores, etc., al margen de los GAFAM. Framasoft es un movimiento alternativo que ofrece muchos servicios y que busca de-googlelizar la sociedad. Pensar en la nacionalización de los servicios, aunque pudiera ser posible, llevaría a plantear muchos de los mismos problemas que hoy existen, especialmente el de la vigilancia de los datos y el control. La centralización absoluta y el cruce de datos de los que tienen las diferentes Administraciones –incluida la policial– crearía un conocimiento y un control absoluto, esta vez en manos de la Administración. Nos acercaría al régimen chino.

Soluciones económicas como la ruptura de cada uno de los GAFAM reducirían momentáneamente los problemas, pero la esencia –los modelos basados en la publicidad de Google y Facebook– continuaría. La solución ideal sería crear un organismo destinado a considerar de manera relacionada el conjunto de los problemas que los GAFAM y las plataformas plantean hoy, y los que puedan plantear en el futuro, como consecuencia de sus innovaciones.

El modelo de negocio se basa en la explotación del tiempo y de los datos que la actividad de los usuarios genera. El modelo de negocio se basa en minimizar la privacidad de los usuarios, de forma que explota todos los datos e incluso los vende. El caso de Cambridge Analytica fue de extrema gravedad porque permitió el acceso a millones de datos, pero cabe pensar que han podido existir muchos otros casos de transgresión grave. Esto le supuso una multa importante, si se piensa en la cantidad, pero relativamente pequeña si se observa el efecto. Cinco mil millones es una cantidad grande, pero supone menos de un mes de beneficios, por lo que apenas le afecta (Isaac y Singer, 2019). El hecho de que las acciones de Facebook no descendieran, sino al contrario que subieran (Sontakke, 2020), merece la pena ser interpretado. El incremento del 1,8% en el valor de mercado de las acciones supuso un incremento de 10.000 millones, es decir, el doble de la multa, con lo cual Facebook incrementa su capitalización bursátil en el valor de la multa, es decir, en 5.000 millones de dólares. Sí que es cierto que los beneficios de Facebook en 2019 hubieran sido mayores sin la multa, pero la interpretación es a largo plazo. Ha sido multada por contravenir unos acuerdos que había realizado con la Federal Trade Commission, por una cantidad que apenas compromete las finanzas de Facebook. Pagar la multa le devuelve a Facebook la legitimidad de continuar actuando casi como hasta ahora, es decir, que no ha tenido que cambiar esencialmente nada; puede seguir primando la consecución de datos por encima de la privacidad, lo que le garantiza que Facebook pueda seguir siendo considerada como una empresa rentable a corto y medio plazo.

El verdadero problema es que “nuestras sociedades adoptan cualquier tecnología, de manera inmediata, sin comprender los problemas o los riesgos que dicha tecnología conlleva” (Burt, 2019). La solución está en que cuando se desarrolle una tecnología o se inicien nuevas actividades, se comience a pensar en las consecuencias económicas, sociales, políticas o culturales que pueda implicar dicha tecnología. Este pensamiento puede ayudar a crear regulaciones de las tecnologías. En el caso de Facebook resulta claro que si se hubiera regulado más y mejor, Facebook no hubiera podido crecer tan rápidamente. Si se hubiera prestado más atención a las cuestiones relativas a la privacidad y a la competencia, Facebook no sería lo que es hoy, porque no se hubieran aprobado adquisiciones que en su día se aprobaron, y que hoy son cuestionadas, porque dichas adquisiciones tenían como objetivo eliminar posibles futuros competidores. Tampoco hubiera prosperado tanto si hubiera existido una política de privacidad que realmente concediera la propiedad a los que generan los datos, es decir, los usuarios.

La solución perfecta no existe y menos después de que los GAFAM han llegado a ser lo que hoy son. Sin embargo, la solución pasa por considerar la regulación de los GAFAM y, en general, de las plataformas, mediante una consideración holística de la regulación; es decir, considerar todos los aspectos: innovación, competencia, privacidad, desinformación, transparencia de los algoritmos, etc. Aun así, queda por señalar que debemos repensar el sentido y significado de la innovación. Los GAFAM representan la innovación y nos muestran que mientras esta se realice sin control, tendremos tecnologías que no respetan el medio ambiente, que dificultan la democracia, que nos vigilan, etc. Da la casualidad de que hablamos de uno de los pilares del capitalismo y, por tanto, resulta difícil incluso discutir sobre ello. Ese es nuestro deber.

* Juan Carlos Miguel de Bustos es profesor de la Universidad del País Vasco-EHU e investigador de las características económicas de los GAFAM y los problemas que estos grupos generan

Referencias

Alfonsi, Carlotta (2020) “Taming Tech Giants Requires Fixing the Revolving Door”, Kennedy School Review, 18/02/2020. (2020)

Obama: Social media is isolating and dividing Americans”. Fortune, 1/10/2020. 

Broadband Search (2020) “Average Time Spent Daily on Social Media”. Broadband Seach. En <href=»#post-navigation-3«>

Burt, Andrew (2019) “Can Facebook Ever Be Fixed?”. Harvard Business Review, 8/04/2019. 

Cavallones, Elena (2020) “Tech giants are serious about lobbying in Brussels”. Euronews, 14/01/2020. 

Curran, Dylan (2018) “Are you ready? Here is all the data Facebook and Google have on you”. The Guardian, 30/03/2018. 

Eavis, Peter y Lohr, Steve (2020) “Big Tech’s Domination of Business Reaches New Heights”. New York Times, 19/08/2020. 

Ghaffary, Shirin (2020) “Democratic Party leaders are ‘banging their head against the wall’ after private meetings with Facebook on election misinformation”. Vox, 1-10-2020. 

Isaac, Mike y Singer, Natasha (2019) “Facebook Antitrust Inquiry Shows Big Tech’s Freewheeling Era Is Past”, New York Times, 24/07/2019. 

Jeer, Jeet (2020) “Facebook Versus Democracy”, The Nation, 18/9/2020. 

Keane, John (2011) “Democracy in the Age of Google, Facebook and WikiLeaks”. Texto presentado ante el Consejo de Europa en la serie de Debates sobre la Democracia. Estrasburgo, 5/07/2011.

LePan, Nicolas (2020) “Visualizing the Length of the Fine Print, for 14 Popular Apps”, Visual Cpitalist, 18/04/2020. 

Lundi Matin (2020) “Etats-Unis: Facebook censure les pages anarchistes et antifascistes“. Lundi matin, 27/08/2020. 

Matsakis, Louise (2019) “Warren Would Shut the Government-to-Tech ‘Revolving Door’”. Wired, 29/10/2019. 

Moore, Matthew (2020) “Facebook poaches social media regulator Tony Close from Ofcom”, The Times, 29/04/2020. 

Newton, Casey (2016) “Zuckerberg: the idea that fake news on Facebook influenced the election is ‘crazy’”. The Verge, 10/11/2016. 

Pew Research Center (2020) Many Tech Experts Say Digital Disruption Will Hurt Democracy

Poitié, Julien (2020) Le Délit, 21/01/2020. 

Poulson, Jack (2020) “Reports of a Silicon Valley/Military Divide Have Been Greatly Exaggerated”. Tech Inquiry, 7/07/2020. En <href=»#table-1″>

Richter, Felix (2020) “Tech GiantsRamp Up Lobbying In Face of Antitrust Scrutiny”. Statista, 29/07/2020. 

Sonnenberg, Mike (2019) “Why Facebook Stock Jumped 1.8% on $5 Billion Fine”. Market realistic, 15-7-2019. 

Storr, Cait (2020) “Could corporations control territory in space? Under new US rules, it might be possible”. The Conversation, 2/06/2020. 

Tech Transparency Project (2016) Google Revolving Doors

Thompson, Alex (2020) “Why the right wing has a massive advantage on Facebook”. Politico, 26-9-2020. 

Walch, Kathleen (2020) “Why The Race For AI Dominance Is More Global Than You Think”. Forbes, 9/2/2020.