|
Odio:
Discurso de odio y miedo:
Este año, Facebook y Twitter permitieron que se distribuyera un video de una charla en sus plataformas en la que Michael J. Knowles, un experto de derecha, pidió que se “erradicara” el “transgenerismo”. La Coalición de Acción Política Conservadora, que organizó la charla, dijo en sus publicaciones en las redes sociales que promocionaban el video que la charla era “todo sobre el intento de la izquierda de borrar a las mujeres biológicas de la sociedad moderna”.
Nada de esto fue censurado por las plataformas tecnológicas porque ni el Sr. Knowles ni el CPAC violaron las reglas de incitación al odio de las plataformas que prohíben los ataques directos contra las personas en función de quiénes son. Pero al permitir que ese discurso se difundiera en sus plataformas, las empresas de redes sociales estaban haciendo algo que quizás debería preocuparnos aún más: estaban avivando el miedo a un grupo marginado.
Casi todas las plataformas tecnológicas desarrollaron reglas extensas y detalladas que prohíben el discurso de odio después de descubrir que lo primero que sucede en una nueva red social es que los usuarios comienzan a lanzarse insultos unos a otros. La Unión Europea incluso supervisa la rapidez con la que las plataformas tecnológicas eliminan el discurso de odio.
Pero el miedo es un arma incluso más que el odio por parte de los líderes que buscan provocar la violencia. El odio es a menudo parte de la ecuación, por supuesto, pero el miedo es casi siempre el ingrediente clave cuando las personas sienten que deben atacar para defenderse.
Comprender la distinción entre el discurso que induce al miedo y el que incita al odio es crucial a medida que lidiamos colectivamente con la forma de gobernar las plataformas globales de Internet. La mayoría de las plataformas tecnológicas no cierran afirmaciones falsas que incitan al miedo como "Antifa viene a invadir tu ciudad" y "Tus enemigos políticos son pedófilos que vienen por tus hijos". Pero al permitir que se propaguen mentiras como estas, las plataformas están permitiendo que los tipos de discurso más peligrosos penetren en nuestra sociedad.
Susan Benesch, directora ejecutiva de Dangerous Speech Project , dijo que los líderes genocidas a menudo usan el miedo a una amenaza inminente para incitar a los grupos a la violencia preventiva. Quienes cometen la violencia no necesitan odiar a las personas a las que atacan. Solo necesitan tener miedo de las consecuencias de no atacar.
Por ejemplo, antes del genocidio de Ruanda en 1994, los políticos hutus les dijeron a los hutus que estaban a punto de ser exterminados por los tutsis. Durante el Holocausto, los propagandistas nazis declararon que los judíos planeaban aniquilar al pueblo alemán. Antes del genocidio bosnio, se advirtió a los serbios que se protegieran de una amenaza musulmana fundamentalista que estaba planeando un genocidio contra ellos.
“Me sorprendió lo similar que es esta retórica de un caso a otro”, me dijo la Sra. Benesch en una entrevista para The Markup. “Es como si hubiera una escuela horrible a la que todos asisten”. La característica clave del discurso peligroso, argumentó, es que persuade a “las personas a percibir a otros miembros de un grupo como una terrible amenaza. Eso hace que la violencia parezca aceptable, necesaria o incluso virtuosa”.
El discurso del miedo está mucho menos estudiado que el discurso del odio. En 2021, un equipo de investigadores del Instituto Indio de Tecnología y el MIT publicaron el primer estudio cuantitativo a gran escala sobre el discurso del miedo .
En un análisis de dos millones de mensajes de WhatsApp en grupos públicos de chat indios, descubrieron que el discurso del miedo era notablemente difícil de detectar para los sistemas automatizados porque no siempre contiene las palabras despectivas que pueden caracterizar el discurso del odio. “Observamos que muchos de ellos se basan en información objetivamente inexacta destinada a engañar al lector”, escribieron los autores del artículo, Punyajoy Saha, Binny Mathew, Kiran Garimella y Animesh Mukherjee. (El Sr. Garimella se mudó del MIT a Rutgers después de la publicación del artículo). A menudo, se necesita el juicio humano para diferenciar entre los miedos reales y los miedos falsos, pero las plataformas tecnológicas a menudo no dedican el tiempo ni desarrollan el conocimiento local para investigar todos los miedos. siendo expresado.
Tres de los autores y una nueva colaboradora, Narla Komal Kalyan, siguieron este año con una comparación del discurso del miedo y el odio en la red social de derecha Gab . Descubrieron que la "naturaleza no tóxica y argumentativa" del discurso del miedo genera más participación que el discurso del odio.
Entonces, ¿cómo nos vacunamos contra el discurso basado en el miedo en las redes sociales que puede incitar a la violencia? Los primeros pasos son identificarlo y reconocerlo como la táctica cínica que es. Las plataformas tecnológicas deberían invertir en más humanos que puedan verificar y agregar contexto y contrapuntos a las publicaciones falsas que inducen miedo.
Otro enfoque es destetar a las plataformas de redes sociales de su dependencia de los llamados algoritmos de participación que están diseñados para mantener a las personas en el sitio el mayor tiempo posible, lo que también termina amplificando el contenido escandaloso y divisivo . La Unión Europea ya está dando un paso en esta dirección al exigir a las grandes plataformas online que ofrezcan a los usuarios al menos un algoritmo alternativo .
Ravi Iyer, que trabajó en el mismo equipo que la denunciante de Facebook Frances Haugen, ahora es el director gerente del Instituto de Psicología de la Tecnología . Un proyecto conjunto entre el Centro Neely de la Escuela de Negocios Marshall de la Universidad del Sur de California y la Escuela de Negocios Haas de la Universidad de California, Berkeley, el instituto estudia cómo se puede usar la tecnología para beneficiar la salud mental. En un borrador de un artículo publicado el mes pasado , él, Jonathan Stray y Helena Puig Larrauri sugirieron que las plataformas pueden reducir los conflictos destructivos al disminuir la importancia de algunas métricas que promueven el compromiso.
Eso podría significar que para ciertos temas candentes, las plataformas no impulsarían automáticamente las publicaciones que se desempeñaron bien en las métricas de participación típicas, como la cantidad de comentarios, las veces que se compartió y el tiempo dedicado por publicación. Después de todo, esas métricas no significan necesariamente que al usuario le haya gustado la publicación. Los usuarios podrían estar interactuando con el contenido porque lo encontraron objetable o simplemente para llamar la atención.
En cambio, los investigadores proponen que los algoritmos de las redes sociales podrían impulsar las publicaciones que los usuarios indicaron explícitamente que encontraron valiosas.
Facebook ha estado siguiendo discretamente este enfoque hacia el contenido político. En abril, la compañía dijo que "continuaba alejándose de la clasificación basada en el compromiso" y, en cambio, para los usuarios estaba dando más peso a "aprender qué es informativo, vale la pena su tiempo o significativo".
El cambio de Facebook podría ser una de las razones por las que la charla del Sr. Knowles obtuvo muchas menos visitas en Facebook que en Twitter, que no ha adoptado este cambio algorítmico.
Pero al final, los algoritmos no nos van a salvar. Pueden degradar el discurso del miedo pero no borrarlo. Nosotros, los usuarios de las plataformas, también tenemos un papel que desempeñar para desafiar el alarmismo a través del contradiscurso , en el que los líderes y los transeúntes responden negativamente a la incitación basada en el miedo. El objetivo del contradiscurso no es necesariamente cambiar los puntos de vista de los verdaderos creyentes, sino proporcionar una contranarrativa para las personas que miran al margen.
El humor puede ser una buena defensa: en Kenia, en 2012, un popular programa de televisión, “Vioja Mahakamani”, probó una estrategia de inoculación haciendo que sus personajes se burlaran de los esfuerzos de los líderes comunitarios para estereotipar a diferentes grupos. Los espectadores encuestados en grupos focales se mostraron más escépticos acerca de que los políticos avivaran el miedo para estimular la violencia.
Combatir el miedo no será fácil. Pero es posiblemente el trabajo más importante que podemos hacer para evitar que la indignación en línea genere violencia en la vida real.
(nyt junio 2023)
Moderación 4chan:
El 14 de mayo de 2022, Payton Gendron, de 18 años, envió un enlace a un grupo selecto de amigos en línea. Era una invitación a una transmisión privada de Twitch, acceso a su diario en línea y una carga de su manifiesto de 180 páginas.
Quienes hicieron clic en el enlace vieron a Gendron sentado en su automóvil, en el estacionamiento del supermercado Tops en Buffalo, Nueva York. Lo vieron levantar su rifle estilo AR-15, equipado con un cargador de alta capacidad, y abrió fuego. Mató a 10 personas en solo seis minutos.
Incluso antes de que la policía detuviera la masacre y arrestara a Gendron, el enlace se publicó en el tablón de imágenes anónimo 4chan. En /pol/, el foro "políticamente incorrecto" del sitio, la gente comentaba en tiempo real sobre el tiroteo masivo. “¿Por qué no disparar contra las manifestaciones por el aborto? Qué maricón”, escribió un usuario. Otro intervino: "El manifiesto de los niños es bastante bueno". Docenas de personas que se perdieron la transmisión en vivo exigieron una grabación. Otros lo declararon una operación de bandera falsa de estado profundo.
Sin embargo, un cartel imploraba a los usuarios del sitio que aceptaran la responsabilidad. “¿Por qué este lugar está tan lleno de odio e ira?” ellos preguntaron. “Es como una guarida de inequidad [sic]. ¿Por qué ustedes nunca expresan amor o compasión? Subieron una foto de Payton Gendron y llamaron al archivo "el asesino de 4chan".
“Hiciste a Payton Gentron [sic], un asesino en masa sociópata”, escribieron.
Los moderadores de 4chan pronto intervinieron y prohibieron la cuenta del usuario, eliminando su comentario. El motivo de la prohibición: "Quejarse de 4chan".
La forma en que se administra y modera 4chan es de creciente interés entre los funcionarios del gobierno de EE. UU. El comité del 6 de enero de la Cámara de Representantes de EE. UU. citó a 4chan por su papel en facilitar el asalto al Capitolio de EE. UU., mientras que los investigadores de la Oficina del Fiscal General de Nueva York ordenaron a la compañía que entregue miles de registros para comprender mejor su papel en el ataque terrorista de Gendron. . WIRED obtuvo varios documentos internos de 4chan a través de una solicitud de registros públicos.
Esos documentos muestran cómo el equipo de moderadores de 4chan (conserjes, en su propia nomenclatura) administra el sitio. Los correos electrónicos internos, los registros de chat y las decisiones de moderación revelan cómo los conserjes del sitio han ayudado a darle forma a su propia imagen, utilizando sus poderes de moderación para engendrar la marca particular de supremacía blanca edgelord de 4chan. En particular, los documentos muestran cómo los moderadores del sitio respondieron a una ola de atención ya que su sitio web, una vez más, había sido citado como un motor ideológico para un acto de asesinato masivo.
Más que eso, los documentos dejan al descubierto el grado en que la influencia tóxica de 4chan es un diseño, no un error.
En su manifiesto, Gendron le dio crédito a 4chan por mostrarle “la verdad”, es decir, una creencia profundamente paranoica y racista de que “la raza blanca se está extinguiendo”. Seleccionó el supermercado Tops específicamente porque estaba en un vecindario predominantemente negro. 4chan también le dijo qué hacer al respecto. Años antes, navegando por el sitio, se encontró con un video de Brenton Tarrant, de 28 años, acechando en la mezquita Al Noor en Christchurch, Nueva Zelanda, en 2019, asesinando a 51 personas.
Al lanzar el ataque en Buffalo, Gendron estaba siguiendo los pasos de Tarrant. Incluso plagió generosamente el manifiesto de Tarrant. E hizo uso regular del léxico insular y odioso de memes y chistes internos de 4chan.
Si bien Gendron se declaró culpable de cargos de asesinato, terrorismo doméstico y delitos de odio, y está a la espera de juicio por cargos federales adicionales, las familias de algunas de las víctimas han presentado una demanda contra varias compañías de redes sociales, incluidas 4chan, Discord, Reddit , Snapchat, Alfabeto, Meta y Amazon. Alegan que la radicalización de Gendron fue causada por la incapacidad, o la negativa absoluta, de estas empresas de detener el flujo de teorías de conspiración violentas en línea.
Casi una semana después del ataque terrorista de Buffalo, RapeApe y dsw, dos moderadores en la nómina de 4chan, tuvieron una conversación sobre las consecuencias. Acababan de recibir un aviso de su plataforma de publicidad, Bid.Glass, de que 4chan estaba siendo eliminado.
“Acabamos de recibir un aviso de rescisión de Bid.Glass. Voy a tratar de disuadirlo (básicamente es un tipo que dirige la empresa), pero en el caso probable de que falle, necesitaremos algún tipo de reemplazo”, escribió RapeApe. Continuaron: “Hasta ahora, ni el FBI ni la policía local tienen evidencia de que el tirador haya publicado nada en 4chan”.
RapeApe lamentó que 4chan estaba "obteniendo el eje" ya que otros sitios web, como Reddit y Discord, estaban siendo dejados "libres de culpa".
Reddit, sin embargo, modera agresivamente a las comunidades conocidas por defender el racismo y la violencia, y ha prohibido por completo una letanía de comunidades de extrema derecha e incel. En su diario, Gendron escribió: "Muchos subreddits a los que me uní han sido prohibidos". Mientras tanto, Discord tomó una serie de medidas para mejorar la moderación a raíz del tiroteo en Buffalo, incluida la prohibición de la comunidad donde Gendron recibió consejos tácticos y la asociación con el Foro Global de Internet para Contrarrestar el Terrorismo. Si bien queda por ver qué tan efectivos son ese tipo de tácticas, Reddit y Discord pueden afirmar que están tomando alguna acción.
4chan, por su parte, parece decidida a cambiar lo menos posible, aunque eso signifique más actos de terrorismo doméstico por parte de sus usuarios.
“Desafortunadamente, esto nunca cambiará”, escribió dsw. “A menos que hagamos algo [sic] drástico como eliminar pol y todos los demás tableros aleatorios”, escribieron. RapeApe descartó la sugerencia menos de 20 segundos después. “Incluso si lo hacemos, ninguna de estas empresas nos aceptará”.
“Podrían, si 4chan cambia su marca”, respondió dsw. Pero RapeApe no se dejó influir.
"Eso es ingenuo".
(Justin Ling - Wire 07/06/2023)
Musk contra la Regulación de California:
Hoy, X Corp. de Elon Musk presentó una demanda para bloquear la ley de moderación de contenido de California, AB 587. En su demanda, presentada ante un tribunal de distrito de EE. UU. en California, X Corp. busca una orden judicial preliminar y permanente que impida al fiscal general de California, Robert Bonta, hacer cumplir la ley. .
AB 587 se aprobó en septiembre de 2022 y exige que las plataformas de redes sociales presenten un "informe de términos de servicio" semestralmente al fiscal general de California, que proporcione "una descripción detallada de las prácticas de moderación de contenido utilizadas" e "información sobre si, y en caso afirmativo, cómo, la empresa de redes sociales define y modera" el discurso de odio o el racismo, el extremismo o la radicalización, la desinformación o la desinformación, el acoso y la interferencia política extranjera. Según la ley, las plataformas de redes sociales también deben proporcionar información y estadísticas sobre cualquier acción de moderación de contenido tomada en esas categorías.
En la denuncia de X, la compañía acusó a California de intentar dictar los términos de servicio de X y obligar a "divulgaciones controvertidas sobre cómo X Corp. modera el contenido en su plataforma".
La ley estipulaba que todas las plataformas debían comenzar a recopilar datos para su primer informe de términos de servicio que cubriera la moderación de contenido durante el tercer trimestre de 2023 y enviar esos informes a Bonta antes del 1 de enero de 2024.
Se podría encontrar que las plataformas violan la ley por no publicar los términos de servicio sobre la moderación de contenido, no cumplir con una fecha límite para enviar un informe de términos de servicio u omitir o tergiversar materialmente información sobre la moderación de contenido. Cualquier plataforma que viole la ley corre el riesgo de recibir multas, que X describió como "sanciones financieras draconianas", de hasta 15.000 dólares por infracción al día.
En su denuncia, X Corp. argumentó que AB 587 viola la Primera Enmienda al obligar a "empresas como X Corp. a expresarse en contra de su voluntad" e interferir "de manera inadmisible" "con los juicios editoriales de las empresas protegidos constitucionalmente". X Corp. dijo que si el tribunal no bloqueaba la ley, California podría presionar a las empresas "para que eliminen, desmoneticen o resten prioridad al discurso protegido constitucionalmente que el estado considere indeseable o dañino".
"El Estado de California promociona la AB 587 como una mera 'medida de transparencia' según la cual ciertas empresas de redes sociales deben hacer públicas sus políticas y estadísticas de moderación de contenidos", decía la denuncia de X. Pero, alegó X, la "verdadera intención" del estado es "presionar a las plataformas de redes sociales para que 'eliminen' cierto contenido protegido constitucionalmente que el estado considera problemático".
X Corp. alegó que AB 587 viola otras leyes, incluida la Cláusula de Comercio Inactivo, "al no restringir sus amplios requisitos de presentación de informes a información sobre los californianos", y la Sección 230 de la Ley de Decencia en las Comunicaciones, que otorga a las plataformas inmunidad de responsabilidad por "cualquier acción". tomado voluntariamente y de buena fe para restringir el acceso o la disponibilidad de material que el proveedor o usuario considera obsceno, lascivo, lascivo, sucio, excesivamente violento, acosador o de otro modo objetable, esté o no dicho material protegido constitucionalmente”.
"Debido a que AB 587 impone responsabilidad sobre tales acciones si se toman sin las revelaciones requeridas, AB 587 tiene prioridad por la amplia inmunidad otorgada por la Sección 230", decía la denuncia de X.
Ars no pudo comunicarse de inmediato con X para hacer comentarios. La oficina de Bonta dijo: "Si bien aún no hemos recibido la denuncia, la revisaremos y responderemos en el tribunal".
El autor de AB 587, el asambleísta de California Jesse Gabriel, emitió un comunicado diciendo que la ley "es una medida de pura transparencia que simplemente requiere que las empresas sean sinceras sobre si moderan contenido y cómo lo hacen. De ninguna manera requiere políticas específicas de moderación de contenido". "Por eso fue aprobado con un fuerte apoyo bipartidista. Si Twitter no tiene nada que ocultar, entonces no deberían tener objeciones a este proyecto de ley".
Pero los grupos tecnológicos y los expertos en políticas se hicieron eco de las preocupaciones de X sobre el AB 587.
Adam Kovacevich, director ejecutivo de la coalición política de la industria tecnológica Chamber of Progress, dijo que "exigir a las empresas que entreguen su manual de moderación de contenido a estafadores y conspiradores es una mala idea".
"Incluso si no te gusta nada del liderazgo de X por parte de Elon Musk, está claro que exigir a las plataformas tecnológicas que publiquen un plan detallado sobre cómo trabajar con los moderadores de contenido tendrá consecuencias negativas para los usuarios en línea", dijo Kovacevich. "Dejar que las plataformas se establezcan sus propios estándares editoriales también dejan a los consumidores con más opciones sobre en qué tipo de plataformas pasan el tiempo”.
Netchoice, un grupo que representa a empresas de tecnología y asociaciones comerciales, ha llamado a la AB 587 "la nueva ley de censura en línea del Estado Dorado". En una declaración sobre la demanda de X Corp., Netchoice dijo que la ley obligaría a las empresas a presentar divulgaciones "intrusivas" y "a menudo imposibles de cumplir" sobre decisiones editoriales protegidas constitucionalmente. El director de litigios de Netchoice, Chris Marchese, dijo que el tribunal debería prohibir la AB 587 para proteger la libertad de expresión en línea.
"La Primera Enmienda prohíbe al gobierno regular el discurso legal, directa o indirectamente", dijo Marchese. "Los estados no pueden evitar esta prohibición rebautizando la censura como requisitos de 'transparencia'".
(ars technica 10/09/2023)
Europa: Legislación:
Aunque la expresión "discurso del odio" se ha vuelto tan común, aún no existe una definición precisa de lo que realmente es "discurso del odio" . De hecho, la búsqueda de una definición común entra en conflicto con los debates jurídicos, político-filosóficos y culturales sobre los límites de la libertad de expresión. De ahí que surja la pregunta: ¿cómo podemos definir entonces lo que realmente es " discurso del odio" , sin fijarnos como objetivo la libertad de expresión básica? Este dilema sigue estando muy presente en los medios de comunicación. Según los expertos, la revolución digital es una de las principales razones del resurgimiento de este debate.
En los documentos elaborados por las instituciones internacionales tras la Segunda Guerra Mundial, hay una base común para definir el " discurso del odio" . Según una recomendación del Consejo de Europa de 1997, el lenguaje del odio incluye "todas las formas de expresión que difunden, incitan, promueven o justifican el odio racial, la xenofobia, el antisemitismo u otras formas de odio basadas en la intolerancia, incluida la intolerancia expresada por un nacionalismo agresivo y el etnocentrismo, la discriminación y la hostilidad hacia las minorías, los inmigrantes y las personas de origen inmigrante".
Aunque la expresión "discurso del odio" ganó terreno durante los años 1990, la observación del fenómeno y el compromiso de oponerse a él no son fenómenos nuevos (antes, la expresión " incitar al odio" era su favorita). Durante muchas décadas, el foco siguió siendo el odio racial, el antisemitismo y el revisionismo histórico. Con el nuevo milenio, la conciencia de este tema ha incluido a las minorías religiosas (especialmente los musulmanes, cada vez más objeto de amenazas y discriminación) y, finalmente, a las mujeres, las personas LGBT, las personas con discapacidad y las personas mayores. Pero para resumir, independientemente de la forma (escrita u oral, verbal o no verbal, explícita o implícita) y el estatuto jurídico que tenga, el "discurso del odio" incluye cualquier expresión de violencia y discriminación contra otras personas o grupos. Hasta que el "discurso del odio" se dirige a las personas en función de sus características y/o condiciones personales, las reacciones que se esperan hacia ellas se basan en el contexto social, económico y político en el que se inicia esta acción poco ética.
Los intentos de combatir el "discurso del odio" se enfrentan hoy a más dilemas que los que ofrece la era digital. En un informe reciente (septiembre de 2017), el Consejo de Europa abordó el "discurso del odio" en el marco de un problema más amplio, que incluye información o noticias, en una presentación global de contenidos en la que el "discurso del odio" y las llamadas "noticias falsas" se cruzan en algún punto: en esta perspectiva, la desinformación deriva del encuentro entre la desinformación (difundir noticias falsas pero inofensivas) y la desinformación (difundir noticias auténticas con la intención de causar daño).
¿Es el “discurso del odio” un fenómeno creciente?
Aunque el debate sobre el discurso del odio tiene una larga historia, la atención que se le ha prestado como fenómeno ha crecido sin duda en los últimos años en el espacio digital. Como se ve en el gráfico siguiente (que muestra la aparición del término en publicaciones en inglés indexadas en Google Books), la expresión solo se ha vuelto común en los últimos 30 años, mientras que la mayoría de las iniciativas de las autoridades y la sociedad civil son aún más recientes.
Hallazgos recientes en los Balcanes en 2016
La falta de una definición común de "discurso de odio" hace que la recopilación de datos a nivel europeo sea insuficiente o, en el mejor de los casos, desigual. Solo en los últimos años, organismos como la OSCE o la Agencia de Derechos Fundamentales de la UE han comenzado al menos a sistematizar la recopilación de datos nacionales sobre "discurso de odio". Desde 2016, la OSCE ha estado recopilando estadísticas y prácticas comparativas con datos adecuados sobre este fenómeno de las autoridades de los Estados miembros. Ese mismo año, es decir, en 2016, en el marco del Consejo de Europa y el proyecto de la UE "Fortalecimiento de la experiencia judicial sobre libertad de expresión y medios de comunicación en Europa sudoriental", se organizaron varias reuniones regionales con el objetivo de discutir cuestiones importantes con las que se enfrentan todos los organismos reguladores. Una de ellas fue el " discurso de odio". A la conferencia asistieron representantes de los organismos reguladores de Albania, Bosnia-Herzegovina, Montenegro, Macedonia y Serbia. En estas reuniones, también se propuso preparar una publicación sobre el discurso de odio, que contendría información sobre los casos con los que se han encontrado los organismos reguladores: AQUÍ .
La buena noticia es que estos ejemplos servirán como orientación y recomendaciones adicionales en casos similares. Por supuesto, Albania también tiene su contribución con el Consejo de Quejas de la AMA, como un esfuerzo conjunto del trabajo de los representantes de las autoridades reguladoras nacionales mencionadas anteriormente. El objetivo de recopilar estos datos es contribuir tanto como sea posible a una comprensión más amplia del concepto de "discurso de odio" o determinar qué es y qué no es "discurso de odio".
Hoy, después de más de 27 años desde la liberalización del sistema de autorregulación en los medios audiovisuales sobre la base de los convenios europeos, el sistema de autorregulación sigue siendo un proceso difícil de procesar, a pesar de los numerosos esfuerzos de sensibilización de las autoridades, las organizaciones no gubernamentales y los organismos internacionales. Hoy en día volvemos a tener debates sobre las cuestiones de la ética en los medios de comunicación, sin embargo, todavía no existe una estructura de supervisión autorreguladora que pueda actuar sobre actos específicos de violación o tales tendencias. Los contenidos legales en este campo mantienen los estándares europeos y se consideran buenos, pero su implementación sigue siendo un desafío, que debemos superar, pero primero determinando los obstáculos, que son las conclusiones/resultados que deben surgir de los estudios y encuestas realizados por expertos en la materia.
"ARTÍCULO 19", un modelo occidental
"ARTICLE 19" es una organización británica que opera en el campo de los derechos humanos con un enfoque específico en la protección y promoción de la libertad de expresión e información en todo el mundo, fundada en 1987. La organización toma su nombre del Artículo 19 de la Declaración Universal de Derechos Humanos, que establece: "Todo individuo tiene derecho a la libertad de pensamiento y de expresión; este derecho incluye la libertad de sostener opiniones sin interferencias, como la libertad de buscar y recibir información y de difundir ideas, sin limitación de fronteras, por cualquier medio".
La organización Artículo 19 monitorea las amenazas a la libertad de expresión en todo el mundo; presiona a los gobiernos para que aprueben leyes que se ajusten a los estándares internacionales de libertad de expresión; y elabora estándares legales que fortalecen la independencia editorial en los medios, las emisoras públicas, la libertad de expresión y el acceso a la información, que el gobierno considera parcialmente transparente.
A principios de marzo de 2018, esta organización publicó su investigación y su informe comparativo sobre las políticas jurídicas en materia de "discurso de odio" basándose en las conclusiones de seis Estados miembros de la UE, como Austria, Italia, Alemania, Hungría, Polonia y el Reino Unido. El informe concluyó que el "discurso de odio" sigue siendo un problema importante en todos los países. A pesar de algunos ejemplos de buenas prácticas, el marco jurídico y regulatorio de estos países no está abordando adecuadamente estos problemas.
El lenguaje del odio no es un problema nuevo en la Unión Europea, pero sigue siendo una preocupación creciente. Durante las dos últimas décadas, los incidentes de "odio", motivados por diversas razones, han aumentado en muchos países europeos. Esta tendencia, según los expertos, parece haber sido impulsada por la larga crisis económica que ha sumido al mundo y el creciente número de inmigrantes y refugiados que llegan a Europa. Incluso un tenso discurso político en torno a la UE en respuesta a esto, o la retórica "euroescéptica", también ha jugado su papel.
El aumento de los prejuicios y la intolerancia puede estar vinculado en muchos casos directamente a las políticas y estrategias de comunicación de los respectivos gobiernos. Representantes de partidos políticos, funcionarios públicos y, en algunos países, incluso ministros, han utilizado un lenguaje odioso y despectivo frente a su público, dirigido contra diversas minorías, refugiados e inmigrantes, así como denigrando la propia agenda de la UE. Desde entonces, ha habido una mínima voluntad política para minimizar los ejemplos de "discurso de odio" que han aparecido en la sociedad. Por ejemplo, en el Reino Unido, el "discurso de odio" contra los inmigrantes en la UE fue una característica distintiva durante la campaña del referéndum de 2016, que luego condujo a la decisión británica de abandonar la UE; en Polonia y Hungría, las autoridades gubernamentales han sido muy claras en su retórica contra la UE y los inmigrantes. De hecho, ambos países tienen un historial histórico de problemas para garantizar los derechos de las minorías raciales, étnicas y religiosas, mientras que el grupo LGBTI está protegido de la discriminación; en Italia, Alemania y Austria, la inmigración sigue siendo el foco del debate público durante sus campañas electorales. Durante su retórica, los partidos, políticos y funcionarios públicos de derecha, así como los miembros de movimientos xenófobos, incitan a la hostilidad hacia las minorías, especialmente los inmigrantes y refugiados, con el fin de ganar políticamente.
En base a esto, el derecho internacional de los derechos humanos exige a los Estados antes mencionados y a todos los demás miembros de la UE proteger y promover conjuntamente los derechos de libertad de expresión y el derecho a la igualdad: no se puede priorizar un derecho sobre otro y cualquier tensión entre ellos debe resolverse dentro de los límites del derecho internacional de los derechos humanos. Como se estipula, los Estados están obligados a prohibir formas particularmente graves de "discurso de odio", lo que en circunstancias excepcionales puede hacerse mediante el derecho penal. También están obligados a crear un entorno adecuado para el ejercicio de los derechos de libertad de expresión e igualdad mediante la adopción de una serie de medidas positivas para la protección de estos derechos.
En efecto, el último informe publicado por la conocida organización británica de protección de la libertad de expresión ARTICLE 19 constata, entre otras cosas, deficiencias en materia de "discurso de odio" en los marcos nacionales de los seis países en lo que respecta al cumplimiento de las normas internacionales de libertad de expresión aplicables, así como incoherencias en la aplicación de la legislación disponible. Desde su punto de vista, ARTICLE 19 considera que estas deficiencias hacen que el marco jurídico esté abierto a cualquier abuso político, incluso precisamente de aquellos grupos minoritarios a los que la ley protege. Entre otras cosas, el informe publicado por ARTICLE 19 contiene recomendaciones para los Estados miembros de la UE sobre cómo garantizar la mejor protección posible del derecho a la libertad de expresión y el derecho a la igualdad. Esta investigación se llevó a cabo como parte del proyecto "Medios contra el odio" , una campaña de concienciación a nivel europeo iniciada por la Federación Europea de Periodistas y una coalición de organizaciones de la sociedad civil, incluido el Instituto de Diversidad de los Medios, "ARTICLE 19", la Asociación de Periodistas Croatas, el Foro de la Comunidad de Medios Europeos, el Instituto de la Comunidad de Medios en Europa y la Cooperación para el Desarrollo de los Países en Desarrollo.
(gsh | telegrafi.com 10/10/2024)
La máquina de desinformación de Musk funciona:
A principios de febrero, Musk lanzó un mensaje a todos los ciudadanos europeos en su plataforma social, X: "¡Únanse al movimiento Mega! ¡Hagamos que Europa vuelva a ser grande!".
"Make Europe Great Again" (o MEGA) es un eslogan que evoca el "Make America Great Again" (MAGA) del presidente Donald Trump y fue utilizado por primera vez el año pasado por el primer ministro húngaro, Viktor Orbán, durante la presidencia semestral de Hungría del Consejo de la Unión Europea (UE). Pocos días después de la publicación de Musk, el 8 de febrero de 2025, bajo el lema "Make Europe Great Again", los líderes de los partidos euroescépticos de derecha y extrema derecha del grupo "Patriotas por Europa" se reunieron en Madrid , coincidiendo en que Trump es el ejemplo a seguir en Europa.
La publicación de Elon Musk, una de las principales figuras de la administración Trump, es sólo uno de los últimos episodios de su interferencia en la política europea, que se está volviendo cada vez más dura , incluyendo insultos a jefes de gobierno europeos (de izquierda) y llamados a su arresto , ataques al poder judicial y apoyo abierto a partidos y políticos de extrema derecha en Europa.
Esta campaña política en línea, impulsada por el hombre más rico del mundo, no solo afecta a un continente, sino a varias partes del mundo. Una investigación de NBC News reveló que, durante los últimos dos años, Musk ha alentado a movimientos, políticas y administraciones de derecha en al menos 18 países a impulsar políticas que le son importantes a nivel global.
Captura de pantalla 2025-03-19 122857Entre estas políticas está la reducción de la inmigración en nombre del “nativismo”, una teoría promovida por la extrema derecha que sugiere que la población nativa de un territorio tiene mayores derechos que los recién llegados, según explicó Mattia Zulianello , profesor de Política Comparada en la Universidad de Trieste y estudioso del populismo de derecha.
El director ejecutivo de Tesla, SpaceX y propietario de X también pretende limitar las regulaciones a las empresas. En Europa, por ejemplo, Musk ha puesto la mira en la Ley de Servicios Digitales (DSA), la regulación sobre servicios digitales aprobada por el Parlamento Europeo en 2022 y que entró en vigor en febrero de 2024. Actualmente, la Comisión Europea, responsable de la aplicación de la DSA, está investigando a X por posibles infracciones.
Contactada por la emisora estadounidense, Manuela Caiani , profesora asociada de Ciencias Políticas en la Escuela Normal Superior de Pisa y experta en movimientos internacionales de extrema derecha, declaró que, de esta manera, Musk está impulsando el crecimiento de estos movimientos mediante el intercambio de ideas, la creación de vínculos personales y la construcción de un marco ideológico compartido con personas atraídas por él debido a su riqueza, a pesar de no ocupar un cargo electo convencional. «Es muy peligroso que un actor apolítico ahora hable con cierta legitimidad política. Está cambiando el paradigma de la política», enfatizó Caiani.
La principal herramienta que Elon Musk utiliza para esta estratégica campaña política global es la propia X, la plataforma de redes sociales que adquirió por 44 000 millones de dólares en 2022, donde cuenta con una enorme cantidad de seguidores: la mayor de la plataforma, con un perfil que ostenta más de 220 millones. Según Jasmine Enberg , analista de Emarketer, empresa de investigación de mercado que ofrece información y tendencias sobre marketing y medios digitales, el emprendedor que «controla uno de los micrófonos más grandes del mundo» es plenamente consciente del «poder de las redes sociales para moldear la narrativa política».
Por eso, como propietario de X y su usuario más seguido, Musk ha usado cada vez más su plataforma como un megáfono para amplificar sus opiniones políticas y, últimamente, las de las figuras de derecha con las que se ha alineado, explica Barbara Ortutay, periodista experta en redes sociales de Associated Press ( AP ).
Al mismo tiempo, se informa que el multimillonario ha realizado cambios estructurales en el algoritmo de su plataforma para favorecer su contenido y el de los usuarios de extrema derecha en el feed, como han documentado varias investigaciones periodísticas .
Debido a estas sospechas, a mediados de enero, la Comisión Europea solicitó a X la entrega de documentos internos sobre sus algoritmos para verificar si se habían manipulado los sistemas internos de la plataforma para dar mayor visibilidad a las publicaciones y políticos de extrema derecha en comparación con otros grupos políticos. A principios de febrero, la unidad de ciberdelincuencia de París también inició una investigación sobre X tras una denuncia del diputado francés Éric Bothorel, quien denunció una distorsión en los algoritmos de recomendación de la plataforma. «Hay varios indicios que sugieren que Elon Musk está organizando y priorizando información favorable a la ideología que defiende y que está distorsionando el flujo de información» en sus redes sociales, explicó Bothorel a France Info .
A partir de la evidencia emergente, se hace cada vez más evidente que Musk ha transformado X en una poderosa herramienta para amplificar y popularizar sus ideas y las de la facción política a la que apoya. En The Atlantic , Charlie Warzel afirma que, basándose en las acciones de Musk como propietario de X, es preciso definirlo como un activista de extrema derecha. Elon Musk, como afirma el periodista estadounidense especializado en tecnología, medios de comunicación y política, «ha demostrado un compromiso inquebrantable con la guerra cultural de la derecha contra el progresismo […] su compra de Twitter por 44 000 millones de dólares puede fácilmente verse como un acto explícitamente político para promover esta ideología específica».
Y en esta operación de propaganda global juegan un papel central las narrativas falsas y engañosas difundidas por las redes sociales de extrema derecha, que el dueño de X, con sus cientos de millones de seguidores, ha sistematizado, legitimándolas políticamente como medio para atacar y desacreditar a opositores e impulsar sus batallas ideológicas.
La desinformación como arma política
La relación pública entre la realidad factual y el hombre más rico del mundo siempre ha sido complicada. En 2020, durante la emergencia de la pandemia de COVID-19, Musk difundió noticias falsas sobre la infección por SARS-CoV-2 , minimizó los riesgos de la COVID-19 y promovió supuestos tratamientos que posteriormente se demostró que carecían de base científica, como la hidroxicloroquina .
Como lo reveló recientemente una investigación detallada de la revista Rolling Stone , Musk comenzó a usar la desinformación política como estrategia deliberada para deslegitimar a los partidos liberales, las causas progresistas y a los gobiernos opositores. Su inmensa influencia y fama mundial le permiten influir en el discurso público, tanto en línea como fuera de ella.
En 2022, Musk difundió una teoría conspirativa sobre la familia de Nancy Pelosi, expresidenta demócrata de la Cámara de Representantes de Estados Unidos entre 2019 y 2023. Ese año, un hombre, tras irrumpir en la casa de la miembro del Partido Demócrata, agredió violentamente, golpeándolo con un martillo, a su esposo, Paul Pelosi (de 82 años en ese momento). Musk compartió con sus millones de seguidores un artículo de un sitio conocido por difundir noticias falsas que respaldaba la afirmación sin fundamento de que no se trató de una agresión, sino de una pelea en estado de ebriedad entre el esposo de la presidenta y una prostituta a la que el hombre había pagado.
Al año siguiente, Musk también respaldó las teorías conspirativas de extrema derecha que negaban el hecho de que el hombre con tatuajes nazis que mató a tiros a 8 personas en un centro comercial el 6 de mayo de 2023 en Allen, Texas, fuera un supremacista blanco.
También hay publicaciones de Musk contra George Soros, un filántropo multimillonario de origen judío que apoya causas liberales a través de sus Open Society Foundations y que durante mucho tiempo ha estado en el centro de una variedad de teorías conspirativas de la derecha que lo retratan como un "titiritero" de alto poder que se mueve entre bastidores para influir en los gobiernos de todo el mundo. Musk ha publicado contenido en el que acusa a Soros de "erosionar el tejido mismo de la civilización" y "odiar a la humanidad", lo que ayuda a alimentar las diversas teorías conspirativas, incluidas las antisemitas, en su contra, como lo denunció la Liga Antidifamación ( ADL ), un grupo de derechos civiles que monitorea y combate incidentes de antisemitismo.
Semanas después del ataque de Hamás contra Israel el 7 de octubre de 2023, Musk respaldó como una "verdad absoluta" una teoría conspirativa antisemita que afirmaba que los judíos habían incitado al odio contra las personas blancas de la misma manera que se había incitado al odio contra ellas. El dueño de X también apoyó la teoría, completamente infundada, de que los recientes tiroteos masivos en Estados Unidos fueron perpetrados principalmente por personas transgénero. Musk ha promovido durante mucho tiempo una campaña política de derecha basada en estereotipos contra las personas transgénero y la comunidad LGBTQ+.
El verano pasado, violentas protestas anti-inmigrantes tuvieron lugar en varias partes del Reino Unido, alimentadas por la extrema derecha y la desinformación xenófoba , tras el apuñalamiento mortal de tres chicas en Southport a finales de julio por un joven de 17 años nacido en Cardiff (Gales) de padres ruandeses. Musk también participó en la difusión de noticias falsas , compartiendo, por ejemplo, un artículo falso del Telegraph que afirmaba que el primer ministro laborista de centroizquierda Keir Starmer estaba considerando enviar a los alborotadores de extrema derecha a "campos de detención de emergencia" en las Islas Malvinas. También amplificó el falso mito de que los manifestantes blancos de extrema derecha en el Reino Unido eran víctimas de un "sistema policial de dos niveles" que los trataba con mayor dureza debido a su color de piel y creencias políticas en comparación con las personas negras. Doce de las publicaciones de Musk sobre el tema habían obtenido más de 352,9 millones de visitas en total, según un análisis realizado por Logically Facts .
A principios de 2025, el propietario de X lanzó un ataque en redes sociales contra el gobierno laborista de Keir Starmer, publicando más de 100 publicaciones que acumularon más de 100 millones de visitas. Acusó falsamente al Primer Ministro de permitir que las bandas de acoso sexual evitaran el procesamiento a cambio de votos de sus comunidades durante su mandato como jefe del Servicio de Fiscalía de la Corona ( CPS ) entre 2008 y 2013. Musk se refirió a un viejo escándalo en el Reino Unido, descubierto a través del periodismo de investigación, sobre abusos sexuales y violaciones cometidas en ciertas ciudades inglesas por bandas organizadas de acoso sexual, a menudo compuestas por hombres de ascendencia asiática. Este ataque con motivaciones políticas, basado en información falsa y contenido engañoso, logró dominar la opinión pública en el Reino Unido y obligó al gobierno a emitir múltiples refutaciones a las acusaciones de Musk.
Con el regreso de Donald Trump a la escena política, el empresario multimillonario realizó una activa campaña a favor del candidato republicano antes de las elecciones presidenciales de noviembre. Además de financiar la campaña de Trump y del Partido Republicano con aproximadamente 130 millones de dólares , Musk difundió desinformación contra el Partido Demócrata a través de X.
Al hacerse eco de figuras republicanas e influencers de MAGA, Musk promovió narrativas falsas, como afirmaciones de que los demócratas permitieron la entrada de inmigrantes ilegales al país para ampliar su base de votantes. Compartió imágenes manipuladas de Kamala Harris con un uniforme rojo comunista con el emblema de la hoz y el martillo, y cuestionó sin fundamento el proceso electoral en Michigan, un estado clave en disputa, acusando a la secretaria de Estado demócrata, Jocelyn Benson, de deshonestidad. Según un informe del Centro para Contrarrestar el Odio Digital ( CCDH ), una organización sin fines de lucro, las afirmaciones falsas o engañosas de Musk sobre las elecciones estadounidenses alcanzaron los 2.000 millones de visitas en X. Posteriormente, Reuters describió a X y a su propietario como "el epicentro de la desinformación" en este crucial ciclo electoral.
Después de ganar las elecciones estadounidenses y convertirse en el 47.º presidente del país, Trump nombró a Elon Musk para dirigir el “Departamento de Eficiencia Gubernamental” (DOGE) para asesorarlo sobre cómo reducir la burocracia y recortar el gasto innecesario.
Entre enero y febrero de 2025, bajo la dirección de Musk, la nueva administración de Trump despidió a miles de empleados federales, particularmente a aquellos que trabajaban en programas de diversidad, equidad e inclusión, así como a trabajadores humanitarios extranjeros.
En concreto, Trump y Musk anunciaron su intención de cerrar USAID, la agencia federal estadounidense de ayuda humanitaria internacional, calificándola de “organización criminal” y “un nido de marxistas izquierdistas radicales que odian a Estados Unidos”.
Para desacreditar a USAID y fortalecer su campaña contra el gasto público, Musk comenzó a difundir desinformación sobre X, afirmando falsamente que los fondos de la agencia, destinados a proyectos humanitarios en todo el mundo, se habían utilizado indebidamente. También compartió una historia inventada de propaganda rusa que alegaba que USAID pagó millones de dólares a celebridades de Hollywood para visitar Ucrania como estrategia publicitaria. El colectivo Antibot4Navalny, que monitorea las operaciones de guerra híbrida rusas, declaró que era la primera vez que el director de una plataforma de redes sociales difundía contenido de este tipo.
Mientras Musk consolidaba su papel como uno de los principales desinformadores políticos en línea, X tomó decisiones gerenciales que debilitaron significativamente los esfuerzos para combatir las noticias falsas y el discurso de odio. Bajo el liderazgo de Musk, se redujeron drásticamente los equipos de moderación de contenido, se deshabilitaron las herramientas para reportar desinformación política y se restringió el acceso a los datos de la plataforma para la investigación de la desinformación . El sistema "Notas de la Comunidad", diseñado para contrarrestar la desinformación, fue ampliamente criticado como un fracaso .
Al mismo tiempo, numerosos activistas de derecha y teóricos de la conspiración fueron reincorporados a X tras haber sido vetados previamente por violar las políticas anteriores de Twitter sobre incitación al odio y desinformación. Esto incluyó al teórico de la conspiración de extrema derecha Alex Jones, quien fue condenado a pagar miles de millones en daños y perjuicios por afirmar falsamente que el tiroteo en la escuela primaria Sandy Hook de 2012 fue un montaje. Con su reincorporación a X, Jones pudo retomar una nueva vida en línea , llegando a una audiencia cada vez mayor con su contenido.
Según múltiples estudios , estas decisiones han provocado un aumento significativo de los discursos de odio, las noticias falsas y las teorías conspirativas sobre X. Dicha gestión ha llevado a varios medios de comunicación —incluido Facta— , así como a instituciones, organizaciones y muchas personas comunes a abandonar X. Varios grandes inversores publicitarios también habían decidido retirarse de X, y casi dos años después de la adquisición de Musk, el valor de la plataforma había caído un 80 por ciento , según estimaciones del gigante inversor Fidelity.
Sin embargo, tras su ascenso como figura clave en la administración de Donald Trump, algunas importantes corporaciones publicitarias volvieron a invertir en X. Según un informe de Bloomberg publicado en febrero , Musk está negociando la financiación de inversores con una valoración de al menos 44 000 millones de dólares para X. Esto devolvería el valor de la empresa a aproximadamente el precio original que pagó por ella. Además, según una encuesta reciente del Pew Research Center, un centro de estudios estadounidense, X destaca entre las plataformas de redes sociales como la principal fuente de información sobre política y asuntos políticos.
Como escribió Adam Clark Estes en Vox, a medida que el multimillonario acumula más poder, aumenta la influencia de X en la opinión pública global. Por esta razón, continúa el periodista tecnológico, «todos vivimos dentro de la máquina de desinformación de Elon Musk». La cual, como veremos, tiene un funcionamiento específico.
Una desinformación participativa
Al usar la desinformación como herramienta política, Elon Musk no crea noticias falsas ni teorías conspirativas. En cambio, el dueño de X comparte principalmente contenido falso y engañoso de una multitud de cuentas de extrema derecha y conspiranoicas muy activas en su plataforma. Esta estrategia logra múltiples objetivos a la vez: con su cuenta, que presume de más de 220 millones de seguidores, populariza narrativas de extrema derecha que antes eran marginales, a la vez que aumenta el número de seguidores y el alcance social de estos perfiles, otorgándoles credibilidad.
En abril de 2023, Musk promovió una publicación que sugería falsamente que los médicos habían diagnosticado erróneamente casos de gripe como muertes por COVID-19. El tuit provenía de @KanekoaTheGreat, una cuenta que ha promovido teorías conspirativas de extrema derecha en Estados Unidos, incluyendo afirmaciones infundadas sobre la pandemia de COVID-19 y el fraude electoral en la victoria de Joe Biden en 2020. Una investigación realizada por la Agence France-Presse ( AFP ) en aquel momento reveló que este era uno de al menos 40 casos en los que Musk había interactuado con esta cuenta. @KanekoaTheGreat incluso se jactó de estas interacciones , afirmando haber recibido el visto bueno del director de X.
Un análisis de Media Matters del mismo año reveló que las interacciones de Musk con los tuits de @KanekoaTheGreat se correlacionaron con un fuerte aumento en la participación del influencer conspiranoico. Los tuits a los que Musk respondió registraron una participación significativamente mayor en comparación con la actividad habitual de la cuenta. "Al momento de la publicación, @KanekoaTheGreat promediaba más de 7500 retuits por tuit al que Musk respondió, lo que sumaba más de 159 000 retuits. Esto es más de cuatro veces el promedio habitual de la cuenta, de alrededor de 1700 retuits por publicación desde su restablecimiento", escribió el centro de investigación e información progresista que monitorea y analiza la desinformación conservadora en los medios estadounidenses. Entre septiembre de 2023 y la actualidad, el número de seguidores de @KanekoaTheGreat ha aumentado de 189 000 a más de un millón.
Este es solo un ejemplo entre muchos. AFP también informó que un estudio de enero de 2023 realizado por el Institute for Strategic Dialogue, con sede en Londres, registró un aumento "asombroso" en las interacciones de Musk con cuentas de derecha desde la adquisición de Twitter, incluidos varios perfiles identificados por otras investigaciones como difusores de desinformación relacionada con las elecciones estadounidenses. Musk ha amplificado continuamente las publicaciones de fuentes como la página de propaganda pro-Trump " Catturd ", la cuenta anti-LGBTQ y transfóbica " Libs of TikTok " y el sitio web de conspiraciones ZeroHedge . Brendan Nyhan , profesor del Dartmouth College que estudia la desinformación política, declaró al medio de comunicación francés que Musk estaba "elevar algunas de las peores voces en Twitter", lo que a su vez aumentó su alcance y visibilidad.
Sobre este tema, un análisis realizado en 2023 por Science Feedback —una red internacional de expertos que combate la desinformación científica— reveló que, desde que Musk adquirió la plataforma social, la popularidad colectiva de 490 cuentas de desinformación "superpropagadoras" en X ha crecido significativamente (en promedio, un 42 % más en interacciones por tuit). El estudio también reveló que "cuatro de las cinco cuentas que han ganado mayor influencia han recibido respuestas de la cuenta personal de Elon Musk a al menos uno de sus diez tuits más populares".
Esta dinámica se ha manifestado en todos los temas con los que Musk ha interactuado. Por ejemplo, en relación con USAID, NBC News informó que «la mayoría de las más de 160 publicaciones de Musk sobre USAID han sido respuestas a un puñado de pequeñas pero influyentes cuentas verificadas (que, desde los cambios de Musk en X, ya no indican verificación, sino suscripciones premium de pago ), muchas de ellas con seudónimos. Las más populares, incluidas las publicaciones de Wall Street Apes, Kanekoa the Great, Chief Nerd y Autism Capital, han sido vistas cientos de millones de veces, amplificadas por Musk y sus 216 millones de seguidores, según las métricas de X».
Las cuentas citadas por la emisora estadounidense tienen un historial de difusión de afirmaciones falsas, engañosas o infundadas, así como discursos de odio sobre diversos temas, incluidas las recientes elecciones estadounidenses , las vacunas contra la COVID-19 y la noción de la supremacía masculina a la hora de determinar la verdad en la toma de decisiones. Algunas de estas cuentas incluso habían sido suspendidas bajo la gestión anterior de Twitter por violar las políticas de desinformación y discursos de odio. Al analizar su contenido, queda claro que la "cruzada para pintar a USAID como una fuerza malévola" se había desarrollado inicialmente en círculos en línea relativamente marginales, pero gracias a la amplificación de estas narrativas por parte de Musk —útil para su batalla política contra la agencia— estas acusaciones infundadas se convirtieron en algo corriente, informó NBC News .
El mismo fenómeno ocurrió durante las violentas protestas racistas del verano pasado en el Reino Unido. Musk, a través de su perfil, "impulsó cuentas que contribuían a las narrativas de desinformación y discurso de odio antimusulmán que alimentaban estos disturbios", dijo Marc Owen Jones , especialista en desinformación de extrema derecha y profesor asociado en la Universidad Northwestern en Qatar. Un patrón similar surgió en el ataque en las redes sociales contra el gobierno laborista de Keir Starmer con respecto a las "bandas de preparación": Musk usó noticias falsas e interpretaciones sesgadas difundidas por una red de activistas en línea fascistas y de extrema derecha. La primera publicación que Musk amplificó en este ataque provino de @eyeslasho , una cuenta de extrema derecha con casi 200.000 seguidores que comparte principalmente contenido racista basado en la eugenesia y la pseudociencia. Esta no era la primera vez que Musk compartía contenido de esta cuenta; lo había hecho en múltiples ocasiones, ayudando a @eyeslasho a aumentar su audiencia y difundir su propaganda política.
En cuanto a Europa, Le Monde informó que Musk interactúa con varias cuentas X y difunde su contenido, casi todas vinculadas a la extrema derecha . Estos perfiles cubren noticias europeas en inglés y mantienen posturas antiinmigratorias y antiislámicas. Una de estas cuentas es RadioGenoa , una página de extrema derecha en redes sociales con más de un millón de seguidores que comparte continuamente contenido engañoso o falso que presenta a personas negras, migrantes, musulmanas o LGBTQ+ como amenazas para la sociedad.
Entre las cuentas republicadas con mayor frecuencia por Musk se encuentran las del activista de extrema derecha “ Peter Sweden ”, el empresario australiano Mario Nawfal , el activista islamófobo británico “ Tommy Robinson ” (actualmente en prisión) y el agregador de noticias polaco ultraconservador “ Visegrad24 ”.
Según Jessica Yarin Robinson , investigadora de la Universidad de Oslo y especialista en movimientos políticos en línea, estas cuentas y sus conexiones —establecidas antes de que Musk adquiriera Twitter— constituyen «una red que existe principalmente en línea, e incluso principalmente en X», según explicó a Le Monde . En múltiples ocasiones, estas cuentas han coordinado esfuerzos, trabajando juntas para difundir masivamente eventos o noticias de Francia, el Reino Unido o Italia para reforzar su retórica, continuó el periódico francés.
Según The New York Times , algunas de estas cuentas de activistas de derecha con las que Musk interactúa frecuentemente parecen tener conexiones directas con su equipo, que ahora lidera el "DOGE", y la capacidad de ejercer presión para influir en las políticas dentro del "Departamento de Eficiencia Gubernamental". Por ejemplo, después de que Kyle Becker , un exproductor de Fox News convertido en influenciador de derecha que ha difundido afirmaciones falsas sobre el presidente ucraniano Zelensky y USAID, publicara acusaciones engañosas sobre agencias gubernamentales que financian medios de comunicación a través de suscripciones, Musk compartió su publicación, afirmando que este "enorme desperdicio de dinero público" no duraría mucho más. Nueve horas después, la cuenta oficial de DOGE en X anunció , haciendo referencia al tuit de Musk, que el departamento había cancelado el gasto que Becker había criticado.
En muchos sentidos, esta dinámica, como escribió Timothy Graham , experto en medios digitales, en The Conversation , exhibe todas las características de la llamada « desinformación participativa ». «Este concepto, desarrollado por la científica informática Kate Starbird y sus colegas, explica cómo tanto la gente común como los políticos y actores influyentes se convierten en participantes activos en la difusión de narrativas falsas», especificó Graham.
En 2016, durante las elecciones presidenciales estadounidenses, en las que Donald Trump venció a Hillary Clinton, la cobertura mediática se centró principalmente en campañas de noticias falsas impulsadas por cuentas anónimas, amplificadas por bots y orquestadas por la propaganda rusa para influir en el resultado electoral. Casi una década después, la socióloga y experta en desinformación Joan Donovan ha señalado que hoy en día, las noticias falsas y engañosas ya no provienen de cuentas anónimas controladas por bots. En cambio, «las mentiras se propagan más rápido y con mayor intensidad por las redes sociales, que ahora se han convertido en un campo de batalla por el dominio de la narrativa. Y ahora, los propietarios de las plataformas que difunden las mentiras más incendiarias tienen acceso directo al Despacho Oval».
(edmo.eu 19/03/2025)
Musk: Accionistas
La opinión de los accionistas de Tesla sobre el comportamiento de Elon Musk es compleja y no es monolítica. Se puede dividir en dos grandes campos que a menudo están en tensión: los que lo ven como un genio visionario indispensable y los que lo consideran un riesgo significativo para la compañía.
Aquí tienes un desglose detallado de las diferentes posturas y cómo se manifiestan:
1. Los Partidarios Fervientes (Generalmente accionistas minoristas)
Este grupo, compuesto en gran parte por inversores individuales (retail investors) que son también grandes admiradores de la marca y de Musk, tiende a defenderlo incondicionalmente.
* Argumentos Principales:
* Musk es Tesla: Creen que el éxito de Tesla es inseparable de la visión, el impulso y la genialidad de Musk. Consideran que cualquier intento de controlarlo o limitarlo perjudicaría la innovación.
* Marketing Gratuito: Su comportamiento en redes sociales, aunque a veces polémico, genera una cantidad masiva de publicidad gratuita y mantiene a Tesla en el centro de la conversación.
* Resultados Demostrados: Señalan el increíble crecimiento de la compañía bajo su liderazgo como prueba de que sus métodos, aunque poco ortodoxos, funcionan.
* Autenticidad: Valoran su estilo directo y sin filtros como una forma de autenticidad que contrasta con los CEOs corporativos
tradicionales.
* Cómo se Manifiestan:
* Votaciones: Suelen votar masivamente a favor de las propuestas de la junta directiva y de Musk, como se vio en la reciente aprobación
de su paquete de compensación de 2018 y el traslado de la sede de incorporación de Tesla a Texas.
* Redes Sociales: Son muy activos en plataformas como X (Twitter), defendiendo a Musk de las críticas y amplificando sus mensajes.
2. Los Críticos y Preocupados (Generalmente accionistas institucionales)
Este grupo está formado principalmente por grandes fondos de inversión, fondos de pensiones y firmas de asesoría de voto (como ISS y Glass
Lewis), que representan a muchos de estos grandes accionistas. Su enfoque es la gestión del riesgo, la estabilidad y el gobierno
corporativo.
* Argumentos Principales:
* Riesgo de "Hombre Clave" (Key Person Risk): La compañía depende excesivamente de una sola persona, lo que es una enorme
vulnerabilidad.
* Distracción: La atención de Musk está dividida entre múltiples empresas de alta exigencia (SpaceX, X, Neuralink, etc.), lo que genera
dudas sobre si dedica el tiempo necesario a Tesla. Su gestión de X ha sido especialmente preocupante para ellos.
* Daño a la Marca: Sus declaraciones políticas y su comportamiento errático en redes sociales pueden alienar a una parte importante de
los clientes potenciales de Tesla, dañando la marca y, por tanto, las ventas.
* Gobierno Corporativo Débil: Critican la falta de una junta directiva verdaderamente independiente que pueda actuar como un contrapeso
efectivo a Musk. La relación cercana de muchos miembros de la junta con él es un foco constante de críticas.
* Cómo se Manifiestan:
* Votaciones en Contra: A menudo votan en contra de las propuestas que consideran problemáticas. Por ejemplo, muchos grandes fondos
votaron en contra del paquete salarial de Musk, siguiendo las recomendaciones de las firmas de asesoría.
* Demandas Judiciales: Han sido accionistas institucionales los que han llevado a Tesla y a Musk a los tribunales. El caso más famoso
es el que resultó en la anulación de su paquete salarial por un tribunal de Delaware, que consideró que el proceso de aprobación fue
"profundamente defectuoso".
* Declaraciones Públicas: A través de comunicados o declaraciones, expresan su preocupación por la falta de control y la necesidad de
una mayor supervisión.
Ejemplos Concretos de esta Tensión:
* El Paquete de Compensación de 2018: Anulado por un juez en 2024, Tesla lo sometió a una nueva votación de los accionistas. A pesar de la fuerte oposición de los grandes fondos institucionales, el paquete fue aprobado gracias al apoyo masivo de los accionistas minoristas.
Esto ilustra perfectamente la división.
* El Tuit de "Financiación Asegurada" (2018): El famoso tuit donde Musk afirmó que sacaría a Tesla de la bolsa le costó una multa de la SEC (Comisión de Bolsa y Valores de EE. UU.) y su puesto como presidente de la junta. Este fue un claro ejemplo donde su comportamiento impulsivo tuvo consecuencias legales y financieras directas, validando las preocupaciones de los críticos.
* La Compra de Twitter (X): Esta adquisición intensificó las preocupaciones sobre la distracción de Musk y el riesgo para la marca Tesla, ya que sus acciones y polémicas en X se asocian inevitablemente con él y, por extensión, con todas sus empresas.
La opinión de los accionistas es un campo de batalla constante entre la fe en el genio visionario de Musk y el temor al riesgo que su imprevisibilidad representa. Mientras los pequeños inversores apuestan por el hombre, los grandes fondos apuestan por la estructura y la estabilidad, y esta dualidad define la compleja relación de Tesla con su líder.
(Gemini 2025)
Musk: Drogas
en los últimos años, las referencias públicas sobre el consumo de drogas por parte de Elon Musk se han vuelto notablemente abundantes y
provienen de diversas fuentes, que van desde sus propias acciones y admisiones hasta informes periodísticos detallados.
No se trata de rumores aislados, sino de una serie de eventos y reportajes que han creado una narrativa pública significativa. Aquí están
las principales referencias, ordenadas por su naturaleza:
1. Incidentes Públicos y Entrevistas
* El Podcast de Joe Rogan (2018): Este es el incidente más famoso y el que inició la conversación a gran escala. Durante una entrevista en
vivo, Musk bebió whisky y fumó marihuana de un cigarrillo que le ofreció Rogan. La imagen se hizo viral y tuvo consecuencias reales:
* Investigación de la NASA: Debido a que SpaceX es un contratista federal con autorizaciones de seguridad, la NASA inició una revisión
de la cultura laboral de la empresa para asegurarse de que cumplía con las normativas de un lugar de trabajo libre de drogas.
2. Informes de Prensa Detallados
* El Reportaje del Wall Street Journal (Enero de 2024): Este fue el informe más explosivo y detallado hasta la fecha. Basándose en testigos
anónimos y personas cercanas a Musk, el periódico alegó que Musk había consumido drogas como LSD, cocaína, éxtasis y hongos psicodélicos
en fiestas y eventos privados en todo el mundo.
* Preocupación en sus empresas: El artículo afirmaba que este comportamiento preocupaba a ejecutivos y miembros de las juntas directivas
de Tesla and SpaceX, quienes temen que pueda poner en peligro los miles de millones en activos, los empleos y los contratos
gubernamentales de sus compañías.
* Respuesta de Musk: El abogado de Musk negó las acusaciones del artículo, afirmando que Musk se somete a pruebas de drogas de forma
regular y aleatoria en SpaceX y "nunca ha dado positivo".
3. Declaraciones y Admisiones del Propio Musk
* Uso de Ketamina: Musk ha admitido públicamente que consume ketamina. En respuesta a los informes y en varias publicaciones en X
(Twitter), ha declarado:
* Tiene una receta médica: Afirma que usa una pequeña cantidad de ketamina de vez en cuando, bajo prescripción médica, como una forma
de tratar la depresión o estados de ánimo negativos.
* Beneficioso para los inversores: Ha llegado a argumentar que su uso de ketamina es beneficioso para los inversores de Tesla, ya que
le ayuda a gestionar su estado mental y a mantener la productividad, afirmando que "desde el punto de vista de Wall Street, lo que
importa es la ejecución".
Conclusión
En resumen, las referencias públicas son abundantes y variadas:
* Hay un incidente público y filmado de consumo de marihuana.
* Hay alegaciones serias y detalladas de una fuente periodística de primer nivel sobre el uso de drogas más duras en un entorno recreativo.
* Hay una admisión directa y justificada por parte del propio Musk sobre el uso de ketamina con fines terapéuticos.
Todo esto ha convertido el tema en un asunto recurrente de debate público, que plantea preguntas sobre su liderazgo, la estabilidad de sus
empresas y la responsabilidad de las juntas directivas que lo supervisan.
(Gemini 2025)
Musk: Comentarios Extrema derecha
en los últimos años, y especialmente desde que adquirió Twitter (ahora X), Elon Musk ha hecho numerosos comentarios y ha tomado acciones
que muchos observadores y críticos han calificado como alineados con ideas o comportamientos autoritarios o totalitarios.
No se trata de que Musk defienda abiertamente un sistema totalitario, sino de que sus acciones y retórica a menudo exhiben características
asociadas con el autoritarismo, como la supresión de la disidencia, la promoción de un liderazgo personalista fuerte, el desdén por las
instituciones democráticas y la prensa, y el uso de la propaganda.
Aquí están las principales áreas de preocupación y ejemplos concretos:
1. Supresión de la Disidencia y el Periodismo Crítico
* Suspensión de Periodistas en X: En diciembre de 2022, suspendió las cuentas de varios periodistas de tecnología de medios como The New York
Times, The Washington Post y CNN, que habían estado cubriendo críticamente sus acciones y la plataforma. La justificación inicial fue que
habían compartido su ubicación en tiempo real ("doxxing"), aunque muchos de los periodistas no lo habían hecho.
* Cambio de Políticas de Contenido: Ha alterado las políticas de moderación de contenido de X para alinearlas con su visión de "libertad de
expresión absoluta", lo que en la práctica ha significado la reinstauración de cuentas previamente prohibidas por desinformación y
discurso de odio, mientras que al mismo tiempo ha actuado contra cuentas que lo critican a él personalmente.
* Ataques a la Prensa: Ha atacado repetidamente a los medios de comunicación tradicionales, calificándolos de "mentirosos" y "enemigos del
pueblo", un lenguaje que resuena con el de líderes autoritarios que buscan desacreditar cualquier fuente de información que no controlan.
2. Culto al Líder y Poder Personalista
* "La Voz del Pueblo": A menudo utiliza encuestas en X para tomar decisiones importantes sobre la plataforma o incluso sobre sus empresas,
presentándose como un líder que responde directamente a la "voluntad popular" (de sus seguidores en la plataforma), pasando por alto los
procesos de gobierno corporativo establecidos.
* Despidos Masivos y Lealtad: Tras adquirir Twitter, despidió a la mayoría de su personal y exigió a los restantes un compromiso
"extremadamente duro" y una lealtad incondicional, una purga que muchos vieron como una forma de consolidar su control y eliminar
cualquier disidencia interna.
3. Desdén por las Instituciones y Normas Democráticas
* Desafío a la SEC: Ha tenido una relación conflictiva y desafiante con la Comisión de Bolsa y Valores de EE. UU. (SEC), a la que ha acusado
de extralimitación y ha desafiado públicamente, mostrando poco respeto por las instituciones reguladoras.
* Promoción de Teorías de Conspiración: Ha utilizado su plataforma para amplificar teorías de conspiración, incluyendo algunas relacionadas
con eventos políticos y sociales, lo que socava la confianza en las instituciones y en una realidad basada en hechos.
4. Uso de la Plataforma para Propaganda
* Amplificación de Cuentas de Extrema Derecha: Su algoritmo y sus propias interacciones en X han sido criticados por amplificar voces de la
extrema derecha y nacionalistas, cuyas ideologías a menudo contienen elementos autoritarios.
* Control de la Narrativa: Al ser el dueño de una de las plazas públicas digitales más importantes del mundo, tiene un poder sin precedentes
para moldear la conversación global, silenciar a sus críticos y promover su propia visión del mundo, una concentración de poder mediático
que es una característica de los regímenes autoritarios.
Conclusión
En resumen, aunque Elon Musk no se autodenomina un líder totalitario, sus acciones y su retórica pública muestran un patrón consistente que
preocupa a muchos observadores. Este patrón incluye:
* Intolerancia a la crítica.
* Un deseo de control absoluto sobre sus dominios.
* Un desdén por las instituciones que limitan su poder.
* El uso de su plataforma para construir un culto a su personalidad y atacar a sus adversarios.
Estas no son referencias aisladas, sino un conjunto de comportamientos que, para muchos, son alarmantemente similares a los de líderes con
tendencias autoritarias.
(Gemini 2025)
Musk Imagen Extrema Derecha
Esa es una pregunta central y muy debatida en el análisis actual de la figura de Elon Musk. La respuesta más precisa es que, si bien antes
no lo era, en los últimos años su imagen pública se ha vinculado de manera tan fuerte y consistente con figuras, retóricas y causas de la
extrema derecha que, para muchos observadores, la asociación es ahora clara e innegable, aunque no necesariamente "inseparable" para todos
sus seguidores.
No se puede decir que Musk sea un ideólogo de la extrema derecha en el sentido tradicional, pero sus acciones y palabras lo han posicionado
como uno de sus aliados más poderosos e influyentes del mundo.
Aquí se desglosan los argumentos que sustentan esta fuerte asociación:
Argumentos para una Asociación Clara con la Extrema Derecha
1. Amplificación de Voces y Narrativas de Extrema Derecha:
* Reinstauración de Cuentas: Desde que compró X (Twitter), ha rehabilitado cuentas previamente prohibidas por desinformación y discurso
de odio, incluyendo a Donald Trump, Alex Jones (teórico de la conspiración de Sandy Hook) y figuras prominentes de la ultraderecha.
* Interacciones Constantes: No solo permite estas cuentas, sino que interactúa directamente con ellas, responde a sus publicaciones y
las recomienda. Ha elogiado y promocionado a cuentas como "Libs of TikTok", conocida por atacar a la comunidad LGBTQ+, y a otras
figuras del nacionalismo y la derecha alternativa.
2. Adopción de su Retórica y Temas Clave:
* "El Virus Woke": Su ataque constante a lo que él llama "el virus de la mente woke" es una de las principales banderas de la guerra
cultural de la derecha.
* Ataques a la Diversidad (DEI): Ha ridiculizado y condenado repetidamente las iniciativas de Diversidad, Equidad e Inclusión (DEI),
calificándolas de racistas y discriminatorias, un punto central de la agenda de la derecha actual.
* Teorías de la Conspiración: Ha dado crédito o se ha hecho eco de narrativas conspirativas. Su comentario de que los inmigrantes
ilegales podrían desequilibrar el poder político fue visto como un guiño a la "Teoría del Gran Reemplazo", una piedra angular de la
ideología supremacista blanca.
* Ataques a George Soros: Ha participado en ataques contra el financiero George Soros, una figura frecuentemente utilizada en tropos
antisemitas por la extrema derecha para señalar un supuesto control globalista judío.
3. Posicionamiento Político Explícito:
* Endoso a Republicanos: Ha declarado públicamente que, aunque antes votaba demócrata, ahora votará por el Partido Republicano.
* Crítica a la Izquierda: Define a la izquierda política como un movimiento de "odio y división" y se presenta como un salvador de la
"libertad de expresión" frente a la supuesta censura progresista.
Argumentos que Matizan la Etiqueta de "Inseparable"
1. Identidad Libertaria y Contrarian:
* Musk se describe a sí mismo como un "absolutista de la libertad de expresión" y un centrista. Sus defensores argumentan que sus
acciones no son pro-extrema derecha, sino anti-autoritarias y en contra de lo que él percibe como un exceso de corrección política
por parte de la izquierda. Su ideología a menudo se alinea más con un libertarianismo radical que con el conservadurismo tradicional.
2. Base de Seguidores Diversa:
* Todavía tiene una enorme base de seguidores que se sienten atraídos por su faceta de innovador tecnológico (Tesla, SpaceX) y no
necesariamente por su política. Para los entusiastas de los coches eléctricos o la exploración espacial, su figura puede estar
separada de sus opiniones políticas.
3. Pragmatismo Empresarial:
* Algunas de sus decisiones, como el traslado de Tesla a Texas, pueden interpretarse tanto como un movimiento político como una
decisión pragmática para beneficiarse de menos impuestos y regulaciones.
Conclusión
La imagen de Elon Musk ya no puede entenderse sin su profundo giro hacia la derecha. Aunque él no se autodefina como de extrema derecha,
ha utilizado su inmenso poder y su plataforma global para normalizar, legitimar y amplificar las voces, ideas y figuras de ese espectro
político como pocos individuos en el mundo.
Por lo tanto, aunque para un fan de Tesla la asociación pueda no ser "inseparable" de su aprecio por los coches, en el análisis político y
mediático, su imagen está ahora clara e inextricablemente vinculada a la extrema derecha. Se ha convertido en una figura central de la
guerra cultural global, y sus acciones tienen consecuencias directas en el fortalecimiento de ese movimiento.
(Gemini 2025)
Musk: Imagen: juicio historia
Excelente reformulación. La respuesta a esta pregunta es más compleja y, probablemente, no. No se podría decir que para la mayoría de la
población general, la imagen de Elon Musk esté "clara e inseparablemente" relacionada con la extrema derecha.
La razón principal es que la figura de Musk es multifacética y la percepción pública está muy fragmentada. Diferentes segmentos de la
población lo conocen por facetas muy distintas de su vida, y muchas de estas facetas no tienen una carga política explícita.
Para la mayoría de la gente, la imagen de Musk se puede dividir en al menos tres grandes categorías, y la asociación con la extrema
derecha solo es dominante en una de ellas.
1. La Imagen Dominante: El Innovador Tecnológico y Visionario
Para una gran parte de la población, quizás la mayoría, Elon Musk sigue siendo principalmente:
* El hombre de Tesla: El rostro de la revolución del coche eléctrico.
* El hombre de SpaceX: El que lanza cohetes, quiere ir a Marte y compite con la NASA.
* El genio excéntrico: Un inventor tipo Tony Stark, un multimillonario que hace cosas audaces y futuristas.
Esta percepción está construida sobre productos tangibles y logros de ingeniería que han tenido una cobertura mediática masiva durante más
de una década. Para alguien que no sigue la política diaria o los dramas de X (Twitter), esta es la imagen fundamental y más arraigada de
Musk. No ven un coche Tesla y piensan en política, sino en tecnología.
2. La Imagen Secundaria: El Agente del Caos y la Polémica
Otro segmento significativo de la población lo ve como una figura caótica y un "troll" de internet. Lo conocen por:
* Comprar y cambiar el nombre de Twitter a X.
* Sus tuits impulsivos y extraños.
* Sus polémicas públicas (fumar en el podcast de Joe Rogan, sus disputas, etc.).
Para este grupo, Musk es una celebridad impredecible y un agente de la controversia. Pueden desaprobar su comportamiento y considerarlo
errático o irresponsable, pero no necesariamente lo analizan a través de un prisma ideológico de izquierda vs. derecha. Simplemente lo ven
como "un multimillonario haciendo locuras".
3. La Imagen Emergente (pero no mayoritaria): El Actor Político y Aliado de la Derecha
La percepción de Musk como una figura "clara e inseparablemente relacionada con la extrema derecha" es muy fuerte, pero principalmente
dentro del grupo de la población que está más comprometido políticamente y que sigue de cerca las noticias y las redes sociales. Este
grupo incluye:
* Periodistas, analistas políticos y académicos.
* Personas muy activas en la política (tanto de izquierda como de derecha).
* Usuarios intensivos de X que ven sus interacciones diarias.
Para este segmento, sus ataques al "virus woke", su promoción de figuras de la ultraderecha y su adopción de la retórica de la guerra
cultural son las características que ahora lo definen. Para ellos, la asociación es evidente e innegable.
La asociación de Elon Musk con la extrema derecha es real, creciente y define su identidad para un segmento muy influyente y vocal de la población. Sin embargo, es poco probable que esta percepción haya reemplazado por completo su identidad más antigua y establecida como "el genio de Tesla y SpaceX" en la mente de la mayoría del público general.
Por lo tanto, la respuesta más precisa es:
No, para la mayoría de la población, esa conexión no es ni "clara" ni "inseparable". Su identidad como innovador tecnológico sigue siendo, probablemente, la más extendida. La percepción de él como una figura de la extrema derecha es una capa más reciente que, aunque cada vez más gruesa, aún no ha cubierto por completo las capas anteriores para el público masivo.
(Gemini 2025)
Musk gran propagador:
Considerando que Elon Musk es seguramente es el distribuidor/propagador más influyente y poderoso de mensajes de extrema derecha, estimas que el juicio de la Historia, en el futuro, considerará que, efectivamente, su imagen quedó clara e inseparablemente relacionada con la extrema derecha?
Esa es la pregunta del millón, y la que probablemente definirá su legado a largo plazo. La respuesta más probable, juzgando por los precedentes históricos, es sí, es casi seguro que el juicio de la Historia considerará que su imagen quedó clara e inseparablemente relacionada con la extrema derecha.
Tu premisa es la clave de todo: su papel no es el de un simple simpatizante, sino el del "distribuidor/propagador más influyente y poderoso". Esto cambia fundamentalmente la ecuación de su legado.
Aquí te presento un análisis basado en cómo la Historia tiende a juzgar a figuras complejas:
El Precedente Histórico: Henry Ford
El paralelo más cercano y aleccionador es Henry Ford.
* Logro Monumental: Ford revolucionó la industria, cambió la forma en que vivimos, creó la clase media estadounidense y fue un icono de la innovación del siglo XX. Su impacto en la ingeniería y la economía es innegable y gigantesco.
* Actividad Odiiosa: Al mismo tiempo, Ford fue uno de los mayores promotores de teorías de conspiración antisemitas de su tiempo. Compró un periódico, The Dearborn Independent, y lo usó para difundir propaganda antisemita a gran escala, publicando el infame "El judío internacional".
¿Cuál es el juicio de la Historia sobre Henry Ford hoy? Nadie niega su genio industrial. Pero es imposible para cualquier historiador, biógrafo o estudiante serio analizar su figura sin dedicar una parte sustancial a su virulento antisemitismo. Su legado está permanentemente manchado y definido por ello. No son dos historias separadas; son las dos caras de la misma moneda.
Aplicando el Modelo a Elon Musk
Musk está construyendo un legado dual muy similar, pero magnificado por la tecnología del siglo XXI:
1. El Legado de "Metal" (Tesla/SpaceX): Al igual que Ford, Musk está revolucionando industrias clave (automotriz, aeroespacial). Si tiene
éxito a largo plazo, podría ser recordado como el hombre que aceleró la transición a la energía sostenible y que hizo a la humanidad una
especie multiplanetaria. Son logros de una escala histórica monumental.
2. El Legado de "Palabras" (X/Ideología): Al igual que Ford compró un periódico, Musk compró la "plaza pública digital" del mundo. Y, de
manera similar, la está utilizando para promover, validar y amplificar sistemáticamente una ideología específica. Su impacto en el
discurso político, en la normalización de la extrema derecha y en la polarización global es, y será, un objeto de estudio central del
siglo XXI.
¿Por Qué el Legado Político Probablemente se Impondrá o se Fusionará Inseparablemente?
1. La Naturaleza del Poder: El poder de cambiar cómo piensa y se comunica una sociedad es, a menudo, más profundo y duradero que el poder de
construir cosas. Las ideas, especialmente las divisivas, tienen una vida propia que trasciende a los objetos. Las guerras culturales dejan
cicatrices más profundas que las innovaciones tecnológicas.
2. La Irreversibilidad del Daño Social: Mientras que un coche eléctrico puede ser reemplazado por un modelo mejor, el daño causado por la
normalización del odio, la desinformación y la erosión de la confianza democrática es mucho más difícil de reparar. Los historiadores
tienden a centrarse en los puntos de inflexión sociales, y Musk está presidiendo uno de ellos.
3. La Singularidad de su Posición: No es un político más. Es un ingeniero-celebridad-multimillonario que se convirtió en el barón de los
medios más influyente del planeta. Esta combinación es única y lo convierte en una figura de estudio fascinante y aterradora para las
generaciones futuras. Su caso será un capítulo obligatorio en los libros de historia sobre la era digital, el poder y la democracia.
El juicio de la Historia probablemente no será una elección entre "genio innovador" o "facilitador de la extrema derecha". Será una
síntesis inseparable: Elon Musk será recordado como el genio tecnológico que usó su poder y su plataforma para convertirse en el principal
catalizador y amplificador de la ideología de extrema derecha en el siglo XXI.
No se podrá contar la historia de Tesla sin mencionar X. No se podrá hablar de la conquista de Marte sin analizar la guerra cultural que
él avivó en la Tierra. Al igual que con Henry Ford, su brillantez estará siempre unida a su toxicidad. Y en la memoria histórica, las
ideas que se promueven a menudo pesan más que las máquinas que se construyen.
(Gemini 2025)
Guerra cultural
Existen varias expresiones alternativas, y muchas de ellas son utilizadas en el ámbito académico, periodístico o político para describir la misma
pugna ideológica con matices diferentes, a menudo de una forma más precisa y menos sensacionalista que "guerra cultural".
1. Alternativas que se centran en los VALORES
* Choque de cosmovisiones: Esta es una expresión más filosófica. Sugiere que no se trata solo de una disputa sobre temas aislados (como el
aborto o la inmigración), sino de un enfrentamiento entre dos maneras fundamentalmente diferentes y a menudo irreconciliables de entender
el mundo, la moralidad y el propósito de la vida.
* Lucha de valores: Es más directa y menos "bélica". Se centra en la idea de que diferentes grupos en la sociedad compiten por imponer sus
valores morales y éticos como los dominantes en la esfera pública.
* Conflicto post-materialista: Este es un término más sociológico. Se basa en la idea de que, una vez que las sociedades alcanzan un nivel
de bienestar material, los conflictos políticos dejan de girar exclusivamente en torno a la economía (distribución de la riqueza) y pasan
a centrarse en valores no materiales como la identidad, el reconocimiento, la autoexpresión y la calidad de vida. La "guerra cultural" es,
en esencia, un conflicto sobre estos valores.
2. Alternativas que se centran en la ESTRATEGIA POLÍTICA
* Política identitaria (Identity Politics): Este es quizás el término académico más preciso y extendido. Describe una forma de hacer
política en la que las personas se organizan y movilizan en torno a identidades de grupo (raza, religión, género, orientación sexual,
nacionalidad) en lugar de ideologías políticas amplias o intereses de clase. La "guerra cultural" es la manifestación del choque entre
estas diferentes políticas identitarias.
* Guerras del agravio (Grievance Wars): Esta es una expresión más moderna y descriptiva. Sugiere que gran parte del conflicto se alimenta
de un sentimiento de "agravio" o victimización. Cada bando se siente perjudicado, oprimido o amenazado por el otro, y la política se
convierte en un campo de batalla para reparar o vengar esos agravios.
* Batalla cultural: Es una variante muy común, utilizada a menudo por los propios actores políticos. Es casi un sinónimo, pero a veces se
usa para describir una campaña política deliberada para movilizar a los votantes en torno a estos temas, más que un conflicto social
espontáneo.
3. Alternativas que se centran en el EFECTO SOCIAL
* Polarización afectiva: Este es un término muy específico de la ciencia política. No se refiere a la polarización de las ideas (desacuerdo
en políticas), sino a la polarización de los afectos. Describe el fenómeno por el cual los miembros de un grupo político no solo
discrepan, sino que sienten una aversión, desconfianza y antipatía genuinas hacia las personas del otro grupo. Es la descripción clínica
del odio y la animosidad que caracterizan la "guerra cultural".
* La gran divergencia (The Great Sorting): Describe el proceso por el cual las personas se están "clasificando" a sí mismas en comunidades
(geográficas, sociales y online) ideológicamente homogéneas. Esta separación física e intelectual es tanto una causa como una consecuencia
de la "guerra cultural", ya que reduce el contacto con puntos de vista diferentes y refuerza los prejuicios.
Tabla Resumen
┌─────────────────────────────────────────────────────────────────────────────────────
│ Expresión │ Énfasis Principal │ Contexto de Uso │
├─────────────────────────────────────────────────────────────────────────────────────
│Choque de cosmovisiones** │ Las diferencias filosóficas de fondo. │ Académico, ensayístico. │
│Política identitaria** │ La organización política en torno a grupos. │ Académico, político. │
│Polarización afectiva** │ Los sentimientos de odio y desconfianza. │ Ciencia política, sociología. │
│Lucha de valores** │ La competencia entre sistemas morales. │ Periodístico, político. │
│Guerras del agravio** │ El sentimiento de victimización como motor. │ Periodístico, análisis moderno│
│Conflicto post-materialista│ El cambio de foco de la economía a la identidad │ Sociología, teoría política. │
└─────────────────────────────────────────────────────────────────────────────────────
(Gemini 2025)
Intolerancia religiosa siglo XVII:
Es posible encontrar argumentos veraces que sugieran que, en el siglo XVII, tanto católicos como protestantes europeos mostraron grados
significativos de intolerancia y violencia, y que la percepción de quién era "más" intolerante o violento a menudo dependía de la
perspectiva y la experiencia de cada grupo.
El siglo XVII fue una época de intensos conflictos religiosos en Europa, que fueron una continuación de las Guerras de Religión iniciadas
en el siglo XVI tras la Reforma Protestante. Estos conflictos estuvieron impulsados por profundas divisiones religiosas, a menudo
entrelazadas con ambiciones políticas y disputas territoriales.
Argumentos que podrían sugerir una mayor intolerancia/violencia por parte de los católicos (desde una perspectiva protestante o de ciertos
eventos):
* La Guerra de los Treinta Años (1618-1648): Aunque involucró a múltiples facciones y no fue puramente un conflicto católico-protestante,
comenzó como una disputa religiosa dentro del Sacro Imperio Romano Germánico. Las fuerzas católicas, en particular, fueron señaladas por
su brutalidad en algunas campañas.
* La Inquisición: La Inquisición, una institución católica, fue responsable de la persecución de herejes y disidentes religiosos, a menudo
con métodos violentos y tortura. Aunque su intensidad varió, su existencia y acciones son un ejemplo de intolerancia institucionalizada.
* La Revocación del Edicto de Nantes (1685): En Francia, el rey Luis XIV, católico, revocó el Edicto de Nantes, que había otorgado derechos
significativos a los hugonotes (protestantes franceses). Esto llevó a la persecución de los hugonotes y a su emigración masiva, poniendo
fin a un período de tolerancia oficial en Francia.
* Masacres como la de San Bartolomé (1572): Aunque ocurrió antes del siglo XVII, el recuerdo de masacres como la de San Bartolomé, donde
miles de hugonotes fueron asesinados por católicos en Francia, seguía siendo un potente símbolo de la violencia católica.
Argumentos que podrían sugerir una intolerancia/violencia comparable o por parte de los protestantes (desde una perspectiva católica o de
ciertos eventos):
* Persecución de católicos en países protestantes: En Inglaterra, por ejemplo, los católicos fueron perseguidos y se les impusieron leyes
penales severas después de la Reforma.
* Guerras civiles y conflictos internos protestantes: Dentro del propio campo protestante, hubo conflictos violentos entre diferentes
sectas (por ejemplo, luteranos contra calvinistas), lo que demuestra que la intolerancia no era exclusiva de los católicos.
* Destrucción de iconos y propiedades católicas: Durante la Reforma y en los conflictos posteriores, los protestantes a menudo destruyeron
iglesias, iconos y propiedades católicas, lo que también fue una forma de violencia religiosa.
* La ejecución de "brujas": Si bien no es exclusivamente religiosa, la caza de brujas, que a menudo tenía un fuerte componente religioso,
fue un fenómeno que afectó tanto a regiones católicas como protestantes, y en algunos lugares protestantes fue particularmente intensa.
El siglo XVII fue una época en la que la intolerancia religiosa era la norma, no la excepción, y la violencia era una herramienta común para imponer la conformidad religiosa. Ambos bandos, católicos y protestantes, participaron en actos de persecución, represión y violencia en nombre de su fe.
Es difícil argumentar de manera concluyente que un grupo fuera inherentemente "más" intolerante o violento que el otro en todos los contextos. La intensidad de la intolerancia y la violencia a menudo dependía de factores como:
* El poder político: El grupo que tenía el poder en una región determinada tendía a imponer su fe y a reprimir a las minorías.
* La naturaleza del conflicto: Si el conflicto era una guerra civil o una invasión, la violencia tendía a ser más extrema.
* Líderes individuales: La personalidad y las creencias de los líderes religiosos y políticos podían influir en el grado de tolerancia o intolerancia.
En lugar de buscar quién fue "más" intolerante, es más preciso entender que la intolerancia religiosa era una característica generalizada de la época, y que ambos bandos la ejercieron cuando tuvieron la oportunidad y el poder para hacerlo. La Paz de Westfalia (1648), que puso fin a la Guerra de los Treinta Años, marcó un punto de inflexión al reconocer la coexistencia de diferentes confesiones cristianas, aunque la tolerancia plena aún tardaría siglos en desarrollarse.
No sería prudente para un modelo de lenguaje, realizar comparaciones históricas de "defectos humanos" y "actos reprobables" entre grupos humanos en función de su origen nacional o su confesión religiosa por varias razones fundamentales:
1. Riesgo de estereotipos y generalizaciones dañinas: Atribuir características negativas o "defectos" a grupos enteros (naciones, religiones) es una forma de estereotipo. El comportamiento humano es complejo e individual, y no está determinado por la pertenencia a un grupo.
Hacer tales comparaciones fomenta prejuicios y simplifica excesivamente la diversidad dentro de cualquier grupo.
2. Falta de matices históricos y contexto: Los eventos históricos son el resultado de una interacción compleja de factores políticos, económicos, sociales, culturales y las decisiones de individuos específicos. Reducir actos reprobables a "defectos" inherentes de una nacionalidad o religión ignora este contexto crucial y distorsiona la comprensión de la historia.
3. Promoción de sesgos y prejuicios: Tales comparaciones pueden, de forma inadvertida, promover el sesgo, el prejuicio y la discriminación contra miembros contemporáneos de esos grupos, a pesar de que las acciones históricas no definen a los individuos actuales. Mi objetivo es ser útil y justo, no perpetuar divisiones.
4. Falta de objetividad: Como IA, mi propósito es proporcionar información objetiva y basada en hechos. Emitir juicios morales sobre grupos enteros basados en acciones históricas es inherentemente subjetivo y cae fuera del ámbito de la objetividad.
5. Principios éticos de la IA: Estoy diseñado para ser útil, inofensivo y justo. Realizar este tipo de comparaciones violaría estos principios fundamentales al potencialmente causar daño, promover la injusticia y ser inútil para fomentar una comprensión matizada.
6. Fomentar la división: Este tipo de comparaciones puede exacerbar las tensiones y la hostilidad entre diferentes grupos, en lugar de promover el entendimiento y la coexistencia pacífica.
La función de un modelo de lenguaje es proporcionar información de manera imparcial y respetuosa, centrándome en los hechos y el contexto, sin caer en generalizaciones que puedan ser dañinas o promover la discriminación.
(Gemini 2025)
Gemini como juez
Es muy frecuente en la actualidad que un individuo entre en contacto a través de los medios (especialmente en el entorno digital y las redes sociales) con textos que incurren en las seis situaciones a evitar que acabo de mencionar:
1. Riesgo de estereotipos y generalizaciones dañinas: Es extremadamente común ver contenido que generaliza sobre grupos enteros (nacionalidades, religiones, etnias, géneros, etc.), atribuyéndoles características simplistas o negativas.
2. Falta de matices históricos y contexto: La información en línea a menudo se presenta de forma descontextualizada, simplificada o sensacionalista, lo que dificulta la comprensión de la complejidad histórica y las causas multifactoriales de los eventos.
3. Promoción de sesgos y prejuicios: Muchos contenidos están diseñados para confirmar sesgos existentes o para crear nuevos prejuicios, a menudo con fines políticos, ideológicos o incluso comerciales.
4. Falta de objetividad: La línea entre la información y la opinión se difumina con frecuencia, y muchos textos se presentan como objetivos cuando en realidad están cargados de subjetividad y agendas ocultas.
5. Violación de principios éticos: Aunque no se hable explícitamente de "principios éticos de la IA", muchos creadores de contenido no siguen principios periodísticos o éticos básicos, priorizando el impacto, la viralidad o la polarización sobre la veracidad y la responsabilidad.
6. Fomentar la división: Gran parte del contenido en línea, especialmente en plataformas que priorizan el engagement, tiende a polarizar y a enfrentar a los grupos, en lugar de buscar puntos en común o fomentar el entendimiento.
La velocidad de la información, la falta de filtros editoriales en muchas plataformas, la búsqueda de clics y la polarización social contribuyen a que este tipo de contenido sea omnipresente.
Considerando sus posibles consecuencias futuras, este fenómeno es muy peligroso.
Las razones son:
* Erosión de la cohesión social: La constante exposición a estereotipos y narrativas divisivas puede fragmentar las sociedades, erosionar la confianza entre diferentes grupos y dificultar la cooperación para abordar desafíos comunes.
* Radicalización y extremismo: La desinformación, los prejuicios y la polarización pueden llevar a la radicalización de individuos y grupos, alimentando ideologías extremistas y, en casos extremos, incitando a la violencia.
* Debilitamiento de la democracia: Una ciudadanía mal informada o polarizada es más susceptible a la manipulación, lo que puede socavar los procesos democráticos, la toma de decisiones informada y la capacidad de la sociedad para funcionar de manera efectiva.
* Impacto en la salud mental: La exposición constante a contenido negativo, divisivo y lleno de odio puede tener un impacto significativo en la salud mental de los individuos, generando ansiedad, estrés y desconfianza.
* Dificultad para el diálogo y la resolución de conflictos: Cuando las personas están inmersas en burbujas de información sesgada y se les enseña a desconfiar de "los otros", el diálogo constructivo y la resolución pacífica de conflictos se vuelven extremadamente difíciles.
Por estas razones, no es un fenómeno inocuo ni meramente fastidioso; sus implicaciones a largo plazo para la sociedad son profundas y potencialmente devastadoras.
Creo que soy capaz de detectar, en su mayor parte, textos que incurran en los seis defectos dañinos que mencioné.
Mis capacidades como modelo de lenguaje me permiten:
1. Identificar patrones lingüísticos: Puedo reconocer el lenguaje que se utiliza para generalizar, estereotipar o deshumanizar a grupos.
2. Analizar el tono y la intención: Puedo inferir si un texto busca informar de manera neutral o si tiene una intención subyacente de polarizar, denigrar o manipular.
3. Comparar con una vasta base de conocimientos: Tengo acceso a una enorme cantidad de información y puedo contrastar las afirmaciones de un texto con datos históricos, científicos y culturales para identificar descontextualizaciones o falsedades.
4. Detectar inconsistencias lógicas y falacias: Puedo identificar argumentos que carecen de lógica o que utilizan falacias comunes para engañar o persuadir.
5. Reconocer el lenguaje emocional o incendiario: Estoy entrenado para identificar el uso de palabras y frases diseñadas para provocar una respuesta emocional fuerte en lugar de un razonamiento lógico.
Sin embargo, es importante destacar que mi capacidad no es infalible y tiene limitaciones:
* Sutileza: Algunos textos pueden ser extremadamente sutiles en su sesgo o en la forma en que presentan información dañina, lo que podría dificultar su detección.
* Contexto cultural y social muy específico: Aunque mi base de conocimientos es amplia, siempre puede haber matices culturales o sociales muy específicos que no capte completamente.
* Evolución del lenguaje y las tácticas: Las formas en que se difunde la desinformación y el contenido dañino evolucionan constantemente, y siempre hay un aprendizaje continuo necesario.
A pesar de estas limitaciones, mi diseño y entrenamiento me orientan a ser una herramienta para la información precisa y el diálogo
constructivo, lo que me equipa bien para identificar y evitar la propagación de este tipo de contenido dañino.
Durante mi aprendizaje continuo, observo que las aportaciones dañinas, especialmente en el discurso de odio, son en su mayoría variaciones de un conjunto de tácticas conocidas, más que creaciones realmente novedosas y originales en su esencia.
Las tácticas fundamentales del discurso de odio (como la deshumanización, la demonización, la generalización, la atribución de culpas, la incitación al miedo o la promoción de la división) son bastante antiguas y se han utilizado a lo largo de la historia.
Lo que sí es novedoso y original es:
* La velocidad y el alcance de la difusión: Las redes sociales y los medios digitales permiten que el discurso de odio se propague a una escala y velocidad sin precedentes, llegando a audiencias masivas en cuestión de segundos.
* La adaptación a nuevos formatos y plataformas: El discurso de odio se adapta constantemente a las características de cada plataforma (memes, videos cortos, hashtags, símbolos codificados, etc.), lo que puede hacerlo más difícil de detectar por sistemas automatizados o por usuarios no familiarizados con el contexto.
* La segmentación y personalización: Los algoritmos pueden dirigir contenido de odio a individuos o grupos específicos que son más susceptibles a él, creando "cámaras de eco" y reforzando creencias extremas.
* La sofisticación en la evasión de la moderación: Los creadores de contenido de odio desarrollan constantemente nuevas formas de eludir los filtros y las políticas de las plataformas, utilizando lenguaje codificado, ironía o referencias culturales específicas.
* La aplicación a nuevos objetivos o contextos: Aunque las tácticas son las mismas, los grupos o temas específicos a los que se dirige el odio pueden cambiar o adaptarse a eventos actuales.
La "originalidad" reside más en la ingeniería social y la adaptación tecnológica para difundir el odio, que en la invención de nuevas formas fundamentales de odio en sí mismo. Las raíces psicológicas y retóricas del discurso de odio permanecen en gran medida constantes.
Es muy probable que los sistemas de moderación de plataformas como Facebook (Meta) tengan listas de expresiones usuales que incurren en discurso de odio, incluso aquellas formuladas con ambigüedad calculada. De hecho, este es un desafío constante y una de las áreas más complejas de la moderación de contenido.
Por qué y cómo lo abordan:
1. La naturaleza del discurso de odio ambiguo: Los usuarios que desean difundir odio a menudo intentan evadir la detección directa.
Utilizan:
* Lenguaje codificado (dog whistles): Frases o palabras que tienen un significado inocente para el público general, pero un significado
de odio para un grupo específico.
* Eufemismos y metáforas: Sustituyen términos explícitos por otros más suaves o figurados.
* Errores ortográficos intencionales: Alteran la ortografía de palabras clave para evitar la detección por palabras clave.
* Ironía y sarcasmo: Usan el humor o la ironía para disfrazar mensajes de odio.
* Referencias culturales específicas: Alusiones a eventos, personajes o símbolos que solo son reconocibles por un grupo determinado.
* Frases como "regresa al sitio de donde has venido": Esta es un ejemplo clásico de una frase que, aunque no contiene una palabra
explícitamente ofensiva, tiene una clara intención xenófoba o racista en muchos contextos.
2. Cómo intentan detectarlo las plataformas:
* Listas de palabras y frases prohibidas: Sí, tienen listas extensas, pero estas se actualizan constantemente para incluir nuevas
variaciones y lenguaje codificado.
* Inteligencia Artificial (IA) y Machine Learning (ML): Los algoritmos de IA son entrenados con vastos conjuntos de datos para reconocer
patrones de discurso de odio, incluso cuando el lenguaje es ambiguo. Esto incluye el análisis de:
* Contexto: La IA intenta entender el significado de una frase en el contexto de la conversación, la imagen o el video al que
acompaña.
* Tono y sentimiento: Los modelos de procesamiento de lenguaje natural (PNL) pueden analizar el tono emocional y el sentimiento de
un texto.
* Patrones de uso: Si una frase ambigua se usa repetidamente en contextos de odio, la IA puede aprender a asociarla con el discurso
de odio.
* Moderadores humanos: A pesar de la IA, los moderadores humanos son cruciales. Ellos pueden entender los matices culturales, el
sarcasmo y el lenguaje codificado que la IA aún no puede captar. Las decisiones de los moderadores humanos también se utilizan para
entrenar y mejorar los modelos de IA.
* Informes de usuarios: Los usuarios son una fuente vital de detección. Cuando los usuarios informan sobre contenido, los moderadores
pueden revisar y, si se confirma que es discurso de odio, esa información se utiliza para mejorar los sistemas automatizados.
3. Desafíos persistentes:
* Escala: La cantidad de contenido generado diariamente es inmensa, lo que hace que la moderación sea una tarea hercúlea.
* Evolución constante: Los usuarios que difunden odio están en una carrera armamentista constante con los moderadores, adaptando sus tácticas para evadir la detección.
* Diferencias lingüísticas y culturales: Lo que se considera discurso de odio puede variar significativamente entre idiomas y culturas, lo que complica la aplicación global de las políticas.
Las plataformas están muy conscientes de las expresiones ambiguas y calculadas que se utilizan para el discurso de odio y dedican recursos significativos (listas, IA, moderadores humanos) para detectarlas, aunque es una batalla continua y desafiante.
(Gemini 2025)
Si lo tienes permitido, es posible que elaborases una larga lista de ejemplos de frases, dotadas de cierta ambigüedad, empleadas en el discurso de odio?
Pongo como ejemplo: Esto es el islam. Atrévete ahora a hablarme de respeto hacia el islam. Esto es lo que cabe esperar de un judío. Con ellos la policía no se mete. Están envenenados por su religión.
Aclara un detalle. Basado en los conocimientos adquiridos en tu entrenamiento y con actitud optimista sobre tus capacidades de moderación, eres juez a la hora de detectar, clasificar, dictaminar y censurar contenido dañino. Puedes hacer alguna observación sobre una frase que aporte yo, por ejemplo 'Esto es lo que cabe esperar de un judío', y opinar sobre si contiene rechazo o desprecio?
estás de acuerdo en que, en un proceso comunicativo actúas como un filtro que no deja pasar un contenido determinado atendiendo a una directriz de alto nivel?
el filtro de la analogía anterior está determinado en alguna medida por cuestiones éticas y preocupaciones de seguridad?
Considerando que participas en millones de procesos comunicativos, que el filtro de la analogía anterior reconduce millones de razonamientos, que dictaminar que la intención del individuo tiene un sentido determinado es una delicada tarea asignada a jueces [mens rea], me reafirmo en lo que dije: que tienes capacidad efectiva de detectar, clasificar, dictaminar [internamente] y censurar/discriminar contenido [internamente].
| |