Lo Último en IP@P
- Stellar Data Recovery revoluciona la recuperación de archivos perdidos en discos duros externos
- Goblin Mine: La Estrategia Económica Detrás del Juego de Minería que está Fascinando a Todos
- Estos son los nuevos Cargadores UGREEN: potencia y portabilidad en dos versiones que no te puedes perder
- UGREEN Nexode Pro: El Cargador Ultradelgado que revoluciona la carga de dispositivos móviles
- La computación en la nube está transformando los juegos Online y estas son sus grandes ventajas
El pasado 6 de diciembre, los refugiados de Rohingya presentaron una demanda colectiva contra Facebook, por permitir a través de la red social mensajes de odio que les causaron mucho daño. La protesta se sumó a otras denuncias que a lo largo del tiempo las organizaciones de derechos humanos han realizado para luchar contra la desinformación.
Los hechos tuvieron lugar en el 2017 y vuelven a la palestra después de un informe presentado esta semana por Amnistía Internacional, en el que se denuncia la atrocidad social que se emprendió en Myanmar para realizar una limpieza étnica de la comunidad musulmana. Se asegura que la compañía fue pasiva al permitir los mensajes y que por lo tanto, debe cumplir con una compensación a las víctimas.
Meta podría tener que indemnizar a las víctimas del pueblo de Rohingya en Birmania
Los refugiados introdujeron una demanda por 150.000 M€ contra Meta, debido a que consideran que el genocidio fue por culpa de Facebook, tras guardar silencio en el momento que se enviaron y multiplicaron mensajes de odio dirigidos a la etnia Rohingya en el 2017, época en la que 700.000 personas tuvieron que huir a causa de los asesinatos.
📢 A refugee community is taking on a Silicon Valley tech giant. Ethnic #Rohingya groups are calling for reparations for #Facebook’s role in the atrocities in #Myanmar. However, the billion-dollar company has refused all requests from the Rohingya for providing meaningful remedy.
— Amnesty International (@amnesty) September 29, 2022
El informe presentado por Amnistía Internacional se sustenta en entrevistas a refugiados, ex empleados de Facebook, miembros de la sociedad civil y expertos en derechos humanos. Igualmente, se recogen datos de los documentos filtrados en los que se proporciona una nueva comprensión de la contribución de la red social a los lamentables hechos violentos.
En ese entonces, los organismos policiales de Myanmar atacaron de forma generalizada a las aldeas rohinyás, por lo que se cometieron homicidios extrajudiciales, causaron daño a las propiedades y se produjeron agresiones sexuales. La justificación es que se trataba de ataques de rebeldes contra los cuerpos de seguridad.
En los meses previos, según las pruebas de diversas organizaciones, grupos nacionalistas budistas radicales y el Ejerció de Birmania, publicaron cientos de mensajes en Facebook de contenido anti musulmán y notas de desinformación sobre la toma del poder del país por parte de estas comunidades minoritarias. Hay datos de un post que se compartió mil veces con representaciones explícitas de violencia.
Sobre el hecho y la relación de Facebook con los acontecimientos, se han realizado diversos estudios. Uno de ellos fue presentado por la agencia de noticias Reuters. Los periodistas encontraron unas 1.000 publicaciones en las que se atacaba directamente a esta comunidad. La mayoría estaban redactados en el idioma local, el birmano. Allí se les llamaba perros, gusanos y violadores, con incitación a que se les exterminara.
Las autoridades del país niegan haber cometido actos ilegales. Aseguran que los operativos fueron una lucha contra la insurgencia. Organismos como la Corte Penal Internacional, tienen abiertas investigaciones sobre los crímenes cometidos, al igual que los grupos de Derechos Humanos de la ONU. En los actuales momentos, se sabe que más de un millón de personas de esta etnia viven en Bangladesh, en condición de refugiados y muchas de las casas que habitaban en su lugar de origen han sido destruidas.
Facebook permitió campañas de violencia étnica contra el pueblo Rohingya
Ahora bien ¿Cuál es la razón por la que se acusa a Facebook de tener relación con estos actos atroces? El informe de Amnistía Internacional afirma que los algoritmos de moderación de la red social amplificaron y promovieron el contenido de odio, violencia y discriminación contra la comunidad Rohingya. Señalan que no se trata de ser pasivos y neutrales, sino de utilizar su modelo de negocios invasivo y publicitario para alimentar este tipo de publicaciones incendiarias.
Últimas Noticias de Redes Sociales
- ¿Adiós al Shadowban? Ahora recibirás una notificación cuando tu contenido sea penalizado en X (antes Twitter)
- Deberás ser suscriptor premium de X para utilizar las nuevas llamadas de voz y video de la plataforma
- ¡TikTok y Google se unen para impulsar el tráfico de búsqueda! Descubre cómo
- YouTube Desata una Revolución Tecnológica con su Sorprendente Arsenal de Herramientas de IA!
- ¡WhatsApp potencia los chats en grupo de comunidades con una navegación mejorada!
SÍGUENOS EN 👉 YOUTUBE TV
En 2018, un grupo de investigadores de derechos humanos de la ONU habían advertido que Facebook estaba contribuyendo a la propagación de un discurso de odio, contra las minorías musulmanas en Myanmar. Los directivos reconocieron que eran lentos al evitar que la información se propagara. Sin embargo, negaron la acusación de que utilizaran los algoritmos para causar daño a las comunidades.
De vuelta al informe de Amnistía, señala en una de sus páginas que los algoritmos centrales de Facebook distribuyen contenido que incita a la violencia y discriminación, entregándolo a personas que tienen más probabilidades de llevar a cabo las amenazas. Para respaldar la afirmación, citan documentos internos en los que Meta responde que actúan ante el 2% de los discursos de odio, con lo que reconocen sus limitaciones para identificar las publicaciones dañinas.
Al parecer, la razón para no eliminar los post se debe a las ganancias que se dejarían de percibir. Según un memorando interno del año 2019 que facilitó un ex empleado, un ejecutivo dice que tienen evidencia de que los discursos de odio afectan a las sociedades de todo el mundo, no obstante, ese tipo de contenidos prosperan en la plataforma, se hacen virales y se recomiendan a muchas personas.
Por ello, Amnistía considera que el funcionamiento de los algoritmos contribuyó a la violencia real que sufrieron los Rohingya, lo que incluye la violación al derecho a la vida, a la no tortura y a una vivienda adecuada. Pero, en reiteradas oportunidades, Meta se ha negado a pagar reparaciones a los refugiados al igual que a entregar fondos para apoyar programas educativos, con el alegato de que no participan directamente en actividades filantrópicas.
En un comunicado de prensa, la red social asegura que se solidarizan con las víctimas de los ataques contra el pueblo Rohingya, y que de varias maneras han contribuido con información a los equipos de investigación de la ONU. Explican que trabajan de la mano con organizaciones locales de la sociedad civil de Myanmar en la evaluación del impacto de la violación de los derechos humanos de miles de personas.
Las recomendaciones finales que hace el informe de Amnistía Internacional, incluyen que Meta financie programas que beneficien a las comunidades de refugiados, que se adopten medidas para mejorar los algoritmos, de forma que no se ponga en riesgo la vida ni los derechos humanos de las minorías, y que se prohíba la publicidad invasiva o que involucre el procesamiento de datos personales, ya que como se ha demostrado, representa un peligro real para personas de todo el mundo.
Desde que comenzó el proceso judicial, Meta asegura que está protegida por una ley de los Estados Unidos, la cual establece que las plataformas no son responsables directamente por el contenido que publican terceros.
Hasta el momento no se conocen resultados exitosos de demandas en los tribunales en los que se apliquen leyes extranjeras para beneficiar a una comunidad de otro país, por lo que es poco probable que esta demanda tenga éxito.