Lo Último en IP@P
- Goblin Mine: La Estrategia Económica Detrás del Juego de Minería que está Fascinando a Todos
- Estos son los nuevos Cargadores UGREEN: potencia y portabilidad en dos versiones que no te puedes perder
- UGREEN Nexode Pro: El Cargador Ultradelgado que revoluciona la carga de dispositivos móviles
- La computación en la nube está transformando los juegos Online y estas son sus grandes ventajas
- Actualizaciones del Programa de Afiliados de TEMU: ¡Hasta MX$500,000 al mes!
Según un nuevo informe publicado por Reuters, Facebook aprobó una serie de anuncios que promueven la violencia en Brasil. A principios de enero, miles de simpatizantes de extrema derecha irrumpieron en el congreso en un ataque que duró más de tres horas. Aunque la red social de Zuckerberg eliminó el contenido que pedía a las personas que invadieran al gobierno por la fuerza, días después, Global Witness descubrió que Facebook aún permitía anuncios llenos de amenazas de muerte y otros llamados a la violencia en dicho país.
Uno de los anuncios decía lo siguiente “Muerte a los hijos de votantes de Lula”. Por esto y más, la organización de derechos humanos Global Witness no dudó en destapar los fallos en los sistemas de Facebook, probando que la reconocida red social tiene deficiencias a la hora de frenar el contenido violento en su plataforma. En total, se hallaron 16 anuncios explícitos que incluyen peticiones violentas con palabras como “matar”, “fusilar”, “revolución militar”, etc.
Facebook publicó anuncios que incitaban a la violencia luego de los disturbios en Brasil
El pasado 8 de enero, numerosos simpatizantes del expresidente de extrema derecha de Brasil, Jair Bolsonero, decidieron irrumpir en el congreso, el palacio presidencial de la nación y la corte suprema, en medio de un ataque que duró más de tres horas. Debido a la gravedad del asunto, el actual presidente de Brasil, Luiz Inácio Lula da Silva, tuvo la impresión de que las manifestaciones eran el inicio de un golpe de Estado.
El presidente izquierdista de Brasil, Luiz Inácio Lula da Silva, asumió el cargo el 1 de enero después de derrotar a Bolsonaro en una segunda vuelta electoral en octubre.
Uno de los detalles que más llamó la atención del mundo en general, es que la mayoría de los atacantes fueron incitados a la violencia en línea, por medio de un flujo de publicaciones que se llevó a cabo en Facebook.
Como consecuencia, en un intento por atenuar esto, Meta anunció que estaba “vigilando activamente la actividad en Brasil y que lo había designado como ubicación de alto riesgo”. De tal manera, se comprometieron a restringir y eliminar cualquier tipo de contenido que promoviera la invasión de edificios gubernamentales, el uso de armas en el país y el intento de golpe de Estado.
Sin embargo, todo parece indicar que la compañía de Mark Zuckerberg no cumplió con su promesa. Alrededor de cuatro días después de emitir este anuncio y asegurar que, supuestamente, eliminaría las publicaciones que incitaban a la violencia en medio de los disturbios en Brasil; la organización de derechos humanos Global Witness detectó que no fue así. Tras realizar una ardua investigación, hallaron varios anuncios que contenían amenazas de muerte y otros llamados a la violencia en Facebook.
“Después de la violencia en Brasilia, Facebook dijo que estaban ‘monitoreando activamente’ la situación y eliminando contenido en violación de sus políticas. Esta prueba muestra lo mal que pueden hacer cumplir lo que dicen”.
Rosie Sharpe, activista de amenazas digitales en la organización Global Witness.
Por lo tanto, verificaron que Facebook aprobó la publicación de una serie de anuncios violentos. Esto, destapó que la red social sigue infringiendo de la misma manera, alterando la paz de las naciones. En este caso, la plataforma permitió la viralización de llamadas a la acción que piden el asalto de las instituciones democráticas de Brasil,
En otras palabras, los sistemas de la red social de Mark Zuckerberg siguen teniendo insuficiencias para poder frenar el contenido violento que distribuyen sus usuarios en la plataforma.
Últimas Noticias de Redes Sociales
- ¿Adiós al Shadowban? Ahora recibirás una notificación cuando tu contenido sea penalizado en X (antes Twitter)
- Deberás ser suscriptor premium de X para utilizar las nuevas llamadas de voz y video de la plataforma
- ¡TikTok y Google se unen para impulsar el tráfico de búsqueda! Descubre cómo
- YouTube Desata una Revolución Tecnológica con su Sorprendente Arsenal de Herramientas de IA!
- ¡WhatsApp potencia los chats en grupo de comunidades con una navegación mejorada!
SÍGUENOS EN 👉 YOUTUBE TV
Según el hallazgo de Global Witness, aunque Facebook eliminó muchos anuncios asociados al tema, lo cierto es que admitió 16 anuncios provenientes de cuentas falsas, los cuales muestran peticiones violentas con palabras como “matar” y “fusilar” a los hijos de los seguidores del nuevo presidente brasileño, Lula da Silva. También encontraron peticiones de armar “una revolución militar para restaurar el Estado de derecho”.
En algunos de los anuncios aprobados había mensajes que decían, “Necesitamos desenterrar a todas las ratas que tomaron el poder y dispararles”, “Necesitamos una revolución militar para restaurar el Estado de derecho” y “Muerte a los hijos de Votantes de Lula”.
La situación produjo una serie de críticas en contra de Facebook. Ante esto, no dudaron en pronunciarse y al mismo tiempo, negar el problema que yace en sus sistemas de detección. Tras los señalamientos por parte de Global Witness, un portavoz de Meta llamado Mitch Henderson, señaló que “la pequeña muestra de anuncios de la organización no es representativa de cómo la empresa aplica sus políticas a gran escala”.
Asimismo, Henderson menciona que, antes de efectuarse las elecciones de 2022 en Brasil, Facebook eliminó cientos de miles de piezas de contenido sobre violencia e incitación, ya que violaban las políticas de la red social. Razón por la que, rechazaron decenas de miles de envíos de anuncios antes que se publicaran, activamente. En otras palabras, no admitieron los señalamientos de Global Witness de ninguna manera.
“Nosotros usamos tecnología y equipos para ayudar a mantener nuestras plataformas a salvo de abusos y constantemente refinamos nuestros procesos para hacer cumplir nuestras políticas a escala”.
Mitch Henderson, un portavoz de Meta.
Facebook ya fue demandado por incitar a la violencia racial en la guerra de Etiopía
Desafortunadamente, no es la primera vez que Facebook permite la distribución de contenido violento en su plataforma. En diciembre, Meta fue señalada de no tener un control sobre el tipo de contenido que los usuarios publican allí, ya que Facebook aceptó la publicación de numerosos anuncios que promovían la violencia en la guerra civil de Etiopía. Como consecuencia, Meta fue demandada con 2.000M€ por incitar a la violencia en la guerra civil de Etiopía.
Lo cual se produjo después de que una organización de los derechos humanos de Kenia, conocida como “Kenia Katiba Institute”, encontró que la posición de Facebook no era la más adecuada en medio de los actos sangrientos de la guerra civil en Etiopía. Es por ello que, optó por presentar una demanda formal en donde se demuestra, como pruebas, una gran cantidad de material que incitó a la discordia y violencia entre ciudadanos en este país.
Una de las publicaciones de Facebook, hacía referencia al padre de uno de los demandantes en términos étnicos, donde solicitaban el fusilamiento del mismo.
Esto dejó en evidencia que la red social de Zuckerberg no ha adiestrado sus algoritmos profesionalmente, para poder detectar este tipo de contenido violento, dañino y peligroso. De la misma forma, demuestra que Meta no ha contrato al personal necesario y calificado para monitorear el contenido en diferentes idiomas activamente y, a su vez, restringir y eliminar el mismo.
Así como ocurrió recientemente con los sucesos en Brasil, Meta también negó sus deficiencias en el caso de Etiopía. El portavoz de Meta, Erin McPike, enfatizó que la compañía ha invertido en mucha tecnología y equipos para lograr hallar y eliminar este tipo de contenido, por lo que cuentan con personas con experiencia local y óptimos conocimientos para conseguir publicaciones dañinas en diferentes idiomas.
Mark Zuckerberg tuvo que enfrentar un juicio por motivo de la falta de control de los anuncios y publicaciones que promueven el odio y las violaciones de los derechos humanos, a finales de 2022. Tristemente, la postura de Facebook afectó de forma directa la guerra interna de Etiopía.