/ miércoles 15 de mayo de 2019

Facebook endurece reglas para evitar transmisiones de violencia y odio

Serán suspendidos de la plataforma Live por un mes

Madrid, 15 may (EFE).- Facebook ha anunciado nuevas medidas para evitar la proliferación de contenidos que induzcan a la violencia y al odio, como ocurrió con el vídeo del atentado de Nueva Zelanda, entre ellas la de bloquear la opción de emitir vídeos en directo a usuarios que compartan publicaciones de este tipo.

La intención de la tecnológica es bloquear el acceso a la herramienta "Facebook Live" durante 30 días, aproximadamente, a cualquier usuario que haya compartido un post que vaya en contra de su política comunitaria, por ejemplo, una referencia sin contexto a un enlace de una declaración de un grupo terrorista.

Para ello, la compañía de Mark Zuckerberg destinará una partida de 7,5 millones de dólares en tecnología de análisis de imagen y audio, según ha avanzado en un comunicado al que ha tenido acceso Efe.

Asimismo, planea trasladar el nuevo modelo de restricción a "otras áreas" en las siguientes semanas.

Por ejemplo, evitará que los usuarios que publiquen o compartan contenido prohibido, como la distribución de imágenes de explotación infantil, puedan crear anuncios.

Hasta ahora Facebook había optado por suprimir únicamente contenido de la plataforma y eliminar o bloquear de manera temporal páginas y cuentas que fuesen en contra de su normativa de uso.

Con la nueva regulación, la plataforma estrecha el cerco de la permisividad, pero especialmente en relación con la herramienta Live, que fue utilizada por el atacante de las mezquitas de Christchurch, en Nueva Zelanda, para transmitir en directo el atentado en el que mató a 51 personas y causó medio centenar de heridos.

En ese momento, Facebook trató de frenar la diseminación del vídeo eliminando la cuenta de esta red social y de Instagram del atacante después de que la policía alertarse de la transmisión en directo, pero para entonces ya había sido compartido por miles de usuarios.

Facebook ya cuenta con un operativo compuesto por 30.000 efectivos en varios puntos del mundo, dirigido desde Dublín, para detectar e interceptar contenidos que afecten a la seguridad de la plataforma, así como publicaciones que puedan resultar peligrosos para el mundo "offline".

Sin embargo, justifica la nueva partida presupuestaria con la necesidad de "investigar de manera más profunda" en nuevas técnicas para identificar imágenes y vídeos editados o manipulados y que pueden ser compartidos en distintos formatos y por varias cuentas diferentes, como en el caso de Christchurch.

"Entendemos la tensión generada entre el acceso sin restricciones a nuestros servicios que preferirían algunas personas y la necesidad de implantar barreras para mantener a los usuarios seguros", explica la compañía.

En esta línea, ha establecido un convenio con tres universidades estadounidenses -Maryland, Cornell y California- para que académicos e investigadores elaboren nuevas técnicas de "detección de manipulación" de material multimedia y, sobre todo, capaces de identificar a aquellos usuarios que lo hagan de manera intencionada.

"En los próximos meses, estableceremos nuevas colaboraciones para que podamos movernos y avanzar tan rápido como sea posible para innovar frente a esta amenaza", añade la empresa. EFE

Madrid, 15 may (EFE).- Facebook ha anunciado nuevas medidas para evitar la proliferación de contenidos que induzcan a la violencia y al odio, como ocurrió con el vídeo del atentado de Nueva Zelanda, entre ellas la de bloquear la opción de emitir vídeos en directo a usuarios que compartan publicaciones de este tipo.

La intención de la tecnológica es bloquear el acceso a la herramienta "Facebook Live" durante 30 días, aproximadamente, a cualquier usuario que haya compartido un post que vaya en contra de su política comunitaria, por ejemplo, una referencia sin contexto a un enlace de una declaración de un grupo terrorista.

Para ello, la compañía de Mark Zuckerberg destinará una partida de 7,5 millones de dólares en tecnología de análisis de imagen y audio, según ha avanzado en un comunicado al que ha tenido acceso Efe.

Asimismo, planea trasladar el nuevo modelo de restricción a "otras áreas" en las siguientes semanas.

Por ejemplo, evitará que los usuarios que publiquen o compartan contenido prohibido, como la distribución de imágenes de explotación infantil, puedan crear anuncios.

Hasta ahora Facebook había optado por suprimir únicamente contenido de la plataforma y eliminar o bloquear de manera temporal páginas y cuentas que fuesen en contra de su normativa de uso.

Con la nueva regulación, la plataforma estrecha el cerco de la permisividad, pero especialmente en relación con la herramienta Live, que fue utilizada por el atacante de las mezquitas de Christchurch, en Nueva Zelanda, para transmitir en directo el atentado en el que mató a 51 personas y causó medio centenar de heridos.

En ese momento, Facebook trató de frenar la diseminación del vídeo eliminando la cuenta de esta red social y de Instagram del atacante después de que la policía alertarse de la transmisión en directo, pero para entonces ya había sido compartido por miles de usuarios.

Facebook ya cuenta con un operativo compuesto por 30.000 efectivos en varios puntos del mundo, dirigido desde Dublín, para detectar e interceptar contenidos que afecten a la seguridad de la plataforma, así como publicaciones que puedan resultar peligrosos para el mundo "offline".

Sin embargo, justifica la nueva partida presupuestaria con la necesidad de "investigar de manera más profunda" en nuevas técnicas para identificar imágenes y vídeos editados o manipulados y que pueden ser compartidos en distintos formatos y por varias cuentas diferentes, como en el caso de Christchurch.

"Entendemos la tensión generada entre el acceso sin restricciones a nuestros servicios que preferirían algunas personas y la necesidad de implantar barreras para mantener a los usuarios seguros", explica la compañía.

En esta línea, ha establecido un convenio con tres universidades estadounidenses -Maryland, Cornell y California- para que académicos e investigadores elaboren nuevas técnicas de "detección de manipulación" de material multimedia y, sobre todo, capaces de identificar a aquellos usuarios que lo hagan de manera intencionada.

"En los próximos meses, estableceremos nuevas colaboraciones para que podamos movernos y avanzar tan rápido como sea posible para innovar frente a esta amenaza", añade la empresa. EFE

Policiaca

Deja primer semestre del 2020, más de 2,124 homicidios atroces: Causa en Común

De acuerdo a la organización de la sociedad civil, los estados con más víctimas fueron Guanajuato, Michoacán y Chihuahua

Patrulla Mexiquense

Identifican al asaltante de la México-Texcoco que se llevó tremenda golpiza

El sujeto que fue sometido por usuarios ya es tendencia en redes ahora es #LaRataDeLaCombi

Gossip

Plácido Domingo vuelve a negar cualquier acoso sexual

En marzo que dio positivo por nuevo coronavirus y fue hospitalizado

Cultura

Hallazgos que sorprenden y que solo tienen las librerías de viejo

Date una vuelta por estos espacios y descubre la magia que existe detrás de cada una de sus páginas

Mundo

Ébola causa 32 muertos en 74 casos en la RD del Congo, alerta la OMS

Esta epidemia es la peor de la historia de la RDC y la segunda más grave del mundo, después de la que asoló África occidental de 2014 a 2016

Salud

Pacientes con trasplante de hígado, con menos cuadros graves por Covid-19

Sin embargo, los pacientes con trasplante de hígado y un tratamiento inmunosupresor son más susceptibles a contagiarse de Covid-19