No te pierdas las últimas noticias

Suscribite a las notificaciones y enterate de todo

Tecnología TECNOLOGÍA

Facebook reconoció fallas en su sistema de inteligencia artificial

Un ejecutivo de la empresa habló sobre la transmisión en vivo de la masacre de Nueva Zelanda. Explicó que necesitan alimentar sus sistemas con " grandes volúmenes de datos, algo que resulta difícil puesto que, afortunadamente, este tipo de sucesos no son habituales".

Una captura de la transmisión del atentado en Facebook Live

Una captura de la transmisión del atentado en Facebook Live

Tras las críticas por la transmisión en vivo del atentado terrorista del último viernes contra dos mezquitas de Nueva Zelanda, que causó 50 muertos, Facebook admitió este jueves que su sistema de inteligencia artificial para detectar contenido no permitido en la red social "no es perfecto".

El ataque fue retransmitida en directo en la función Facebook Live y vista unas 4.000 veces antes de que la plataforma retirara el video por primera vez, ya que posteriormente hubo internautas que intentaron volver a publicarlo más de un millón de veces.

En una entrada en el blog de la compañía, el vicepresidente de gestión de Facebook, Guy Rosen, explicó que, aunque la inteligencia artificial logró un "progreso masivo en muchas áreas en los últimos años" que les permite ser "proactivos" en la detección de contenidos, el sistema "no es perfecto".

"La inteligencia artificial se basa en datos de entrenamiento, lo que significa que necesita miles de ejemplos de contenido para que pueda detectar ciertos tipos de texto, imágenes o vídeos", dijo Rosen, que atribuyó a ese motivo que el sistema no funcionara y permitiera la retransmisión en directo del atentado. 

Aseguró además que la inteligencia artificial sí funciona en los casos de la desnudez, la propaganda terrorista y la violencia gráfica.

Rosen también apuntó al "reto" que supone discernir entre contenidos como el del atentado y otros "visualmente similares, pero inocuos", como por ejemplo las retransmisiones en directo de partidas de videojuegos en los que el protagonista dispara contra personas.

Además de Facebook, el portal de videos propiedad de Alphabet (matriz de Google) Youtube también indicó esta semana haber retirado "decenas de miles" de videos del ataque en su plataforma y aseguró que lo ocurrido "no tiene precedentes", "tanto por su escala como por su rapidez".

En esta nota:

Comentarios