No te pierdas las últimas noticias

Suscribite a las notificaciones y enterate de todo

Protón Inteligencia artificial

¿Por qué los CAPTCHAs se volvieron tan difíciles?

El desafío de diseñar CAPTCHAs que sean fáciles para los humanos pero no así para las máquinas.

¿Por qué los CAPTCHAs se volvieron tan difíciles?

¿Por qué los CAPTCHAs se volvieron tan difíciles?

Por: Florencia Luna

Las pruebas de "I'm not a robot" (no soy un robot) de Google empezaron como una simple demanda para probar que no lo eras mediante una selección de fotos de semáforos, escaleras y señales de tránsito y fue derivando cada vez más en una cuadrícula de imágenes ambiguas y  complejas. A esto se le llama CAPTCHA, acrónimo para Completely Automated Public Turing test to tell Computers and Humans Apart (prueba de Turing completamente automática y pública para diferenciar ordenadores de humanos).

A principios del 2000 la imágenes de texto bastaban para evitar a los spambots, esos programitas diseñados para recopilar direcciones de mail y enviarles correo basura o spam. Nosotres contribuíamos a perfeccionar los programas de reconocimiento óptico de caracteres al resolver estos CAPTCHAs pero en algún momento se volvieron obsoletos: dada la creciente mejora de los algoritmos de inteligencia artificial, cualquier prueba que se realizara era temporal y por eso la necesidad de una constante actualización

Como para tener una idea de cuán avanzados son: en 2014, Google enfrentó uno de sus algoritmos de machine learning —aprendizaje automático— contra humanos para resolver los CAPTCHAs de texto más distorsionados y la computadora respondió correctamente el 99,8% de las veces, mientras que los humanos solo el 33%.

Más tarde Google se puso al día con el “No CAPTCHA reCAPTCHA”, le dijo adiós a los textos y simplemente preguntaba si eras un robot. De esta manera, les usuaries podían verificar de forma segura y fácil que son humanos con solo un clic.

Pero nuevamente las máquinas se ponen al día y no queda otra que aumentar la dificultad (incluso los CAPTCHAs que utilizan reconocimiento de audios fueron superados). El machine learning es ahora tan bueno como los humanos —e incluso mejor— en tareas básicas de texto, imagen y reconocimiento de voz.

Otros propuestas para encontrar algo en que los humanos fueran buenos y las máquinas no, incluyeron clasificar imágenes de personas por expresión facial, género y etnia o incluso usar el arte rupestre (marcas en piedra hechas por el hombre).

Por otro lado se planteó la posibilidad de desarrollar CAPTCHAs que requieran rotar objetos en ciertos ángulos con instrucciones dadas no mediante textos sino símbolos, y hasta usar cámaras para hacer pruebas interactivas. 

El problema con todo esto no es que los bots sean tan inteligentes, sino que las personas somos bastante malas para resolverlos debido a nuestra diversidad de lenguajes, culturas y experiencias. Se necesitaría un método independiente de las complejidades culturales y las diferencias que a la vez sea fácil para la persona promedio.

Queda entonces preguntarnos: ¿cuál es la cualidad humana y universal que una máquina no pueda imitar?

Bueno, puede que los CAPTCHAs resistan un tiempo más. Recientemente Amazon recibió la patente para una prueba que involucra ilusiones ópticas y acertijos lógico de gran dificultad para nosotres: el "Turing Test via Failure", donde la única manera de pasar la prueba es dando la respuesta incorrecta. Por que si hay algo que nos hace humanos son, efectivamente, los errores.

En esta nota:

Comentarios