Un estudio afirma que los bots resuelven los CAPTCHA mejor que los humanos

Las pruebas de CAPTCHA ya no son una forma eficaz de verificar que los usuarios humanos no somos bots.
Las pruebas de CAPTCHA ya no son una forma eficaz de verificar que los usuarios humanos no somos bots.
BKHOST Việt Nam de Flickr
Las pruebas de CAPTCHA ya no son una forma eficaz de verificar que los usuarios humanos no somos bots.

Unos investigadores de la Universidad de California (EEUU) han publicado un estudio en arXiv en el que plantean la posibilidad de que los bots ya sean mejores que los humanos, al menos para resolver CAPTCHA. Este tipo de pruebas son las encargadas de evitar precisamente que los bots accedan a cierto contenido en la web, para reducir la automatización, a través de un test de Turing sencillo.

Para el estudio, se analizaron 200 webs de alta popularidad y detectaron que los sistemas CAPTCHA para comprobar la humanidad del usuario seguían empleándose en 120 de ellas. Los investigadores reclutaron a 1.000 voluntarios en línea, de distintos orígenes, clases y edad, que debían completar 10 pruebas CAPTCHA y, después, medir su dificultad.

Según las conclusiones obtenidas, algunos bots reconocidos por su eficacia dentro de la comunidad científica eran más rápidos y precisos que los voluntarios. Varios humanos tardaron entre 9 y 15 segundos en completar las pruebas con una precisión de entre el 50 y el 84%. Mientras tanto, a los bots les llevó menos de un segundo y llegaban a porcentajes de entre el 85 y el 100% (la mayoría superaba el 96%).

El paper todavía debe ser revisado por pares (otros expertos), por lo que sus resultados podrían no ser considerados como válidos. No obstante, las conclusiones dejan atisbar la ineficacia de los CAPTCHA en la actualidad para proteger a las páginas de las plagas de bots. De hecho, hace unos meses, hablamos de que había informes que apuntaban a que los bots ya representaban más de la mitad del tráfico de Internet

Además, la formación de CAPTCHA ha llegado a automatizarse tanto que algunas plataformas han comenzado a recurrir a la inteligencia artificial para crear nuevos test. En concreto, hablamos del caso de Discord, que hace un tiempo comenzó a usar IA para crear pruebas de verificación de humanos y la herramienta demostró tener fallos e inventarse objetos inexistentes que supuestamente la persona debía señalar para probar que no era un bot. 

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento