La Policía Nacional ha optado por detener el empleo de Veripol, un sistema de inteligencia artificial (IA) creado para identificar denuncias falsas de robos con agresión. Esta IA fue lanzada en 2018, siendo la pionera de su clase a nivel global, con una exactitud superior al 90%. No obstante, su uso se suspendió en octubre de 2024, ya que no lograba cumplir con los estándares requeridos para su utilización en procesos legales, según informaron las fuentes del Ministerio del Interior.
La Policía Nacional ha decidido suspender el uso de Veripol, una herramienta de inteligencia artificial (IA) diseñada para detectar denuncias falsas de robo con violencia. Esta IA fue presentada en 2018 como la primera en su tipo a nivel mundial, con una precisión superior al 90%. Sin embargo, su aplicación cesó en octubre de 2024 debido a que no cumplía con los estándares necesarios para ser utilizada en procedimientos judiciales, según fuentes del Ministerio del Interior.
A pesar de su notable precisión durante las pruebas iniciales, en las cuales se logró identificar correctamente un alto porcentaje de denuncias fraudulentas, la herramienta ha recibido varias críticas a lo largo del tiempo. En 2022, un informe de especialistas en derecho y matemáticas de la Universidad de Valencia destacó diversas debilidades en la herramienta, incluyendo un conjunto de datos demasiado limitado, ya que solo se analizaron 1.122 denuncias en contraste con los miles de casos reales reportados anualmente en España. Además, se criticó que el algoritmo no analizaba las declaraciones completas de los denunciantes, sino las transcripciones hechas por los agentes de policía.
A pesar de su alto nivel de precisión en las pruebas iniciales, donde se identificó correctamente un gran porcentaje de las denuncias fraudulentas, la herramienta ha enfrentado diversas críticas a lo largo de los años. En 2022, un informe elaborado por expertos en derecho y matemáticas de la Universidad de Valencia destacó varias deficiencias en la herramienta, incluyendo una muestra de datos demasiado limitada, con solo 1.122 denuncias analizadas en comparación con los miles de casos reales registrados anualmente en España. Además, se señaló que el algoritmo no evaluaba las declaraciones de los denunciantes en su totalidad, sino las transcripciones realizadas por los propios agentes de policía.
Este caso destaca las tensiones presentes en la utilización de tecnologías avanzadas en el ámbito judicial. Aunque las IA como Veripol tienen el potencial de aumentar la eficiencia en la detección de fraudes, su aplicación debe estar sujeta a regulaciones estrictas y ser transparente, asegurando que no se vulneren los derechos fundamentales de los ciudadanos.
Este caso subraya las tensiones existentes en el uso de tecnologías avanzadas en el ámbito judicial. Si bien las IA como Veripol tienen el potencial de mejorar la eficiencia en la detección de fraude, su uso debe estar sujeto a estrictas regulaciones y ser transparente, de modo que no se vean comprometidos los derechos fundamentales de los ciudadanos.
El debate sobre el uso de la inteligencia artificial en el ámbito judicial se intensificó en 2024 con la entrada en vigor del Reglamento Europeo sobre Inteligencia Artificial, que clasifica las tecnologías de IA como de “alto riesgo” y establece exigencias más estrictas en cuanto a su fiabilidad y transparencia. Los problemas de Veripol son un claro ejemplo de cómo, en su desarrollo y aplicación, estas herramientas deben ser sometidas a un escrutinio riguroso, no solo para asegurar su efectividad, sino también para evitar vulneraciones de derechos o errores judiciales.
Por lo tanto, la decisión de la Policía Nacional de dejar de utilizar Veripol refleja un reconocimiento de la necesidad de mejorar los métodos y protocolos de investigación en el ámbito de las denuncias falsas. A medida que la tecnología continúa avanzando, será esencial que las autoridades encuentren un equilibrio entre la innovación tecnológica y la protección de los derechos de los ciudadanos, garantizando que herramientas como Veripol sean utilizadas de manera ética y con una base de datos robusta y representativa.