POTDAI: A Tool to Evaluate the Perceived Operational Trust Degree in Artificial Intelligence Systems
Identificadores
URI: http://hdl.handle.net/20.500.12020/1375ISSN: 2169-3536
DOI: https://doi.org/10.1109/ACCESS.2024.3454061
Fecha
2024Tipo de documento
articleÁrea/s de conocimiento
IngenieríasMateria/s Unesco
1203.04 Inteligencia ArtificialResumen
Está demostrado que la confianza subjetiva de un usuario en un sistema basado en Inteligencia Artificial (IA) es crucial en su uso, incluso más decisiva que la eficacia y eficiencia objetivas del sistema. Por ello, se han propuesto diferentes métodos para analizar la confianza en la IA. En nuestra investigación, nos propusimos evaluar cómo el grado de confianza percibido en un sistema de IA podría afectar a la decisión final de un usuario de seguir las recomendaciones de la IA. Para ello, establecimos los criterios de confianza que debería cumplir dicha evaluación siguiendo un enfoque de cocreación con un grupo multidisciplinar de 10 expertos. Tras una revisión sistemática de 3.204 artículos, comprobamos que ninguna de las herramientas cumplía los criterios de inclusión. Así pues, presentamos la herramienta denominada ''Grado de Confianza Operativa Percibida en la IA'' (POTDAI) que se basa en las conclusiones del grupo de expertos y el análisis bibliográfico, con una metodología que añade rigor a la empleada anteriormente para crear herramientas de evaluación similares. Proponemos un cuestionario breve para una aplicación rápida y sencilla, inspirado en la versión original del Modelo de Aceptación de la Tecnología (TAM) con seis ítems tipo Likert. De esta forma, respondemos también a la necesidad señalada por autores como Vorm y Combs de ampliar el TAM para abordar cuestiones relacionadas con la percepción del usuario en sistemas con un componente de IA. Así, el POTDAI puede utilizarse solo o en combinación con el TAM para obtener información adicional sobre su utilidad y facilidad de uso.





