Mostrar el registro sencillo del ítem

dc.contributor.authorMartín Moncunill, David
dc.contributor.authorGarcía-Laredo, Eduardo
dc.contributor.authorNieves, Juan Carlos
dc.date.accessioned2024-10-21T13:42:46Z
dc.date.available2024-10-21T13:42:46Z
dc.date.issued2024
dc.identifier.citationMartín-Moncunill, D., García Laredo, E., & Carlos Nieves, J. (2024). POTDAI: A Tool to Evaluate the Perceived Operational Trust Degree in Artificial Intelligence Systems. IEEE Access, 12, 133097-133109. https://doi.org/10.1109/ACCESS.2024.3454061es
dc.identifier.issn2169-3536
dc.identifier.otherhttps://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=10663721es
dc.identifier.urihttp://hdl.handle.net/20.500.12020/1375
dc.description.abstractEstá demostrado que la confianza subjetiva de un usuario en un sistema basado en Inteligencia Artificial (IA) es crucial en su uso, incluso más decisiva que la eficacia y eficiencia objetivas del sistema. Por ello, se han propuesto diferentes métodos para analizar la confianza en la IA. En nuestra investigación, nos propusimos evaluar cómo el grado de confianza percibido en un sistema de IA podría afectar a la decisión final de un usuario de seguir las recomendaciones de la IA. Para ello, establecimos los criterios de confianza que debería cumplir dicha evaluación siguiendo un enfoque de cocreación con un grupo multidisciplinar de 10 expertos. Tras una revisión sistemática de 3.204 artículos, comprobamos que ninguna de las herramientas cumplía los criterios de inclusión. Así pues, presentamos la herramienta denominada ''Grado de Confianza Operativa Percibida en la IA'' (POTDAI) que se basa en las conclusiones del grupo de expertos y el análisis bibliográfico, con una metodología que añade rigor a la empleada anteriormente para crear herramientas de evaluación similares. Proponemos un cuestionario breve para una aplicación rápida y sencilla, inspirado en la versión original del Modelo de Aceptación de la Tecnología (TAM) con seis ítems tipo Likert. De esta forma, respondemos también a la necesidad señalada por autores como Vorm y Combs de ampliar el TAM para abordar cuestiones relacionadas con la percepción del usuario en sistemas con un componente de IA. Así, el POTDAI puede utilizarse solo o en combinación con el TAM para obtener información adicional sobre su utilidad y facilidad de uso.es
dc.description.sponsorshipHumanE AI Network (HumanE-AI-Net) Research Projectes
dc.description.sponsorshipUmeå University - Computing Science Department & Umeå University - Police Education Unit,es
dc.description.sponsorshipComet Global Innovation S.L.es
dc.description.sponsorshipInstitut de Seguretat Pública de Catalunya -ISPCes
dc.language.isoenes
dc.publisherInstitute of Electrical and Electronics Engineers (IEEE)es
dc.rightsAtribución 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/*
dc.titlePOTDAI: A Tool to Evaluate the Perceived Operational Trust Degree in Artificial Intelligence Systemses
dc.typearticlees
dc.identifier.doihttps://doi.org/10.1109/ACCESS.2024.3454061
dc.journal.titleIEEEAccesses
dc.page.initial1es
dc.page.final13es
dc.relation.projectIDinfo:eu-repo/grantAgreement/EC/H2020/952026es
dc.rights.accessRightsopenAccesses
dc.subject.areaIngenieríases
dc.subject.keywordInteligencia Artificiales
dc.subject.keywordInteracción Persona Computadores
dc.subject.keywordTechnology Acceptance Modeles
dc.subject.keywordTrustworthy Artificial Intelligencees
dc.subject.unesco1203.04 Inteligencia Artificiales
dc.volume.number12es


Ficheros en el ítem

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Atribución 4.0 Internacional
Excepto si se señala otra cosa, la licencia del ítem se describe como Atribución 4.0 Internacional