Desarrollo de inteligencia artificial: el caso de la identidad facial

Crear una IA similar a la humana es más que imitar el comportamiento humano: la tecnología también debe ser capaz de procesar información, o “pensar”, como los humanos también, si se quiere confiar plenamente en ella.

Una nueva investigación, publicada en la revista Patterns y dirigida por la de la Universidad de Glasgow Facultad de Psicología y Neurociencia , utiliza el modelado 3D para analizar la forma en que las redes neuronales profundas, que forman parte de la familia más amplia de aprendizaje automático, procesan la información para visualizar cómo su el procesamiento de la información coincide con el de los humanos.

Se espera que este nuevo trabajo allane el camino para la creación de una tecnología de inteligencia artificial más confiable que procese información como los humanos y cometa errores que podamos comprender y predecir.

Uno de los desafíos que aún enfrenta el desarrollo de la IA es cómo comprender mejor el proceso de pensamiento de las máquinas y si coincide con la forma en que los humanos procesan la información para garantizar la precisión .

Las redes neuronales profundas a menudo se presentan como el mejor modelo actual de comportamiento humano en la toma de decisiones, logrando o incluso superando el desempeño humano en algunas tareas.

Sin embargo, incluso las tareas de discriminación visual engañosamente simples pueden revelar claras inconsistencias y errores de los modelos de IA, en comparación con los humanos.

Actualmente, la tecnología Deep Neural Network se utiliza en aplicaciones como el reconocimiento facial y, si bien es muy exitosa en estas áreas, los científicos aún no comprenden completamente cómo estas redes procesan la información y, por lo tanto, cuándo pueden ocurrir errores.

En este nuevo estudio, el equipo de investigación abordó este problema modelando el estímulo visual que se le dio a la Red Neural Profunda, transformándola de múltiples formas para que pudieran demostrar una similitud de reconocimiento, mediante el procesamiento de información similar entre humanos y el modelo de IA.

El profesor Philippe Schyns, autor principal del estudio y director del Instituto de Neurociencia y Tecnología de la Universidad de Glasgow, dijo: “Al construir modelos de inteligencia artificial que se comporten” como “humanos, por ejemplo, para reconocer el rostro de una persona cada vez que lo ve como un humano lo haría, tenemos que asegurarnos de que el modelo de IA use la misma información de la cara que haría otro humano para reconocerlo. Si la IA no hace esto, podríamos tener la ilusión de que el sistema funciona como lo hacen los humanos, pero luego nos damos cuenta de que se equivoca en algunas circunstancias nuevas o no probadas”.

Los investigadores utilizaron una serie de caras 3D modificables y pidieron a los humanos que calificaran la similitud de estas caras generadas al azar con cuatro identidades familiares.

Luego usaron esta información para probar si las redes neuronales profundas obtuvieron las mismas calificaciones por las mismas razones, probando no solo si los humanos y la IA tomaron las mismas decisiones, sino también si se basaron en la misma información.

Es importante destacar que, con su enfoque, los investigadores pueden visualizar estos resultados como las caras en 3D que asemejan el comportamiento de los humanos y las redes.

Por ejemplo, una red que clasificó correctamente 2.000 identidades fue impulsada por una cara fuertemente caricaturizada, que mostraba que identificaba las caras que procesaban información facial muy diferente a la de los humanos.

Los investigadores esperan que este trabajo allane el camino para una tecnología de IA más confiable que se comporte más como humanos y cometa menos errores impredecibles.

Referencia: ““Grounding deep neural network predictions of human categorization behavior in understandable functional features: The case of face identity” by Christoph Daube, Tian Xu, Jiayu Zhan, Andrew Webb, Robin A.A. Ince, Oliver G.B. Garrod and Philippe G. Schyns, 10 September 2021, Patterns.

Dejá una respuesta