Callejero Noticias

Egresado de FCC avanza en desarrollo de robots con expresiones faciales

BUAP, FCC, desarrollo de robots con expresiones faciales humana

Foto: Especial

Redacción.- El desarrollo de robots humanoides capaces de expresar emociones representa un desafío en el campo de la robótica y la inteligencia artificial, un reto que Marcos Ariel Leiva Vasconcellos, egresado de la Maestría en Ciencias de la Computación (FCC) de la BUAP, aborda en su investigación “Imitación de expresiones faciales humanas en un robot humanoide”, con la que obtuvo el Premio a la Mejor Tesis de Posgrado 2024, en la categoría de Ingeniería y tecnología, de la Vicerrectoría de Investigación y Estudios de Posgrado.

Con el citado proyecto, Leiva Vasconcellos estudió la intersección entre la robótica y la inteligencia artificial, a partir de dotar a los robots humanoides de la capacidad para imitar las expresiones faciales humanas.

En esta tesis plantea que la interacción fluida entre personas y robots requiere que estos últimos no sólo comprendan y generen lenguaje verbal, sino que también sean capaces de expresar emociones en su rostro, imitando a los humanos durante la interacción.

El objetivo de su trabajo fue desarrollar una metodología que permita a un robot humanoide reflejar de manera precisa y natural las expresiones faciales humanas. Para ello, implementó un sistema que utiliza técnicas de visión por computadora y aprendizaje automático, a fin de analizar y replicar los movimientos faciales en tiempo real.

Su investigación requirió del robot humanoide llamado Arthur, que posee 32 grados de libertad en su rostro, lo que permite una gran variedad de movimientos faciales. La clave radica en la utilización de la biblioteca MediaPipe Face Mesh para detectar 468 puntos faciales en el rostro humano, de los cuales 27 se utilizaron para formar una “malla emocional”.

Esta malla representa las emociones humanas mediante vectores formados por los ángulos de las aristas entre los puntos faciales. Para la clasificación y reconocimiento de las expresiones faciales, se probaron tres algoritmos de aprendizaje automático: K-Nearest Neighbors (KNN), Support Vector Machines (SVM) y Random Forest.

Además, el estudiante utilizó una base de datos de imágenes faciales Cohn-Kanade (CK+), las cuales están etiquetadas para entrenar estos modelos, con el objetivo de que el robot pudiera reconocer e imitar las expresiones con alta precisión.

Como parte de sus resultados, Leiva Vasconcellos encontró que el algoritmo KNN fue el más eficaz de los tres evaluados, con una precisión de 85 por ciento en la clasificación de las expresiones faciales.

Los resultados fueron positivos en la replicación de emociones básicas, como la alegría, la tristeza y la sorpresa. No obstante, se identificaron algunas limitaciones en la imitación de expresiones más complejas o mixtas, donde el modelo tuvo dificultades para clasificar correctamente las emociones, lo que sugiere un área de oportunidad para investigaciones futuras.

Salir de la versión móvil