Un científico de la Universidad estadounidense de Binghamton ha creado una tecnología que aporta nuevas formas de proporcionar información a la computadora sobre dónde está mirando el usuario, cuáles son sus gestos o su discurso, señales visuales que pueden traducirse en órdenes para el ordenador, según un comunicado de la institución académica americana del que se hace eco Science Daily.
“Nuestra investigación en computación gráfica y visión por ordenador trata de hacer más fácil el uso de los ordenadores”, dice el científico de la Universidad de Binghamton y padre del invento, Lijun Yin. “¿Podemos encontrar una manera más cómoda, intuitiva e inteligente de usar la computadora? La respuesta sería afirmativa si logramos que el usuario se sienta como si estuviese hablando con un amigo. Esto, además, podría ayudar a las personas con discapacidad a utilizar los ordenadores del mismo modo en que lo hace el resto de usuarios”.
Uno de los retos fundamentales en este ámbito es la visión por ordenador, es decir, cómo puede una simple cámara web funcionar igual que el ojo humano. ¿Puede una cámara entender un objeto del mundo real a través de los datos que captura? Y si es así, ¿podría utilizarlos para “ver” al usuario y “entender” lo que éste desea hacer?
Hasta cierto punto, eso es ya posible, o al menos así lo atestigua un estudio dirigido por Yin, en el que el investigador consigue resaltar el contenido de varias diapositivas de una presentación en PowerPoint, usando únicamente sus ojos. Cuando Yin presentó esta tecnología a los expertos de la Fuerza Aérea estadounidense el año pasado, el único hardware que llevó consigo fue una cámara web conectada a un ordenador portátil.
Reconocimiento de emociones
Yin adelanta en el comunicado que el siguiente paso sería permitir que la computadora reconozca el estado emocional del usuario. Para logarlo, el científico trabaja con un conjunto bien establecido de seis emociones básicas – la ira, el asco, el miedo, la alegría, la tristeza y la sorpresa – y está experimentando con diferentes maneras de permitir que el equipo pueda distinguir entre ellas. Pero ante esta noticia es lógico que se sucedan un sinfín de preguntas. Por ejemplo, si sería suficiente con los datos que aportan las líneas alrededor de los ojos para certificar un cambio de actitud o, si la respuesta es negativa, si podría la boca del usuario proporcionar las pistas suficientes para discernir entre una emoción y otra. ¿Qué ocurre si la cara del usuario es sólo parcialmente visible, si tal vez sólo se observa un perfil?
Ante tanta incertidumbre el profesor Yin recurre a los bits: “Los ordenadores sólo entienden de ceros y unos. Todo gira alrededor de los patrones. Queremos saber cómo reconocer cada emoción usando sólo las características más importantes”.
Usos terapéuticos
Lijun Yin está asociado con el psicólogo de la Universidad de Binghamton, Peter Gerhardstein, para explorar la forma en la que este trabajo podría beneficiar a los niños con autismo. Muchos de los que sufren este trastorno tienen dificultades para interpretar las emociones de los demás. Los terapeutas a veces utilizan fotografías de personas para enseñar a los niños a entender cuando alguien está feliz o triste. La investigación de Yin podría incluir no sólo fotografías, sino también avatares en tres dimensiones capaces de mostrar una amplia gama de emociones. Es más, incluso podría producir los avatares exactos de los familiares del niño para usarlos en este tipo de terapia.
Una colaboración previa entre Yin y Gerhardstein culminó con la creación de una base de datos en 3D de expresiones faciales, que incluye 100 pacientes con 2.500 modelos de estas demostraciones emocionales. La base de datos ya está disponible de manera completamente libre y gratuita para la comunidad científica sin fines de lucro y se ha convertido en un banco de pruebas en todo el mundo para aquellos que trabajan en proyectos relacionados en ámbitos como la biomedicina, las leyes y la informática.
Después de que Yin se interesase por la interacción entre el hombre y la máquina se plantea con mayor entusiasmo abordar las enormes posibilidades de la inteligencia artificial. “No queremos únicamente crear un modelo de personal virtual, sino entender las emociones de una persona real y sus sentimientos. Queremos que el ordenador pueda comprender cómo se siente un ser humano y eso es aún más difícil que mis otros trabajos”, confiesa Yin.
Queremos que el ordenador pueda comprender cómo se siente un ser humano
Imagine que un ordenador pudiese saber cuándo una persona está sufriendo. Algunos pueden recurrir a su doctor para que les ayude, pero otros, como los niños pequeños, por ejemplo, no pueden expresarse del mismo modo. El siguiente reto de Yin es desarrollar un algoritmo que permita que un ordenador sea capaz de determinar cuándo alguien está sufriendo basándose sólo en una fotografía.
Yin describe la aplicación de su investigación en el ámbito de la salud para, casi a renglón seguido, señalar que el mismo sistema que permita identificar el dolor también podría ser usado para determinar cuándo alguien está mintiendo. “Esta tecnología”, afirma, “nos podría ayudar a entrenar al ordenador para que realice análisis de reconocimiento facial en lugar de los expertos.”