Ciencias
Ver día anteriorMiércoles 17 de febrero de 2010Ver día siguienteEdiciones anteriores
Servicio Sindicado RSS
Dixio

El concepto se denomina Waveface y fue presentado recientemente en una muestra

Crean computadoras que reconocen las emociones y responden a ellas

Cada elemento del ambiente del usuario, incluida su sicología, puede ser fuente de datos que ayuden a brindar la información y los servicios apropiados, explicó el fabricante

Foto
Esta imagen, generada con una computadora en 1994, daba una idea de la vista que tendrían los tripulantes de la Estación Espacial Internacional desde la cúpula del edificio. El Endeavour, en uno de sus recientes viajes, llevó un módulo italiano llamado Tranquilidad, parecido al de la imagen, que será utilizado como centro de control de robóticaFoto Reuters
The Independent
Periódico La Jornada
Miércoles 17 de febrero de 2010, p. 2

En las películas de ciencia ficción, cuando alguien confiere emociones a una computadora, todo resulta mal. La máquina se vuelve vanidosa, poco confiable e irracional, y apenas si es posible evitar un cataclismo ocasionado por la ingobernable tecnología. Sin embargo, en el diseño de computadoras existe una nueva área, dedicada a lograr máquinas que reconozcan las emociones humanas y respondan a ellas.

No se trata de entregar un sistema de misiles a una computadora llena de sentimientos, sino de mejorar la interacción entre humanos y máquinas al hacer que éstas sean más fáciles e intuitivas. Por ejemplo, computadoras que percibieran cuando un usuario comienza a sentirse frustrado podrían intentar una forma diferente de explicar cómo encontrar una falla en la conexión a Internet. Un auto que detectara cuando el conductor está a punto de quedarse dormido podría sonar una alarma.

Si bien las computadoras se han vuelto más reactivas a la conducta humana, persisten vacíos de comunicación. Un computadora personal contemporánea tiene el poder de procesamiento de una pequeña estación espacial de la década de los 70 del siglo pasado, pero no puede decir si el usuario está molesto. Construir en las computadoras una percepción de las emociones humanas será benéfico, ya sea mediante reconocimiento de expresiones y sonrisas, análisis de palabras que se dicen o escriben, o vigilancia del tono de voz o el estilo de los gestos.

Experiencia frustrante

El laboratorio de computación afectiva del Instituto Tecnológico de Massachussets lo expresa así: La emoción es fundamental en la experiencia humana, pues influye en la cognición, la percepción y en tareas cotidianas como aprender, comunicarse e incluso tomar decisiones racionales. Sin embargo, por lo regular los tecnólogos la han pasado por alto y han creado una experiencia a menudo frustrante para las personas, en parte porque el afecto es mal entendido y difícil de medir.

Una computadora no sabe que uno está frustrado, sino sólo que realiza mal una operación. Sólo un humano o un animal, como un perro, son capaces de detectar tal cosa.

Fabricar computadoras emocionales representaría claras ventajas comerciales. El mes pasado, en la Muestra Electrónica del Consumidor, Asus (creadora de la computadora personal Eee), reveló una línea de computadoras de concepto llamada Waveface, que presenta un reloj, una laptop y un televisor; junto con pantallas táctiles e imágenes de alta definición, estos artilugios futuristas de colores de caramelos prometen inteligencia emocional.

Cada elemento del ambiente del usuario, incluida su sicología y su estado emocional, puede ser fuente de datos que ayuden a brindar la información y los servicios apropiados en el momento oportuno, explicó Asus al describir sus productos.

Jonney Shih, presidente de la compañía, prevé un futuro en el que la oficina, el hogar y el espacio público estén conectados por la llamada computación en nube. La Internet será accesible en todas partes y la cantidad de información que circule por ella seguirá en ascenso.

“Ya ahora hay mucha información disponible desde Internet, desde la nube –señala–, así que el reto hoy es cómo desbrozar o filtrar esa información para recibirla como uno la necesita.” Los productos Waveface usarán datos relativos al usuario (desde su ubicación hasta su estado emocional) para ajustar la información y servicios que ofrecen lo que es relevante para la situación particular.

Con esa finalidad, Asus tiene un concepto de agente inteligente, una especie de avatar del usuario, que se construye en la interfaz de la computadora y actúa por cuenta de aquél.

Este agente, explica Shih, “intenta ayudar a la persona a conseguir lo que desea en el momento y lugar necesarios. El objetivo es conseguir información en tiempo real, en espacio real y realmente humana, para asegurarse de que uno siempre sepa dónde está, dónde están sus amigos, dónde está el lugar para estacionarse y los puntos que le interesan: restaurantes, puntos de reunión…”

Los detalles de los productos Waveface aún están envueltos en el secreto del fabricante. Pero se puede esperar que lleguen al mercado en un lapso de tres a cinco años.

No sólo los fabricantes de computadoras están intrigados por la nueva interactividad. Otras compañías que invierten en este campo son las fabricantes de automóviles. Toyota fue noticia en 2005 con el Pod, auto experimental que indicaba el estado de ánimo de su conductor abrillantando, atenuando o cambiando el color de sus faros. Estaba dotado de un programa de la compañía escocesa Affective Media que usa el tono y timbre de voz como indicadores de la emoción del conductor.

Además de modificar las luces para alertar a otros conductores, si el auto juzgaba que el manejador estaba estresado liberaba un perfume tranquilizante, ponía música relajante y tal vez sugería una ruta menos congestionada. Si detectaba que el conductor estaba a punto de quedarse dormido, sonaba una alarma.

“La voz da mucha información sobre la forma en que la persona se comporta en ese momento –indica Ray Warde, presidente de Affective Media–. Por ahora sólo ciertos modelos de autos hablan con el conductor, pero ese rasgo se volverá más común y los conductores comenzarán a controlar los autos mediante reconocimiento del habla.”

Existen innumerables formas en que los fabricantes de autos o teléfonos móviles pueden incorporar estos programas a sus productos.

Mientras la gente de dinero considera los usos comerciales, académicos como el doctor Russell Beale, de la Universidad de Birmingham, adoptan un punto de vista más amplio sobre la utilidad de que las computadoras detecten las emociones y respondan como si fueran seres dotados de ellas. De hecho, ya las tratamos como si tuvieran sentimientos. Un libro publicado en 1998 describe un experimento sicológico en el que las personas trataban a las computadoras (en ese tiempo de pantalla oscura y lucecitas verdes) como si fueran seres sociales dotados de emociones y personalidad, capaces de tener reacciones y a las que no deseaban incomodar.

Compenetración

La segunda razón es la compenetración. “Las investigaciones han mostrado que las personas se compenetran más de un sistema que parece demostrar respuestas emocionales –dice Beale–. Hace que se involucren más en la interacción, trátese de juegos, aprendizaje o sistemas de cuidado de la salud.”

Existen usos sociales para la tecnología emocional. Beale trabaja en proyectos que usan computadoras emocionales para ayudar a las personas, por ejemplo a comer en forma saludable o a dejar las drogas.

Sin embargo, existen límites. “Si uno escribe un informe urgente, lo menos que desea es que el programa Word le diga: ‘estás un poco estresado, ¿no quieres tomarte un descanso?’ A veces uno sólo desea que el sistema responda como herramienta.”

Un ejemplo fue el famoso clip de Microsoft. Hacía preguntas apropiadas, pero aparecía en el momento más inoportuno y se volvía un estorbo, comenta. Sin embargo, en los casos adecuados, incorporar empatía a los sistemas de cómputo realmente será de gran ayuda.

© The Independent

Traducción: Jorge Anaya