Saltar al contenido
Deberes escolares » Charlas educativas » Tan Le: Una diadema que lee nuestras ondas cerebrales – Charla TEDGlobal 2010

Tan Le: Una diadema que lee nuestras ondas cerebrales – Charla TEDGlobal 2010

Charla «Tan Le: Una diadema que lee nuestras ondas cerebrales» de TEDGlobal 2010 en español.

Tan Le presenta una asombrosa nueva interfaz capaz de leer nuestras ondas cerebrales, posibilitando el control de objetos virtuales e incluso aparatos electrónicos sólo con el pensamiento (y un poco de concentración). Aquí nos muestra su diadema computarizada y nos cuenta sus varias aplicaciones.

  • Autor/a de la charla: Tan Le
  • Fecha de grabación: 2010-07-16
  • Fecha de publicación: 2010-07-21
  • Duración de «Tan Le: Una diadema que lee nuestras ondas cerebrales»: 636 segundos

 

Traducción de «Tan Le: Una diadema que lee nuestras ondas cerebrales» en español.

Hasta ahora, la comunicación con las máquinas ha estado limitada a formas conscientes y directas.

Ya sea algo simple como un interruptor de luz o complejos como la programación robótica.

Siempre hemos tenido que ingresar comandos mediante uno o varios pasos para que una computadora ejecutara alguna tarea.

Por otro lado, la comunicación humana es mucho más compleja y más interesante porque tiene en cuenta mucho más de lo expresado explícitamente.

Mediante las expresiones y el lenguaje del cuerpo podemos intuir emociones que son parte de nuestro diálogo.

Esto juega un importante rol en nuestra manera de tomar decisiones.

Hoy nuestro objetivo es introducir este nuevo campo de interacción humana en la interacción entre el hombre y las computadoras para que éstas puedan comprender no sólo los comandos que les ordenamos sino que también puedan responder a nuestras expresiones faciales y nuestras emociones.

Y ¿qué mejor manera de lograr esto que mediante la interpretación de señales emitidas naturalmente por el cerebro? Que es nuestro centro de control.

Bien, parece una buena idea pero, como bien dijo Bruno, no es tarea fácil, por dos razones principales: primero, los algoritmos de detección.

El cerebro esta conformado por miles de millones de neuronas activas cuyos axones, combinados, alcanzan una longitud de 170.000 km.

Cuando las neuronas interactúan la reacción química emite un impulso eléctrico el cual puede medirse.

La mayor parte de nuestro cerebro funcional se encuentra distribuido en la capa externa del cerebro.

Y para lograr mayor superficie con capacidad mental la superficie cerebral está densamente plegada.

Bien, los pliegues de esta corteza presentan un desafío no menor para interpretar impulsos eléctricos superficiales.

La corteza de cada individuo está plegada de manera diferente, a la manera de huellas digitales.

Por eso, si bien una señal puede provenir de la misma parte funcional del cerebro, la particular estructura de los pliegues hace que la posición física de esta señal varíe de individuo a individuo incluso entre hermanos gemelos.

Ya no existe coherencia en la señales superficiales.

Nuestro descubrimiento fue la creación de un algoritmo que despliega la corteza de tal manera que las señales pueden localizarse cerca de su origen para poder aplicarse a la población en general.

El segundo desafío reside en el dispositivo para observar ondas cerebrales.

La electroencefalografía requiere de una red de sensores alrededor de la cabeza como la que se ve en esta foto.

Un técnico coloca los electrodos sobre el cuero cabelludo mediante un gel conductor o pasta habiendo antes preparado el cuero cabelludo con abrasivos suaves.

Pero esto lleva bastante tiempo y no es un método muy agradable.

Y, además, estos sistemas cuestan decenas de miles de dólares.

Por eso, quiero invitar a la tarima a Evan Grant, quien fuera conferencista el año pasado, y que muy amablemente ha aceptado ayudarme a demostrar ésto que desarrollamos.

(Aplauso) Este disposivo es un aparato de electroencefalografía de 14 canales y alta fidelidad.

No requiere de preparación del cuero cabelludo ni geles ni pastas.

Se coloca en unos pocos minutos y se espera a que aparezcan las señales.

También es inalámbrico por lo que permite que nos movamos.

Y en comparación con las decenas de miles de dólares de los sistemas de electroencefalografía tradicionales este casco sólo cuesta unos pocos cientos de dólares.

Ahora, los algoritmos de detección.

Las expresiones faciales, como lo mencioné antes mediante emociones, están diseñadas para funcionar fuera de la caja con algunos ajustes sensoriales disponibles para personalización.

Pero como no tenemos mucho tiempo les quiero mostrar el conjunto cognitivo que es, básicamente, la capacidad de mover objetos virtuales con la mente.

Bien, esta es la primera vez para Evan, así que lo primero que tenemos que hacer es crear un nuevo perfil para él.

Obviamente no es Joanne, por lo que selecciono «agregar usuario».

Evan.

Bien.

Así que lo primero que tenemos que hacer con el conjunto cognitivo es ejercitar una señal neutral.

De esta manera, no hay nada en particular que Evan tenga que hacer.

Sólo relajarse.

Y la idea es establecer un punto de partida o estado normal de su cerebro, porque cada cerebro es diferente.

Esto lleva ocho segundos.

Ya está listo, podemos seleccionar una acción, un movimiento.

Evan, debes elegir algo que puedas visualizar claramente en tu mente.

Evan Grant: de acuerdo, «atraer».

Tan Le: Bien.

Elijo entonces «atraer».

Así que la idea aquí es que Evan debe imaginar que el objeto se mueve hacia nosotros dentro de la pantalla.

Una barra en la pantalla indica el progreso mientras él se concentra.

La primera vez, nada va a suceder, porque el sistema no tiene idea de como él imagina «atraer».

Pero intenta mantener esa idea durante los ocho segundos.

Uno, dos, tres, cuatro, vamos.

Bien.

Al seleccionar «aceptar» el cubo se mueve.

Veamos si Evan puede imaginar «atraer».

Ah, ¡muy bien! (Aplauso) ¡Sorprendente! (Aplauso) Aún tenemos un poquito de tiempo así que le voy a pedir a Evan que realice una tarea realmente complicada.

Y digo complicada porque se trata de visualizar algo que no existe en el mundo físico.

Esto es «desaparecer».

Las acciones de movimiento son muy comunes, y es fácil visualizarlas.

Pero para «desaparecer» no existen analogías.

Así que, Evan, lo que tienes que hacer es imaginar el cubo esfumándose lentamente.

Tal cual como antes.

Uno, dos, tres, vamos.

Bien, intentemos eso.

¡Oh, cielos! ¡Qué bien lo hace! Intentemos otra vez.

EG: Estoy perdiendo la concentración.


(Risas)
TL: Pero vemos que funciona aunque sólo puedas mantenerlo por un tiempo corto.

Como decía, imaginar ésto es un proceso complicado.

Y lo grandioso de esto es que sólo le indicamos al sistema una única vez cómo Evan piensa en «desaparecer».

Ya que la máquina tiene un algoritmo de aprendizaje…—- (Aplauso) Muchas gracias.

Muy bien, buen trabajo.

(Aplauso) Muchas gracias, Evan, eres un maravilloso ejemplo de la tecnología.

Así que como pueden ver hay un progreso por niveles incorporado a este software por lo que mientras Evan, u otro usuario, se familiariza con el sistema, puede agregar más y más detecciones que permiten al sistema diferenciar entre distintos pensamientos.

Y una vez que se han entrenado las detecciones estos pensamientos pueden ser asignados o a cualquier sistema operativo, aplicación o dispositivo.

Así que quisiera mostarles algunos ejemplos de las muchas aplicaciones para esta nueva interfaz.

En juegos y el mundo virtual, por ejemplo, nuestras expresiones faciales pueden ser utilizadas intuitivamente para controlar un avatar o personaje virtual.

Podemos experimentar la fantasía de la magia y controlar el mundo con nuestra mente.

Y también los colores, las luces, los sonidos y efectos pueden responder a nuestras emociones de manera dinámica para resaltar nuestras experiencias en tiempo real.

Quiero mostrarles algunas aplicaciones desarrolladas por ingenieros en todo el mundo, con robots y máquinas simples como que un helicóptero de juguete pueda volar con sólo pensar en «elevación».

Pero esta tecnología también puede aplicarse a escenarios de la vida real.

En este ejemplo, una casa inteligente.

Desde de para correr cortinas y luego cerrarlas.

Y, por supuesto, para la iluminación: encender las luces o apagarlas.

Y finalmente, aplicaciones para calidad de vida como controlar una silla de ruedas.

En este ejemplo las expresiones faciales controlan los movimientos.

Voz: Guiña el ojo derecho para girar a la derecha.

Ahora el izquierdo para girar a la izquierda.

Ahora sonríe para avanzar.

TL: Estamos…

muchas gracias.

(Aplauso) Estamos apenas comenzando a explorar las posibilidades.

Y con la contribución de la sociedad y el aporte de los ingenieros e investigadores de todo el mundo esperamos poder darle forma al nuevo rumbo de la tecnología.

Muchas gracias.

https://www.ted.com/talks/tan_le_a_headset_that_reads_your_brainwaves/

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *