NMC Horizon Report > 2017 Higher Education Edition (Spanish)
>Desarrollos importantes en la tecnología educativa para la educación superior
>>Plazo estimado para su implementación: de cuatro a cinco años

La interfaz natural de usuario

Plazo estimado para su implementación: de cuatro a cinco años

Resumen ejecutivo

Introducción

Tendencias clave que aceleran la adopción de nuevas tecnologías en la educación superior

Tendencias a largo plazo: avance en la adopción de nuevas tecnologías en la educación superior en cinco o más años

 > El avance de las culturas de innovación
 > Enfoques de aprendizaje más profundo

Tendencias a medio plazo: avance en la adopción de nuevas tecnologías en la educación superior en los próximos tres a cinco años

 > Crecimiento del interés en la analítica del aprendizaje
 > Rediseño de los espacios de aprendizaje

Tendencias a corto plazo: avance en la adopción de nuevas tecnologías en la educación superior en los próximos uno o dos años

 > Diseños de aprendizaje híbrido
 > Aprendizaje colaborativo

Desafíos significativos que impiden la adopción de tecnologías en la enseñanza superior

Desafíos solucionables: aquellos que entendemos y sabemos cómo solucionar

 > Mejora de la alfabetización digital
 > Combinación de aprendizaje formal e informal

Desafíos difíciles: aquellos que entendemos pero cuyas soluciones son imprecisas

 > Diferencia de rendimiento
 > Avance de la equidad digital

Desafíos muy difíciles: aquellos que son difíciles incluso de definir y mucho más de solucionar

 > Gestión del conocimiento obsoleto
 > Replanteamiento del rol del educador

Desarrollos importantes en la tecnología educativa para la educación superior

Plazo estimado para su implementación: un año o menos

 > Tecnologías de aprendizaje adaptativo
 > Aprendizaje móvil

Plazo estimado para su implementación: de dos a tres años

 > Internet de las cosas
 > La próxima generación de LMS

Plazo estimado para su implementación: de cuatro a cinco años

 > Inteligencia artificial
 > La interfaz natural de usuario

Metodología

El panel de expertos en educación superior 2017

Una creciente lista de dispositivos construidos con interfaces naturales de usuario (NUIs) aceptan entradas en forma de pulsación, arrastres y otras formas de tocar, movimientos de la mano y del brazo, movimiento corporal y cada vez más, el lenguaje natural. Las tabletas y los smartphones fueron uno de los primeros dispositivos que permitieron a los ordenadores reconocer e interpretar los gestos físicos como un medio de control.[i] Estas NUIs permiten que los usuarios participen en actividades virtuales con movimientos similares a los que utilizarían en el mundo real, manipulando el contenido intuitivamente. Hay un creciente nivel de fidelidad interactiva en los sistemas que comprenden los gestos, las expresiones faciales y sus matices, así como la convergencia de la tecnología de detección de gestos con el reconocimiento de voz. Aunque ya hay muchas aplicaciones de reconocimiento gestual y de voz, los desarrollos en tecnología háptica, sensaciones táctiles que transmiten información al usuario, están creando nuevas áreas de investigación científica y aplicación en la educación.[ii]

Visión general

Aunque las interfaces naturales de usuario se popularizaron en gran medida con el lanzamiento del iPhone y su pantalla táctil en 2007, el concepto de la interfaz de usuario natural ya se estaba formando. Los debates sobre el desarrollo de interfaces más allá de la línea de comandos y las interfaces gráficas de usuario se produjeron en los años 70 y 80 cuando Steve Mann, considerado como el padre de la informática wereable, comenzó a experimentar con las interacciones hombre-máquina que terminaron convirtiéndose en las NUIs. [iii] Según un informe de Tracxn, se han invertido más de 800 millones de dólares en NUIs desde 2010 en seis categorías principales: reconocimiento de voz, interfaces de pantalla táctil, reconocimiento de gestos, seguimiento de los ojos, hápticas y la interfaz cerebro-ordenador. La educación superior está jugando un papel importante en estos desarrollos ya que las universidades están diseñando muchas tecnologías facilitadoras que crean un impacto en cómo los estudiantes se comportarán en el futuro con las tecnologías de aprendizaje.[iv]

Es probable que el desarrollo de las NUI en el ámbito de los consumidores tenga un impacto en la educación superior, ya que las organizaciones de aprendizaje deben atender a las expectativas de los estudiantes en constante cambio. Algunos líderes de la industria, como Amazon, Apple y Google, han desarrollado productos habilitados por voz que están ganando terreno en el mercado. El reciente estudio de investigación del NDP Group encontró que el 73% de los propietarios de un smartphone ya utilizan comandos de voz para interactuar con sus dispositivos. Con su asistente virtual Siri, Apple está experimentando la autenticación de voz donde la biometría de voz puede ser utilizada para identificar a los usuarios.[v] Los desarrolladores de dispositivos wearables también están utilizando el reconocimiento de gestos para que sus interfaces evolucionen. La tercera generación de gafas inteligentes llamada K-Glass 3 del Korean Institute of Science and Technology ahora puede detectar movimientos de mano y proporcionar texto virtual o teclados de piano para hacer las interfaces más intuitivas y convenientes.[vi]

La tecnología háptica donde los usuarios interactúan con sensores, actuadores y software que simulan el tacto físico, es una categoría de NUI ampliamente experimentada en los sectores de consumo y educación.[vii] Los investigadores de la University of Sussex están experimentando interfaces que utilizan la piel como una pantalla táctil – una solución a la disminución del tamaño de wearables como smartwatches. La herramienta, llamada SkinHaptics, envía ondas de ultrasonido a través de la parte posterior de la mano a una pantalla en la palma. [viii] Aunque la educación superior está lejos desvelar completamente el potencial de las NUI que cambie drásticamente la forma en que los estudiantes usan los ordenadores, el campo de la formación médica ya está generando implicaciones convincentes. La tecnología háptica de retroalimentación está mejorando la cirugía robótica que ya está ayudando a los cirujanos a afinar el tacto dentro de un cuerpo humano mientras que interactúan con los tejidos. Esto tiene aplicaciones en estudios de anatomía donde los estudiantes de medicina se entrenan con un suministro limitado de cadáveres. La tecnología háptica permitiría que los estudiantes trabajen con un paciente digital de manera más realista.[ix]

Relevancia en la enseñanza, el aprendizaje, o la investigación creativa

Las interfaces naturales de usuario se están convirtiendo en instrumentos en la investigación y la formación de profesionales médicos. El Mechatronics and Haptic Interfaces Lab de la Rice University está experimentando con la neurotecnología para ayudar a los pacientes con ictus a recuperar el movimiento. Los investigadores allí han desarrollado un dispositivo ortopédico robótico que utiliza las ondas cerebrales de un paciente de apoplejía para operar el exoesqueleto que rodea su brazo desde el codo hasta las yemas de los dedos.[x] Los investigadores de la Stanford University han creado el Wolverine, un dispositivo móvil háptico que simula el agarre de un objeto rígido en la realidad virtual.[xi] En la Hong Kong Polytechnic University, los estudiantes de enfermería utilizan un sistema de retroalimentación háptica para practicar la colocación de sondas nasogástricas. Insertar un tubo de plástico en el estómago para la alimentación o el drenaje es importante en la práctica de la enfermería, ya que una colocación equivocada podría llevar a complicaciones o incluso a la muerte. El uso de un entorno virtual simulado por ordenador reduce el riesgo y permite una mayor precisión.[xii]

La evolución de las NUI permite un mayor acceso a la educación para las personas con discapacidades. Los estudiantes con deficiencias visuales pronto podrán beneficiarse del trabajo de un equipo de investigadores interdisciplinarios de la University of Michigan’s Engineering, Music, and Theater and Dance Schools. El equipo está desarrollando una tablet con una pantalla de exploración actualizable a gran escala que utiliza aire o líquido neumático para empujar los puntos hacia arriba y hacia abajo, permitiendo que haya muchas líneas de Braille, así como la posibilidad de leer gráficos, hojas de cálculo y otra información científica y matemática distribuida espacialmente.[xiii] En la Deakin University, los investigadores están desarrollando la investigación háptica a medida para mejorar la apreciación de las artes. Su proyecto Haptic-Enabled Art Realization (HEAR) es una plataforma que permite que los discapacitados visuales sientan la información dentro de una obra de arte bidimensional.[xiv]

Los experimentos con NUIs tienen el potencial de sacar a la luz nuevas formas de aprendizaje y comunicación en la educación. Disney Research ha desarrollado una tecnología de vibración electrostática llamada TeslaTouch que mejora las pantallas lisas de vidrio con sensaciones táctiles, permitiendo que los usuarios sientan golpes, crestas y otras texturas. Esta tecnología ofrece posibilidades de interacciones más profundas con el contenido educativo. El fenómeno de la sensación táctil inducida eléctricamente, aplicado a los dispositivos móviles, crea el potencial para los libros de texto interactivos, permitiendo que los estudiantes manipulen objetos 3D directamente en una página.[xv] En la  University of Tampere, en Finlandia, proyectos actuales están investigando una forma totalmente nueva de interfaz humano-tecnología que añade una nueva dimensión a las comunicaciones que son principalmente de audio y visuales en la naturaleza. Su proyecto Digital Scents mide olores a través de una nariz electrónica y convierte esa información en un sistema de numeración, permitiendo la transferencia digital de percepciones olfativas y experiencia en todo el mundo.[xvi]

La interfaz natural de usuario en la práctica

Los siguientes enlaces proporcionan ejemplos de interfaz natural de usuario que tienen implicaciones directas en entornos de educación superior:

Computer Aided Engineering Design and Virtual Prototyping

go.nmc.org/pvamu

Un proyecto de investigación mecánica en la Prairie View A&M University está combinando el modelado de formas libres con técnicas de realidad virtual para mejorar los prototipos aeroespaciales, automotrices y de modelos. El proceso de escultura virtual utiliza un sistema PowerWall VR y un controlador háptico.

HoloMed: A Low-Cost Gesture-Based Holographic System to Learn Normal Delivery Process (PDF)

go.nmc.org/arxiv

A menudo se utilizan fotografías para visualizar ciertos elementos en los estudios de medicina, pero son insuficientes debido a su naturaleza estática. HoloMed es un sistema holográfico emparejado con una interfaz basada en el gesto que ayuda a los estudiantes a visualizar con mayor precisión el proceso de parto.

Improving Motivation in a Haptic Teaching/Learning Framework

go.nmc.org/improm

Los investigadores de ingeniería en España han desarrollado un marco para construir simuladores de retroalimentación háptica en la educación. Los simuladores ofrecen a los estudiantes la oportunidad de interactuar virtualmente con infraestructura, dispositivos críticos y tejidos y órganos corporales, respectivamente en campos como la educación en ingeniería civil, la educación en ingeniería electrónica y la cirugía.

Lecturas adicionales

Se recomiendan los siguientes recursos a aquellas personas que deseen aprender más acerca de la interfaz natural de usuario:

Augmented Reality and Virtual Reality Go to Work

go.nmc.org/arandvr

(Nelson Kunkel, Deloite University Press, 24 de febrero de  2016.) Algunas tecnologías como la realidad aumentada y la realidad virtual han introducido nuevas interfaces que están cambiando el modo en que las organizaciones hacen negocios: mejorar la fidelidad de la intención, aumentar la eficiencia y fomentar la innovación.

A Tactile Palette to Translate Graphics for the Visually Impaired

go.nmc.org/tacolor

(Muhammad Usman Raza et al, National Braille Technology, acceso el 18 de enero de 20172017.) La investigación dirigida por Disney y la National Braille Press investiga el uso de la vibración electrostática en pantallas habilitadas por fricción para transmitir información de color. Con una paleta táctil de seis estímulos que corresponden a seis colores específicos, los usuarios con deficiencias visuales podrán percibir el color en gráficos bidimensionales.

Why Conversational UI is the Next Big Digital Disruption

go.nmc.org/cuiss

(Sarat Pediredla, IT Pro Portal, 1 de abril de 2016.) Las interfaces de usuario están pasando de las interfaces gráficas de usuario a las interfaces de conversación en las que las personas pueden usar sus voces para interactuar con un dispositivo. El aprendizaje automático y los avances en big data permitirán cada vez más a los ordenadores entender objetos hipotéticos y eventos futuros.

[i]                                   http://arstechnica.com/gadgets/2013/04/from-touch-displays-to-the-surface-a-brief-history-of-touchscreen-technology/

[ii]                                  https://www.fastcodesign.com/3049577/wears/the-newest-user-interface-rhythm

[iii]                                 https://www.interaction-design.org/encyclopedia/wearable_computing.html

[iv]                                https://blog.tracxn.com/2016/02/11/tracxn-report-natural-user-interface/

[v]                                 http://findbiometrics.com/natural-speech-iot-311-96/

[vi]                                https://www.sciencedaily.com/releases/2016/02/160226125315.htm

[vii]                               http://www.sigmadzn.com/user-experience-emerging-use-haptics/

[viii]                              https://thestack.com/world/2016/04/11/skinhaptics-turns-your-palm-into-a-touchscreen/

[ix]                                https://www.vancouver.wsu.edu/haptic-touch

[x]                                 https://www.aau.edu/research/article4.aspx?id=17857

[xi]                                http://shape.stanford.edu/research/wolverine/

[xii]                               https://docs.google.com/document/d/1k4gAtOvO3jMUJeKz4p5YzuBESjBHXqDvBQzclcvEyiw/edit#

[xiii]                             http://www.engin.umich.edu/college/about/news/stories/2015/december/refreshable-braille-device

[xiv]                             http://www.deakin.edu.au/iisri/our-research/haptics-research

[xv]                              https://blog.somaticlabs.io/electrovibration-electrostatic-vibration-and-touchscreens/

[xvi]                             http://www2.uta.fi/en/ajankohtaista/uutinen/universities-tampere-develop-digital-scent-technology