
- Apple anunció planes para aceptar el control de interruptores para las interfaces de computadoras cerebrales
- La aparejo haría que dispositivos como iPhones y auriculares Vision Pro accesibles para personas con afecciones como ALS
- Combinado con la característica de voz personal de AI de Apple, las interfaces del cerebro-computadora podrían permitir a las personas pensar que las palabras y escucharlas habladas en una traducción sintética de su voz
Nuestros teléfonos inteligentes y otros dispositivos son secreto para tantas tareas personales y profesionales durante todo el día. El uso de estos dispositivos puede ser difícil o directamente increíble para aquellos con ELA y otras condiciones. Apple cree que tiene una posible posibilidad: pensar. Específicamente, una interfaz de computadora cerebral (BCI) construida con síncrono de inicio neurotecnia australiano que podría proporcionar versiones manos libres y controladas por el pensamiento de los sistemas operativos para iPhones, iPads y los auriculares Vision Pro.
Un implante cerebral para controlar su teléfono puede parecer extremo, pero podría ser la secreto para aquellos con lesiones graves de la esencia espinal o lesiones relacionadas para interactuar con el mundo. Apple admitirá el control del interruptor para aquellos con el implante incrustado cerca de la corteza motora del cerebro. El implante recoge las señales eléctricas del cerebro cuando una persona piensa en moverse. Traduce esa actividad eléctrica y la alimenta al software de control de Switch de Apple, convirtiéndose en acciones digitales como escoger iconos en una pantalla o navegar por un entorno posible.
Implantes cerebrales, voces de IA
Por supuesto, todavía es temprano para el sistema. Puede ser paulatino en comparación con el tapping, y los desarrolladores llevará tiempo construir mejores herramientas BCI. Pero la velocidad no es el punto en este momento. El punto es que las personas podrían usar el implante cerebral y un iPhone para interactuar con un mundo del que de otro modo estaban cerrados.
Las posibilidades son aún mayores cuando se observan cómo podría combinarse con clones de voz personal generados por AI. La función de voz personal de Apple permite a los usuarios registrar una muestra de su propio discurso para que, si pierden su capacidad de conversar, puedan originar un discurso sintético que todavía suena como ellos. No es muy indistinguible de la cosa positivo, pero está cerca y mucho más humana que la imitación robótica hogareño de películas antiguas y programas de televisión.
En este momento, esas voces se desencadenan por el tacto, el seguimiento visual u otra tecnología de concurrencia. Pero con la integración de BCI, esas mismas personas podrían “pensar” su voz en existencia. Podrían conversar solo con la intención de conversar, y el sistema haría el resto. Imagine a cierto con ALS no solo navegar por su iPhone con sus pensamientos, sino que igualmente vuelva a conversar a través del mismo dispositivo “escribiendo” declaraciones para que su clon de voz sintética diga.
Si admisiblemente es increíble que un implante cerebral pueda permitir que cierto controle una computadora con su mente, la IA podría llevarla a otro nivel. No solo ayudaría a las personas a usar tecnología, sino igualmente a ser ellos mismos en un mundo digital.