El gigante tecnológico Meta (matriz de Facebook, Instagram y WhatsApp) busca que en un «futuro no muy lejano» se vean hologramas entre los objetos reales y que el ser humano viva en una realidad mixta -la combinación de realidad virtual (RV) y realidad aumentada (RA)- gracias, en parte, a su modelo de lenguaje (LLM), su inteligencia artificial (IA) y sus diversas gafas.
«Me resulta gracioso cuando la gente dice que el mundo digital, el de las aplicaciones, no es el mundo real, porque creo que cada vez más el mundo real es una combinación del mundo físico en el que habitamos y el mundo digital que estamos construyendo», apuntó el director ejecutivo, Mark Zuckerberg, en la apertura de la conferencia de Meta Connect que se celebra este miércoles y jueves en el campus de la compañía en Menlo Park (California).
El también creador de Facebook señaló que en la actualidad «se toca el mundo digital» principalmente a través de pantallas, pero que una pregunta que se tiene que hacer la industria tecnológica es cómo unificar estas experiencias.
«En el futuro, creo que no muy lejano, entrarás a una habitación y habrá tantos hologramas y cosas digitales con las que podrás interactuar como objetos reales (…) Llegará a un punto en el que estarás físicamente con algunos de tus amigos y otros estarán allí digitalmente y se sentirán tan presentes como todos los demás», añadió Zuckerberg.
En tanto, el Metaverso del que lleva hablando Zuckerberg desde el 2021 sigue siendo una prioridad, pese a qué aún no ha alcanzado la popularidad que la empresa esperaba.
Llama 2
Este miércoles, en el segundo día de la conferencia, Joe Spisak, director de gestión de productos de Meta, señaló que el futuro de su LLM Llama 2, que salió en julio y es gratuito para uso comercial y de investigación, también va hacia esta dirección.
«El mundo en el que vivimos es multimodal, no es puramente un paradigma de texto a texto. Así que se verá un movimiento en diferentes direcciones en el futuro», anotó Spisak en su ponencia hoy.
Uno de estos «movimientos» fue el anuncio que las gafas inteligentes Ray-Ban-Meta -que se lanzará el 17 de octubre en EE. UU. con un precio inicial de 299 dólares (unos 282 euros)-, que serán actualizadas con la nueva IA de Meta y que está aún en fase de prueba-.
Esto será como tener a un asistente en las gafas al que se puede acceder tocando la patilla de los lentes de ver o de sol.
De momento, Meta está desarrollando su IA solo en inglés.
No obstante, es la IA capaz de traducir al español, ya que EFE le preguntó a la IA de las gafas cómo se decía «feliz cumpleaños» en español y la IA -que tiene voz masculina- fue capaz de responder correctamente, misión que fracasó cuando se le preguntó la misma traducción pero al mandarín.
Ética y seguridad
Otro pilar de LLama 2, según dijo hoy Spisak, es la «seguridad» y el director de gestión de productos de Meta anotó que el LLM de Meta a veces es hasta «demasiado segura».
Meta ha señalado que no entrena su LLM con la información de sus usuarios.
La empresa ya se ha enfrentado a sus primeras demandas por derechos de autor. En julio, la humorista y escritora Sarah Silverman, así como otros autores, demandaron a OpenAI -creadora de ChatGPT- y Meta.
Las demandas señalan, entre otras cosas, que ChatGPT y Llama fueron entrenados con sus trabajos, que, según dicen los demandantes, fueron adquiridos de webs que son «bibliotecas fantasmas» que no cuentan con los derechos de los creadores como: Bibliotik, Library Genesis y Z-Library. EFE