OpenAI lanzó su ChatGPT-4o y además de varias actualizaciones que aseguran cambiarán por completo el mundo de los asistentes virtuales, se destaca una función desarrollada junto a Be My Eyes,que permite a las personas con discapacidad visual tener una rápida descripción del escenario en el que se encuentran, de manera inmediata.
Se trata de un asistente visual, en tiempo real, que comenta a los usuarios no solamente textos, sino también imágenes grabadas con el celular en tiempo real.
Así, por ejemplo, una persona ciega le puede pedir que describa lo que está sucediendo en un paisaje, cómo se encuentra un edificio, o incluso distinguir cuando se acerca un taxi.
Si bien está función está incluida en el nuevo modelo de inteligencia artificial de OpenAI, ChatGPT 4-o, lo cierto es que Be My Eyes y Chat GPT4 ya trabajaban con Microsoft en la herramienta de asistente visual para personas con discapacidad, que permitía a los usuarios resolver problemas técnicos o realizar tareas como actualizar software sin necesidad de la ayuda de un agente del centro de llamadas.
Esta nueva herramienta es un modelo de visión, que puede generar desde descripción de una fotografía, leer instrucciones para configurar una computadora nueva o etiquetas de productos. Además desarrolla conversaciones, mediante la cual puede proporcionar orientación contextual y brindar consejos para ayudar a los usuarios a resolver problemas.
ChatGPT 4-o
El nuevo modelo de inteligencia artificial fue anunciado por OpenAI este lunes, y es una versión mejorada del ya conocido ChatGPT.
La principal diferencia con el ChatGPT4.0 es que esta es gratuita, e incluye tres modelos de voz, transcripción, inteligencia y texto a discurso, además de traductor de manera inmediata.
Se lo ha denominado Omnimodel, lo que también permitirá mejorar su memoria y poder consultar chats anteriores, otorgando mayor continuidad a las conversaciones.
También se destaca la fluidez para conversar con el chatbot de manera más fluida.