Si eres el cofundador y CEO de una empresa pionera en IA generativa, 2023 fue un año duro para el tiempo de inactividad. Y si no que se lo pregunten a Aidan Gómez, CEO de Cohere, una empresa de inteligencia artificial con sede en Toronto que se ha asociado con Oracle y otras empresas para poner sus potentes modelos de lenguaje grandes (LLM) al alcance de los clientes empresariales. Tras pensar en la asociación con Oracle, Gómez intentó escabullirse para ir a esquiar. Fue entonces cuando se encontró rodeado de nieve en la ladera de una montaña chilena, con el portátil abierto, dirigiendo una reunión de ingeniería entre su equipo y miembros de Oracle Cloud Infrastructure (OCI). “Trabajaba con Greg [Pavlic] y el equipo de OCI desde el lobby de un pequeño hotel en la cima de una montaña, depurando cosas, resolviendo problemas y poniendo en marcha pilotos”, explica. “Ha sido fantástico trabajar con Greg y también con todo el equipo de OCI”.

Como parte de la asociación, Oracle entregó a los ingenieros de Cohere los clústeres de computación AI-ready de OCI y ofreció orientación para ayudar a la firma a convertirse en una plataforma de IA líder en el sector empresarial. “Oracle tiene algunos de los mejores superordenadores del planeta, y estábamos ansiosos por tenerlos a la mano”, afirma Gómez. Más allá de eso, afirma, Oracle proporcionó una plataforma global para ofrecer a las empresas los LLM de vanguardia de Cohere. “Está realmente a la altura de nuestra misión de crearmodelos de lenguaje grandes para las empresas de manera que sus datos están hiperprotegidos”, afirma.

Con los modelos de Cohere, Oracle ha añadido capacidades de IA generativa a toda su suite de Fusion Applications y, junto con los LLM de Meta, los está utilizando para impulsar el servicio IA generativa de OCI. Con estos servicios, los clientes de OCI pueden personalizar y ajustar los LLM a sus necesidades específicas. Entre ellos se incluye el modelo Command de alto rendimiento de Cohere para la generación de texto, que ayuda a las empresas a crear e implementar chatbots, motores de búsqueda y redacción publicitaria. El modelo Summarize de Cohere proporciona resúmenes de alta calidad que capturan con precisión la información más importante de tus documentos. OCI también ofrece el modelo Embed de Cohere, que transforma el texto en vectores, una representación numérica semántica para la clasificación de textos, la agrupación e incluso la búsqueda semántica. Esta capacidad es la piedra angular de la adopción de LLM por parte de las empresas, y Cohere está a la vanguardia, afirma Gómez. “Todo este campo es tan reciente que esta tecnología solo existe desde más o menos la época en que se creó Cohere”, afirma. “Y por eso estábamos en muy buena posición para ejecutar y crear una organización que ofrezca estos modelos de lenguaje fiables y de altísima calidad”.

Me puse al día con Gómez para saber más sobre la vida en la vanguardia de la IA generativa, y especialmente sobre su misión de llevar la tecnología a la empresa.

El campo de los LLM para la empresa es muy reciente. ¿Cómo pudo Cohere entrar tan pronto?
Aidan Gómez: mientras estuve en Google Brain, tuve la suerte de formar parte del equipo que creó el transformador, que constituye la columna vertebral de esta última generación de IA generativa y modelos de lenguaje grandes. Después tuve la suerte de trabajar con Geoffrey Hinton, ganador del premio Turing, y con Jeff Dean, responsable de IA de Google.

Allí fue donde conocí a uno de mis cofundadores, Nick Frosst, y creamos Cohere para llevar realmente estosmodelos de lenguaje grandes a la empresa y que ellos pudieran llevarlos al mundo. Nos sentíamos frustrados porque veíamos la oportunidad de que estos modelos generaran un cambio transformador, pero no estaba ocurriendo. Así que decidimos hacerlo nosotros mismos.

Ayúdanos a entender la historia básica de la IA generativa y los negocios.
Aidan Gómez: el lenguaje es nuestro modo por defecto de intercambio intelectual. Es la forma en que nos gusta interactuar. Ahora nuestra tecnología ha adquirido la capacidad de utilizar el lenguaje. Podemos mantener una conversación con una máquina, y una discusión convincente.

La visión de Cohere es dotar a la tecnología de un lenguaje que abra nuevas experiencias de producto, eficiencias y modos de trabajar; va a cambiar de un modo mucho más natural e intuitivo para los humanos. Ya estamos viendo cambios en marketing, comercio electrónico, asuntos jurídicos y finanzas. Espero que todos los sectores se vean afectados.

El caso empresarial de la IA generativa: conversación con el CEO de Cohere

¿Cómo piensas ayudar a las empresas a utilizar esta tecnología?
Aidan Gómez: Cohere facilita a las empresas la adopción y el uso de esta tecnología mediante la creación de una plataforma que les da acceso a los modelos lingüísticos más avanzados.

Cohere es una fábrica de modelos. Somos una empresa que actualiza los modelos con frecuencia. Y también creamos una plataforma que permite personalizar a los clientes empresariales y hacerlo de forma totalmente privada y disponible en su nube preferida. Y todo ello en un sistema totalmente privado y seguro.

¿Cuáles son los principales retos para tus clientes?
Aidan Gómez: el principal reto al que se enfrentan nuestros clientes, o cualquier empresa que adopte la IA generativa, es la privacidad de los datos. Hay que personalizar estos modelos y hacerlo de forma que no se filtren los datos al exterior ni la competencia tenga acceso a ellos. Con Cohere, la forma en que hemos estructurado la plataforma te da la capacidad de desplegarla de forma completamente privada dentro de tu VPC [nube privada virtual]. Ni siquiera Cohere puede ver tus datos. Son realmente tus datos, y nuestros modelos se adaptan a ellos. Es un factor diferenciador clave. No necesitas enviar tus datos por cable a nuestros modelos.

¿Cómo hacer que los modelos sean más útiles para los clientes empresariales?
Aidan Gómez: una forma es con una tecnología llamada generación aumentada de recuperación, o RAG. Es una forma de hacer que los modelos sean mucho más relevantes, mucho más fiables y dignos de confianza.

RAG ofrece al modelo la posibilidad de consultar bases de datos de tu propiedad. Imagina, como consumidor, que pudieras chatear con un chatbot que tuviera acceso a tus correos electrónicos, sabría mucho más sobre ti que un chatbot genérico. Hace que la experiencia sea más pertinente y personalizada para cada usuario individual o empresa. Puedes mejorar estos modelos a través de RAG con el centro de conocimiento de tu institución.

¿Así que esto ayuda a la precisión de los resultados de la IA?
Aidan Gómez: Sí. Por ejemplo, un problema bien conocido de los LLM es la alucinación, que es cuando estos modelos sueñan hechos. Y un punto interesante al respecto es que en realidad es difícil soñar con hechos, y los modelos no quieren hacerlo. Si saben la respuesta correcta a algo, prefieren limitarse a ofrecer esa respuesta correcta a la entrada. Solo alucinan cuando sienten que tienen que hacerlo. Cuando no tienen acceso a esa información.

Es por eso que RAG es tan crucial. Esto permite al modelo salir y buscar información, descubrir información y traerla de vuelta y utilizarla como parte de su respuesta. Eso aumenta la fiabilidad, la confianza, porque en lugar de tener que fiarse de la palabra de la IA, ahora puede aportar una cita diciendo: “He leído esto aquí, en este documento”. Y así no solo es más preciso, sino que los humanos pueden verificarlo y detectar errores con mucha más facilidad.

¿Existen otras tecnologías que ayuden a los clientes empresariales a sacar aprovechar los LLM?
Aidan Gómez: creo que es muy importante tener bases de datos vectoriales en Oracle Database [y MySQL HeatWave] porque las bases de datos vectoriales son las que permiten la búsqueda verdaderamente semántica. La búsqueda semántica no se limita a relacionar las palabras clave de una consulta con los documentos, sino que relaciona la intención y el significado de la consulta con esos documentos, de modo que se obtienen resultados mucho más relevantes.

La relevancia en las consultas de búsqueda es clave para los clientes empresariales. Cuando buscas en una base de documentos, no quieres tener que intentarlo tres, cuatro o cinco veces, elaborando diferentes consultas, cambiando las palabras clave, intentando dar con la consulta que haga aflorar la información que deseas. La búsqueda vectorial, la búsqueda basada en incrustaciones o la búsqueda semántica (hay un montón de nombres diferentes para ella) ofrecen una forma intuitiva de buscar. Entiende la intención de la consulta y busca con ella en lugar de las palabras concretas que contiene.

Estoy muy emocionado de asociarme con el equipo de Oracle Database para proporcionar el último modelo de integración de Cohere, que es mucho más preciso. Y lo más reciente en búsqueda semántica.

¿Cómo te ayuda Oracle a alcanzar tus objetivos?
Aidan Gómez: la relación con Oracle ha tenido un enorme impacto aquí. Oracle es una de las marcas más conocidas y fiables en el ámbito empresarial, por lo que nos beneficiamos enormemente de asociarnos y aprender de ella.

Al mismo tiempo, la transformación que estamos viendo en toda la suite de productos de Oracle, así como la colaboración en la creación de productos completamente nuevos en OCI, es muy emocionante. Creo que ha sido extraordinario trabajar con el equipo de Oracle a todos los niveles, desde los equipos técnicos dentro de OCI hasta los equipos más centrados en los productos, el nivel de compromiso, colaboración y asistencia.

¿Qué nos depara el futuro?
Aidan Gómez: las aplicaciones de IA generativa son apasionantes principalmente porque se puede interactuar con ellas de una forma con la que nunca antes se había podido interactuar con productos o tecnología. De repente tienes la capacidad de usar el lenguaje, lo que conduce a una experiencia mágica del producto en la que sientes que la tecnología y el producto con el que interactúas te entienden.

Creo que por eso se está produciendo tanto revuelo en torno al espacio de la IA y por qué estas aplicaciones están proliferando.

Queremos incorporar esta nueva interfaz a los productos y servicios que ofrecen nuestros clientes empresariales. A continuación, vamos más allá del lenguaje. El lenguaje será una pieza del rompecabezas, pero también tendremos visión y la capacidad de hablar por audio con estos modelos, creando experiencias mucho más automatizadas. Por ejemplo, utilizar nuestros modelos para potenciar agentes, que pueden ir y realizar trabajo en tu nombre.