Se você é cofundador e CEO de uma empresa pioneira em IA generativa, 2023 foi um ano difícil para períodos de inatividade. Basta perguntar a Aidan Gomez, CEO da Cohere, uma empresa de inteligência artificial (IA) com sede em Toronto, no Canadá, que fez parceria com a Oracle e outras empresas para levar seus poderosos modelos de linguagem grandes (LLMs) para clientes corporativos. Depois de sedimentar a parceria com a Oracle, Gomez tentou tirar umas férias para esquiar. Foi quando ele se viu preso na neve em uma montanha chilena, com o laptop aberto, liderando uma reunião de engenharia entre sua equipe e o pessoal do grupo Oracle Cloud Infrastructure (OCI). “Eu estava trabalhando com Greg [Pavlik] e a equipe da OCI em um pequeno saguão de hotel no topo da montanha, você sabe, depurando coisas, descobrindo problemas e iniciando os pilotos”, disse ele. “É ótimo trabalhar com Greg, assim como toda a equipe da OCI.”

Como parte da parceria, a Oracle forneceu aos engenheiros da Cohere clusters de computação prontos para IA na OCI e ofereceu orientação para ajudar a empresa a se tornar uma plataforma de IA líder no setor empresarial. “A Oracle tem alguns dos melhores supercomputadores do mundo e estávamos ansiosos para colocar as mãos neles”, declarou Gomez. Além disso, disse o executivo, a Oracle forneceu uma plataforma global para oferecer LLMs de ponta da Cohere às empresas. “Isso realmente faz jus à nossa missão de construir modelos de linguagem grandes para organizações de uma forma que proteja seus dados”, explicou.

Com os modelos da Cohere, a Oracle adicionou recursos de IA generativa em todo o seu conjunto de aplicações Fusion e, junto com os LLMs da Meta, está usando-os para potencializar o serviço de IA generativa da OCI. Com esses serviços, os clientes da OCI podem personalizar e ajustar os LLMs para atender às suas necessidades específicas. Isso inclui o modelo Command de alto desempenho da Cohere para geração de texto, que ajuda as empresas a criar e implementar chatbots, mecanismos de pesquisa e redação. O modelo Summarize da Cohere fornece resumos de alta qualidade que capturam com precisão as informações mais importantes dos seus documentos. A OCI também oferece o modelo Embed da Cohere, que transforma texto em vetores, uma representação numérica semântica para classificação de texto, clusterização e até mesmo pesquisa semântica. Essa capacidade é a base da adoção de LLMs por parte das empresas, e a Cohere está na vanguarda, disse Gomez. “Todo o campo é tão recente que essa tecnologia só existe desde a época em que a Cohere foi formada”, declarou. “E assim estávamos em uma posição muito boa para criar uma organização que fornece esses modelos de linguagem confiáveis e de altíssima qualidade.”

Conversei com Gomez para saber mais sobre a vida na vanguarda da IA generativa e, especialmente, sobre sua missão de levar essa tecnologia para outras empresas.

O campo de LLMs corporativos é muito recente. Como a Cohere conseguiu chegar tão cedo?
Aidan Gomez: Enquanto estava no Google Brain, tive a sorte de fazer parte da equipe que criou o Transformer, que constitui a espinha dorsal dessa última geração de IA generativa e modelos de linguagem grandes. Depois disso, tive a sorte de trabalhar com o vencedor do Prêmio Turing, Geoffrey Hinton, e também com o chefe de IA do Google, Jeff Dean.

Foi aí que conheci um dos meus cofundadores, Nick Frosst, e criamos a Cohere para realmente levar esses modelos de linguagem para as empresas, para que elas pudessem levá-los para o mundo. Ficamos frustrados porque vimos o potencial de transformação desses modelos, mas isso simplesmente não estava acontecendo. Então, decidimos que nós mesmos faríamos isso.

Ajude-nos a entender a linha do tempo básica da IA generativa nos negócios.
Aidan Gomez: A linguagem é nosso modo padrão de intercâmbio intelectual. É a maneira como interagimos. Agora nossa tecnologia adquiriu a capacidade de usar a linguagem. Podemos manter uma conversa com uma máquina – e uma conversa convincente.
A visão da Cohere é fornecer uma linguagem tecnológica que possibilite experiências de produtos totalmente novas, um modo totalmente novo de trabalhar; uma forma muito mais natural e intuitiva para os humanos. Já estamos vendo mudanças em marketing, comércio eletrônico, no direito e nas finanças. Espero que todos os setores sejam impactados.

Como você pretende ajudar as empresas a usar essa tecnologia?
Aidan Gomez: A Cohere facilita a adoção e o uso dessa tecnologia pelas empresas ao fornecer uma plataforma que lhes dá acesso a modelos de linguagem de última geração. A Cohere é uma fábrica de modelos. Somos uma empresa que atualiza modelos com frequência. E também construímos uma plataforma que permite que os clientes corporativos personalizem os modelos e façam isso de uma forma privada e disponível na nuvem de sua preferência. Isso tudo dentro de um sistema totalmente privado e seguro.

Quais são os principais desafios dos seus clientes?
Aidan Gomez: O principal desafio dos nossos clientes – ou de qualquer empresa que adote IA generativa – é a privacidade dos dados. Você precisa personalizar esses modelos e fazê-lo de uma forma que não vaze seus dados para o mundo exterior ou dê a seus concorrentes acesso a esses dados. Com a Cohere, a forma como estruturamos a plataforma oferece a capacidade de implementá-la de forma totalmente privada em sua VPC [nuvem privada virtual]. Nem mesmo a Cohere pode ver seus dados. São realmente seus dados, e nossos modelos são aplicados a eles. Então esse é um diferencial importante. Você não precisa enviar seus dados para os nossos modelos.

O papel da IA generativa nos negócios: Uma conversa com o CEO da Cohere

Como tornar os modelos mais úteis para clientes corporativos?
Aidan Gomez: Uma maneira é com uma tecnologia chamada geração aumentada de recuperação, ou RAG. É uma forma de tornar os modelos muito mais relevantes, mais confiáveis. A RAG dá ao modelo a capacidade de consultar bancos de dados de sua propriedade. Imagine, como consumidor, se você pudesse conversar com um chatbot que tivesse acesso aos seus emails. Ele saberia muito mais sobre você do que um chatbot genérico. Isso torna a experiência mais relevante e personalizada para cada usuário ou empresa. Você pode aumentar esses modelos via RAG com a central de conhecimento da sua instituição.

Então, isso ajuda na precisão dos resultados?
Aidan Gomez: Sim. Por exemplo, um problema bem conhecido dos LLMs é a alucinação, que ocorre quando esses modelos inventam fatos. E um ponto interessante sobre isso é que é realmente difícil imaginar fatos, e os modelos não querem fazê-lo. Se eles souberem a resposta correta para alguma coisa, preferirão apenas oferecer a resposta certa. Eles só têm alucinações quando sentem que precisam. Quando eles não têm acesso às informações necessárias.

É por isso que a RAG é tão importante. O que isso faz é permitir que o modelo procure e descubra informações, traga-as de volta e use-as como parte da sua resposta. Isso aumenta a confiabilidade, porque em vez de apenas ter que acreditar na IA, o modelo agora pode fornecer uma citação dizendo: eu li isso aqui neste documento. Dessa forma, os resultados não são só mais precisos, como os humanos podem verificá-los e detectar erros com muito mais facilidade.

Existem outras tecnologias que ajudam os clientes corporativos a aproveitar as vantagens dos LLMs?
Aidan Gomez: Acho muito importante ter bancos de dados vetoriais no Oracle Database [e no MySQL HeatWave] porque são eles que permitem uma pesquisa verdadeiramente semântica. A pesquisa semântica significa que você não está apenas combinando palavras-chave em alguma consulta com documentos, mas também combinando a intenção e o significado de uma consulta com esses documentos, de modo que surja resultados significativamente mais relevantes.

A relevância nas consultas é fundamental para os clientes corporativos. Ao pesquisar uma base de documentos, você não quer ter que tentar três, quatro ou cinco vezes, elaborando consultas diferentes, alterando as palavras-chave, tentando descobrir aquela pergunta que revela as informações que você deseja. A pesquisa vetorial – baseada em incorporações ou semântica (há vários nomes diferentes para ela) – oferece uma maneira intuitiva de pesquisar. Ela entende a intenção da sua consulta e pesquisa com ela, em vez das palavras específicas contidas nela.

Estou muito entusiasmado com a parceria com a equipe do Oracle Database para fornecer o modelo de incorporação mais recente da Cohere, que é muito mais preciso. E a última palavra em pesquisa semântica.

Como a Oracle está ajudando você a alcançar seus objetivos?
Aidan Gomez: O relacionamento com a Oracle teve um enorme impacto para mim. A Oracle é uma das marcas mais conhecidas e confiáveis no [espaço] empresarial e, por isso, nos beneficiamos enormemente ao fazer parcerias e aprender com a Oracle.
Ao mesmo tempo, a transformação que estamos vendo em todo o conjunto de produtos da Oracle, bem como a colaboração na criação de produtos inteiramente novos na OCI, é muito emocionante. Acho que tem sido extraordinário trabalhar com a equipe da Oracle em todos os níveis, desde as equipes técnicas da OCI até as equipes mais focadas no produto, quando se trata de engajamento, parceria e suporte.

O que o futuro nos reserva?
Aidan Gomez: As aplicações de IA generativa são interessantes principalmente porque você pode interagir com elas de uma forma que nunca foi possível antes com nenhum outro produto ou tecnologia. De repente, você tem a capacidade de usar a linguagem, o que proporciona uma experiência fascinante, em que você sente que a tecnologia e o produto com o qual você está interagindo o entendem.

Acho que é por isso que estamos vendo tanta agitação no espaço da IA e porque essas aplicações estão explodindo. Queremos habilitar essa nova interface nos produtos e serviços que nossos clientes corporativos oferecem. Daí, iremos além da linguagem. A linguagem será uma peça do quebra-cabeça, mas também teremos visão e áudio incorporados a esses modelos, criando experiências muito mais automatizadas. Por exemplo, usando nossos modelos para capacitar agentes que podem sair e trabalhar em seu nome.