Todos os dias somos bombardeados pelas novas façanhas do chatGPT. O enorme tempo de antena dado a este produto – para consumo do grande público – tem escondido avanços bem maiores da IA, que são bem mais relevantes para as empresas do que GenAI para as massas…
O HYPE
Apesar do hype, GenAI é apenas a ponta do iceberg. No que respeita ao processo de Transformação Digital, e à Automação Inteligente, podemos mesmo dizer que é apenas o “topo da ponta” do iceberg. Ferramentas como o Midjourney ou o chatGPT, por espetaculares que sejam, foram apenas concebidas e treinadas para gerar imagens e texto, com capacidades mínimas de planeamento ou execução de tarefas, e só podem ser re-treinadas por quem as fornece, o que as torna muito pouco flexíveis para uso real, num ambiente de empresa.
De facto, as grandes limitações que ainda hoje sentimos na Automação Inteligente são melhor endereçadas por outras tecnologias de IA:
- “Compreender” dados não estruturados, como texto, imagens, vídeo, séries temporais, ou até os dados não numéricos que abundam nas bases de dados. Sistemas como o chatGPT são treinados para produzir texto a partir de texto, não para criar uma representação interna útil e que possa ser usada para outras coisas. Para serem úteis, os modelos de linguagem precisam de ser treinados para outras tarefas específicas, muitas vezes diferentes para cada cliente, o que implica o uso de ferramentas de Transfer Learning e que possam ser re-treinadas com poucos exemplos.
- Substituir humanos em pontos de decisão críticos, hoje tratados com a tecnologia de human-in-the-loop. Estas decisões são difíceis de formalizar (e logo, de programar). Precisamos de sistemas que possam aprender “regras” de decisão pelo exemplo humano e que possam explicar as decisões tomadas. Não queremos um robot a decidir se um pedido de reembolso de seguro é aprovado ou não, segundo um critério qualquer que o robot aprendeu, se não pudermos perguntar “porquê” e receber uma resposta convincente e detalhada. A capacidade de explicar tomadas de decisão é um dos calcanhares de Aquiles do Deep Learning, e tem que ser endereçada desde o design do sistema.
3 Substituir humanos em pontos do processo que impliquem planeamento de sequências de ações, planos que podem precisar ser revistos se as condições se alterarem. Tecnologias como Reinforcement Learning são o caminho e as grandes empresas de IA têm feito avanços notáveis deste ponto de vista.
4 Orquestração inteligente de robots. Reconhecer que a automação em massa conduz à necessidade de gerir centenas de processos, a correr em muitas dezenas de robots (agentes de software programados com uma determinada missão), o que é impossível sem Orquestração Inteligente. A orquestração é uma das áreas onde prevemos que IA possa ajudar muito, automatizando as tarefas que os humanos ainda precisam fazer.
Ex: os orquestradores de hoje limitam-se a deixar definir a prioridade de execução, quando aquilo que precisamos é que essa prioridade seja determinada de forma automática, a partir dos SLAs dos processos. São problemas de otimização combinatória, para os quais o Deep Learning ainda está muito pouco vocacionado.
5. Encontrar formas automáticas de levantamento de processos (process mining), ou de identificação das tarefas unitárias e suas sequências (task mining). Existem já algumas tentativas de uso de IA para este tipo de atividade mas serão precisos grandes avanços para podermos prescindir de pessoas nestes passos. Mais uma vez, serão sistemas baseados em Reinforcement Learning que poderão liderar o caminho.
Posto isto, chega o momento de referir que o maior obstáculo ao uso da IA na automação inteligente, não é tecnológico! Muito mais difícil será gerir todos os impactos organizacionais, éticos, morais e até legais, que os avanços de IA obrigam.
O Desafio da Responsabilidade
IA pode ser usada, grosso modo, em três tipos de atividades: classificar coisas, decidir com base nessas classificações e atuar com base em decisões. Qualquer passo desta cadeia está sujeito a erros, e nós aprendemos a viver com os nossos erros (“errar é humano”). Fomos criando mecanismos de segurança para garantir que os erros são mais raros, à medida que as suas consequências aumentam em gravidade, bem como criando leis que “responsabilizam” pessoas, quando os erros acontecem.
Por evoluída que seja a IA hoje, será impossível eliminar totalmente os erros. Teremos que aprender a viver com erros para os quais será muito difícil encontrar um responsável. Como humanos, temos uma necessidade quase inata de “justiça”, e o sistema que temos hoje também serve para satisfazer essa nossa necessidade, para lá do efeito imediato de “punir” o responsável, ou dar-lhe uma oportunidade de aprender.
Com a IA a tomar conta do processo, este “sistema de responsabilização” deixa de fazer sentido: um robot não tem “medo” de quebrar as leis, não podemos “meter” um robot na cadeia para ele “aprender”, e duvidamos que a nossa necessidade de justiça seja aplacada com uma condenação de um robot a prisão perpétua. A necessidade de justiça anda de mãos dadas com a noção de Accountability – Responsabilização, de preferência de um humano.
Quanto mais caminharmos para a automatização global, mais compreenderemos que temos que “fazer evoluir” as leis criadas exclusivamente para humanos. Nos próximos tempos, haverá sempre necessidade de um humano se “responsabilizar” pelas ações de um robot, mesmo que este seja de software. Hoje, não é ainda claro de quem é ou será essa responsabilidade. Da empresa que vendeu o software de base? De quem recolheu e escolheu os dados de treino? Do programador que escreveu o programa?
Nos próximos tempos, haverá sempre necessidade de um humano se “responsabilizar” pelas ações de um robot, mesmo que este seja de software. Hoje, não é ainda claro de quem é ou será essa responsabilidade.
Explicar e Aceitar a tomada de Decisão
Os sistemas que hoje temos não conseguem explicar a “razão” pela qual fizeram uma certa classificação, ou tomaram uma decisão, ou o plano de ações que implementaram: as redes neuronais são uma “caixa preta”, um conjunto de números que alimenta uma enorme equação matemática. No caso do chatGPT, 145 biliões desses números, embora já existam GPTs com mais de 1 Trilião de parâmetros. É difícil, para um médico, aceitar uma recomendação de um sistema quando não concorda com ela e não pode perguntar “porquê”.
E, provavelmente, não queremos retirar o médico do loop. Não só porque o sistema pode errar, mas principalmente porque queremos alguém “responsável” pela decisão. A nossa sociedade vive bem com os erros dos médicos, e de todas as outras profissões. No limite, usamos as leis e os tribunais para resolver os casos extremos.
Para além das LLMs
Relembramos o iceberg: só vemos a ponta que está fora de água, mas esta apoia-se em muito mais matéria, invisível debaixo de água. Muitos problemas de automatização podem ser resolvidos usando coisas muito mais simples do que LLMs, ou até do que redes neuronais, com grandes vantagens sobre a capacidade de explicar o “porque”.
Com todo o hype que rodeia o GenAI, é fácil cair na tentação de o querer usar para tudo, esquecendo que existem centenas de outras soluções mais adequadas. Em ambiente empresarial, essa tentação é ainda mais perigosa…
Nas organizações, será importante convencer a gestão de topo a sentar-se em volta de uma mesa, com as pessoas em quem mais confia (incluindo a área de legal e chefias intermédias) e tentar identificar, dentro de cada área, os principais processos que podem ser melhorados, automatizados e tornados “mais inteligentes” e autónomos.
Paralelamente, deve ser feita uma revisão da responsabilidade que cada elemento da empresa terá que assumir, perante a maior autonomia de ”agentes inteligentes” em tomadas de decisão. Em última instância, sem qualquer intervenção humana, e sem grande capacidade de explicação.
mensagem final
A ARPA tem nos seus quadros consultores com mais de 30 anos de experiência, capazes de ajudar a repensar o momento de transformação digital que estas tecnologias aportam, assim como filtrar o “hype” em torno das mesmas, permitindo às empresas um olhar, mais “submarino” do que superficial, sobre toda a matéria.
Ajudamos a simplificar a aplicabilidade de IA a problemas reais, criando um plano de ação, e perseguindo a sua implementação em parceria com os clientes – ligamos, deste modo, o “corpo com o cérebro” através de robots que executam as tarefas, que tomam as ações, com uma orquestração o mais eficaz possível. A nossa sugestão é que nos inclua no “sentar à mesa”, quando surgir esta temática tão complexa, tão multi-departamental e tão impactante para o futuro e a competitividade do negócio.
Não há dúvida que chegou o momento da IA. O que fazemos com tal certeza é o que vai distinguir as empresas de sucesso daquelas que apenas “flutuam” na espuma do hype que temos hoje…
“Nada tem o poder de uma ideia cujo tempo chegou.” Victor Hugo