Introdução
Parece que foi há mais tempo, mas o Chat-GPT foi lançado apenas em novembro de 2022. A OpenAI, a desenvolvedora da ferramenta, anunciou que mais de um milhão de pessoas tinham se cadastrado para utilizá-la um mês depois. Um ano depois, este número já está em 180 milhões. Esse surgimento e alcance sem precedentes reacendeu o debate sobre o impacto da inteligência artificial na sociedade. Afinal, ao usar o chat parece que estamos de fato em uma conversa com alguém capaz de nos entender e formular suas próprias ideias e opiniões. E exemplos não tardaram a chegar para corroborar esta visão: um pesquisador anunciou que o chat foi capaz de passar no exame final de um dos MBAs mais prestigiados do mundo; um escritor anunciou que escrevera um livro usando somente a inteligência artificial, entre outros.
Pouco tempo depois, pensadores importantes como Yuval Noah Harari passaram a expressar suas preocupações com os impactos da IA: “O domínio da inteligência artificial sobre a linguagem é uma ameaça à civilização”. Até chegarmos ao ponto em que figuras como Elon Musk e Sam Altman, CEO da própria OpenAI passarem a advogar por mais regulamentação sobre estas tecnologias.
Como quase tudo que cerca a área de inteligência artificial e ciência de dados, o excesso de hype e pouca profundidade prejudicam o debate. O crescente aumento da complexidade da arquitetura das redes neurais, como a que está por trás do Chat-GPT, por exemplo, apenas reforça a ideia de “caixa preta” por trás destes tipos de algoritmos. E os exemplos apresentados na mídia e nas redes sociais tendem a nos deixar uma imagem de que essas tecnologias são tão poderosas quanto possivelmente perigosas. Mas isso é realmente verdade? Se continuarmos tratando essas ferramentas como caixas pretas misteriosas é impossível dizer. Somente dedicando um tempo para investigar como essa tecnologia funciona tão bem a ponto de parecer que outra pessoa está digitando do outro lado da tela é que realmente poderemos entender com o que estamos lidando.
O que é inteligência artificial (IA)
Não ajuda muito o fato de a própria definição do termo inteligência artificial não ser universal. Na verdade, é comum ouvir de especialistas, quando perguntados sobre o que é IA, falarem: depende do contexto. No meio do entretenimento e ficção científica, por exemplo, pode ser sinônimo de máquinas que adquiriram capacidade de inteligência humana. Veja a sinopse do filme “A resistência”, lançado em 2023:
Resistência é um filme de drama e ficção científica que se passa em um futuro distante, em meio a um planeta tomado por uma intensa guerra entre seres humanos e inteligência artificial .O ex-agente Joshua (John David Washington) é recrutado para localizar um misterioso arquiteto responsável por desenvolver uma arma capaz de acabar com o confronto e com toda a humanidade. Joshua e sua equipe partem, então, para um território sombrio ocupado pela IA, mas acabam fazendo uma descoberta chocante: a arma que devem destruir é, na verdade, uma inteligência artificial em forma de criança.
fonte: Adoro Cinema
No contexto de ciência de dados, entretanto, inteligência artificial se refere a um tipo especial de programa de computador chamado algoritmo de machine learning (ou aprendizado de máquina).
Para facilitar a identificação de uma IA, é preciso diferenciá-la de um programa tradicional de computador (baseado em instruções, do inglês rules-based). Neste tipo de programa tradicional, o desenvolvedor escreve instruções (regras) específicas para que o computador execute uma tarefa. Sendo assim, o programa faz exatamente o que foi instruído. Uma vez escrito e compilado, o programa não muda ou “aprende” com novos dados a menos que seja explicitamente atualizado ou reescrito pelos desenvolvedores.
Mas um algoritmo de aprendizado de máquina (machine learning) descobre as regras por tentativa e erro usando um conjunto de dados histórico, avaliando seu sucesso de acordo com os objetivos especificados pelo programador (através das chamadas métricas de erro). O objetivo pode ser identificar se um e-mail é spam, prever emissão de CO2 de uma caldeira ou o melhor lance em um jogo de xadrez, entre outros. À medida que a IA tenta atingir esse objetivo, ela pode descobrir regras e correlações entre as variáveis do conjunto de dados que o desenvolvedor nem sabia que existiam. A eficácia dos algoritmos de machine learning depende em grande parte da quantidade e qualidade dos dados disponíveis para treinamento. Além disso, apresentam capacidade de melhorar seu desempenho à medida que são expostos a mais dados. É daí que vem o termo “aprendizado”.
O mito da inteligência artificial generalista
Um dos livros mais importantes sobre este tema foi lançado no auge da pandemia, em 2021, e chama-se “O mito da inteligência artificial: por que os computadores não podem pensar como nós” (em tradução livre), do cientista da computação Erik J Larson. Neste livro o autor explica o que considera ser o “mito” da inteligência artificial:
O mito da IA é que sua chegada é inevitável, e apenas uma questão de tempo – e que nós já embarcamos em um caminho que vai levar uma IA de nível humano.
Todavia (…) todas as evidências sugerem que as inteligências humanas e de máquina são radicalmente diferentes. O mito da IA insiste em dizer que as diferenças são temporárias e que sistemas mais poderosos eventualmente irão eliminá-las.
Com base nas tecnologias já desenvolvidas e suas aplicações, podemos classificar o desenvolvimento da inteligência artificial em dois tipos:
1 Inteligência artificial restrita (“Narrow AI”, do inglês): todas as soluções que temos hoje são deste tipo – algoritmos que já desvendaram como jogar um jogo perfeito de xadrez, aplicações de carros autônomos, sistemas de recomendação de produtos em sites de e-commerce, identificação de objetos em imagem. Todas estas aplicações são de IA restrita, por que seu desenvolvimento está focado em uma única tarefa altamente especializada. O “Stockfish”, algoritmo capaz de ganhar do melhor jogador do mundo em xadrez, é incapaz de fazer qualquer outra tarefa que não seja jogar xadrez.
2 Inteligência artificial geral (“General AI”, do inglês)”: Refere-se a uma forma de inteligência artificial que tem a capacidade de entender, aprender e aplicar conhecimento em diferentes domínios, da mesma forma que um ser humano. Seria uma máquina com a capacidade de realizar qualquer tarefa intelectual que um ser humano possa fazer. Os autores do livro “Deep Learning” estimam que as redes neurais artificiais não terão o mesmo número de neurônios que o cérebro humano até pelo menos 2050. E mesmo isso não significa que atingiremos uma inteligência artificial geral, pois o neurônio humano é muito mais complexo que o neurônio de uma rede neural artificial.
Além do aspecto quantitativo (quantidade de neurônios), tem-se o aspecto qualitativo da discussão: para termos uma rede que emule inteligência humana, nós precisaríamos ter conhecimento completo de como o cérebro humano funciona, o que ainda não temos. Para dar dois exemplos disto, ainda não desvendamos completamente a ciência da consciência nem do sono.
A visão tripartite da inteligência
Com o conhecimento que temos hoje, entretanto, é possível ilustrar o porquê de ainda estarmos longe de uma IA generalista. Isso porquê o que esperamos de uma tecnologia como essa é, na maioria dos casos, uma inferência. Isto é, uma conclusão tirada a partir amostras (dados) passadas. Nós fazemos inferência todo dia, muitas vezes de maneira inconsciente: se você se queimar ao encostar em uma panela quente ao fazer almoço hoje, você provavelmente vai se lembrar desse fato e pensar antes de encostar novamente no dia seguinte.
Agora, se nos referirmos a um algoritmo de identificação de imagens, queremos que, quando mostremos uma imagem de um gato, ele corretamente identifique a imagem como sendo de um gato, e não um tigre.
O raciocínio inferencial pode ser decomposto em 3 componentes: dedução, indução e abdução. As duas primeiras nós já somos capazes de modelar e traduzir em código e algoritmos. Já com relação à última, e mais importante, nós não estamos nem perto.
1 – Dedução
Inferência dedutiva é sinônimo de silogismo, que é um modelo de raciocínio composto por duas premissas que geram uma conclusão. Um exemplo:
Premissa 1) Se estiver chovendo, as ruas estarão molhadas
Premissa 2) Está, de fato, chovendo
Conclusão: Portanto, as ruas estão molhadas.
Em linguagem simbólica:
- Se P, então Q
2. P
3. Portanto Q.
Esse é um tipo de raciocínio que é fácil de se programar com estruturas de condição “if-else” de computadores, por exemplo. Os primeiros sistemas automatizados foram criados usando inferência dedutiva para identificar se softwares continham bugs ou contradições. Além disso, muitas de nossas decisões de dia-a-dia se baseiam neste tipo de raciocínio. Um dos principais problemas com o raciocínio dedutivo é que para termos uma conclusão sólida estamos supondo que nossas premissas são verdadeiras. Se eu disser que:
- Se estiver chovendo, porcos passarão voando pela janela
- Está chovendo
Porcos obviamente não passarão pela janela.
2 – Indução
O raciocínio indutivo baseia-se em observar casos específicos e tirar deles uma conclusão geral. Por exemplo:
Todo cisne que vi é branco.
Portanto, todos os cisnes são brancos.
Todos os principais algoritmos de machine learning e redes neurais são automatizações do raciocínio indutivo. Nós alimentamos milhares de exemplos a estes algoritmos e geramos um modelo capaz de, dado uma entrada, gerar uma saída.
E isso nos leva a um dos principais problemas de algoritmos machine learning: eles só são tão bons quanto os dados que usamos para treiná-los. Viés de seleção e amostra de dados pouco representativa da população são dois motivos que ajudam a explicar problemas éticos relacionados a IA como discriminação de gênero, condição social e raça.
3 – Abdução
O raciocínio abdutivo consiste em observar um fato e inferir a causa ou explicação mais provável para ele. Por exemplo:
O chão está molhado.
Provavelmente choveu.
A abdução não garante a conclusão; em vez disso, propõe a explicação mais plausível. O chão poderia estar molhado por que um caminhão pipa estourou por perto. Ou alguém esqueceu uma mangueira aberta. São diversas as possibilidades.
A abdução é crucial na estrutura da inferência porque muitas vezes é o principal mecanismo que usamos para gerar hipóteses e explicações para os fenômenos observados. Embora a dedução e a indução sejam essenciais para tirar conclusões e generalizar a partir dos dados, a abdução é crucial para a geração de hipóteses e a resolução de problemas em situações incertas. Alguns dos motivos pelos quais abdução é tão desafiadora para modelar e programar:
Complexidade do mundo real: Em muitos cenários do mundo real, especialmente em áreas como diagnóstico médico, análise forense e investigação científica, os dados disponíveis são muitas vezes incompletos ou ambíguos. A abdução permite a formulação das explicações mais plausíveis com base em informações limitadas ou incertas.
Flexibilidade e Criatividade: O raciocínio abdutivo está intimamente ligado à criatividade, serendipidade e à capacidade de pensar “fora da caixa”. Quando confrontados com situações novas ou inesperadas, os humanos recorrem frequentemente à abdução para encontrar novas explicações ou soluções.
Ambiguidade e Incerteza: O raciocínio abdutivo muitas vezes lida com informações incertas ou incompletas. Os sistemas lógicos tradicionais, que lidam com certezas, podem ter dificuldades com isto.
Subjetividade: O que parece ser a explicação “melhor” ou “mais plausível” para uma pessoa pode não parecer para outra. Capturar esse elemento subjetivo em um modelo computacional é um desafio.
Integração com outros processos cognitivos: A abdução humana frequentemente integra vários processos cognitivos, como recuperação de memória, avaliação emocional e análise contextual. Replicar esta integração em sistemas artificiais é complexo.
É por isso que uma habilidade tão valorizada em um cientista / analista de dados é a capacidade de entender o negócio. Somente com este entendimento, que vem com tempo e experiência, é possível criar uma bagagem que permita gerar ideias novas e fora da caixa – isto é, raciocínio abdutivo em ação.
Embora tenham havido avanços nos modelos computacionais de abdução, especialmente com o advento de técnicas mais sofisticadas de IA e de aprendizagem automática, a replicação completa da flexibilidade, profundidade e nuances do raciocínio abdutivo humano continua e por muito tempo ainda vai ser uma fronteira desafiadora na investigação em IA.
Inteligência humana não é igual resolução de problemas
Em resumo, no debate atual sobre o real poder da IA, um dos maiores erros que se comete é acreditar que a inteligência humana resume-se a resolver problemas. Citando Larson novamente:
A visão de resolução de problemas da inteligência ajuda a explicar a produção de aplicações invariavelmente limitadas da IA ao longo da sua história. Os jogos, por exemplo, têm sido uma fonte de inspiração constante para o desenvolvimento de técnicas avançadas de IA, mas os jogos são simplificações da vida que recompensam visões simplificadas da inteligência. Um programa de xadrez joga xadrez, mas se sai mal ao dirigir um carro.
Larson, Erik J.. The Myth of Artificial Intelligence (p. 28). Harvard University Press.
Enquanto as conquistas da IA restrita são notáveis, a jornada em direção à inteligência artificial generalista é longa e repleta de desafios inéditos. A narrativa de que estamos à beira de criar máquinas com capacidade cognitiva equivalente à humana é, no mínimo, prematura. Isso não diminui, contudo, o potencial transformador da IA, nem a necessidade de abordá-la com cautela, regulamentação e transparência. A pesquisa deve continuar, com um esforço conjunto entre cientistas, legisladores, filósofos e o público, para garantir que a IA avance de forma responsável e benéfica. Educação e colaboração multidisciplinar serão fundamentais para mitigar riscos e alavancar oportunidades.


Deixe um comentário