Gerd Altmann/Pixabay
As 3 fases da IA
- Heraldo Palmeira
A inteligência artificial (IA) está na crista da onda com a chegada, no final de novembro de 2022, do ChatGPT-3 – chatbot que usa inteligência artificial para responder perguntas ou “criar” textos sob demanda.
O sucesso imediato, além de trazer dois meses depois a versão ChatGPT-4, ainda mais poderosa, desencadeou todo tipo de especulação a respeito do impacto que a inteligência artificial generativa – ramo da IA dedicado a gerar conteúdo original a partir de dados existentes (retirados principalmente da internet) – terá sobre o futuro humano.
As IAs presentes nos principais chatbots disponíveis – ChatGPT, Bard, DALL-E e Alpha Code – já são capazes de produzir resultados indistinguíveis do trabalho humano e já foram utilizados por milhares de pessoas para cumprir suas tarefas habituais.
Ninguém tem qualquer segurança a respeito de qual será a próxima fronteira do mundo digital, muito menos como se dará o relacionamento entre humanos e máquinas. A própria competitividade humana querendo avançar sempre mais pode guardar a chave desse mistério, cujos desdobramentos animam e apavoram em medidas cada vez mais iguais.
Pouco se sabe a respeito do que está ganhando vida nos laboratórios neste exato momento, a não ser o que a indústria da tecnologia decide divulgar. A computação quântica (veja link abaixo) anuncia progressos de um lado, a inteligência artificial (IA) está na moda de outro. Nos dois casos, a maioria de nós pouco sabe e saberá a respeito, já que fazemos parte do mundo tecnológico apenas como usuários dos componentes mais simples.
Geoffrey Hinton, cientista anglo-canadense que trabalhava no Google e acabou de se aposentar, pioneiro na pesquisa de redes neurais e aprendizado profundo – que permite a máquinas utilizarem o método humano de aprender com a experiência –, considerado “padrinho da inteligência artificial”, fez um alerta importante: “Atualmente (as máquinas) não são mais inteligentes do que nós, até onde vejo. Mas acho que em breve poderão ser”.
A cada dia chegam novidades a respeito e não há como negar: o tema é delicado mesmo. Agora, somos avisados de que a IA é dividida em 3 fases, e que a última e mais avançada pode nos ser fatal. Nada animador! E vamos a elas:
1.Inteligência Artificial Estreita (ANI) A categoria básica, conhecida como Artificial Narrow Intelligence (ANI), está limitada a uma tarefa única, aquela dos trabalhos repetitivos gerenciados por intervalos de tempo predefinidos. Mas não deve ser menosprezada porque pode, com base no treinamento recebido, manipular grandes conjuntos de dados para realizar ações e tomar decisões. É capaz de ultrapassar a inteligência e eficiência humanas, limitada à área específica onde opera. Por isso é conhecida como “IA fraca”, mas alguns especialistas acreditam que sistemas programados para aprender automaticamente (aprendizado de máquina) tenham capacidade de passar ao próximo estágio de desenvolvimento.
Um bom exemplo de “IA fraca” são aqueles programas de xadrez capazes de vencer o campeão mundial da modalidade. Mas, não se iluda com essa “fraqueza”. A ANI está presente em aplicativos de smartphones, assistentes virtuais como Alexa e Siri, buscador Google, ChatGPT, informações do tempo e mapas GPS que localizam qualquer lugar do planeta, carros autônomos, diagnósticos de saúde, fabricação de produtos, mercado financeiro, programas de música e vídeo – inclusive fazendo recomendações a partir de gostos pessoais.
2.Inteligência Artificial Geral (AGI) Categoria intermediária, é alcançada no momento que uma máquina adquire habilidades cognitivas no nível humano, realizando tarefas intelectuais comuns às pessoas. O AGI é conhecido como “IA forte” e, atualmente, grande parte do mundo tecnológico acredita que estamos na iminência de alcançar esta fronteira.
Foi essa preocupação que motivou mais de mil personalidades da indústria de tecnologia firmarem uma carta aberta, publicada pela Future of Life Institute, solicitando a suspensão temporária dos treinamentos de programas ainda mais poderosos que o ChatGPT-4, ainda em fase de gestação nos laboratórios.
Trechos do documento alertam que “sistemas de IA com inteligência que competem com os humanos podem representar riscos profundos para a sociedade e a humanidade”, e que “os governos devem intervir e instituir uma moratória” até que medidas de segurança sejam projetadas e implementadas.
Os especialistas também lançaram duas questões inquietantes: “Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, ser mais espertos que nós, nos tornar obsoletos e nos substituir? Devemos arriscar perder o controle de nossa civilização?”.
A Casa Branca resolveu convocar os responsáveis pelas principais empresas de IA – Alphabet, Anthropic, Microsoft e OpenAI – para estabelecer responsabilidades nas inovações da IA. “A IA é uma das tecnologias mais poderosas do nosso tempo, mas para aproveitar as oportunidades que ela apresenta, devemos primeiro mitigar seus riscos”, afirmou o governo norte-americano em comunicado em 4 de maio.
Em audiência convocada pelo Congresso dos EUA, Sam Altman, CEO da OpenAI (empresa que desenvolveu o ChatGPT com grande investimento da Microsoft) não deixou dúvidas ao defender que a indústria seja regulamentada pelo governo no momento em que a IA se torna “cada vez mais poderosa”.
Carlos Gutiérrez, pesquisador de políticas públicas do Future of Life Institute, alerta para um dos grandes desafios da IA: “Não existe um colegiado de especialistas que decida como regulá-la, como acontece, por exemplo, com o Painel Intergovernamental sobre Mudanças Climáticas (IPCC)”. E ele complementa: “O ser humano para ser engenheiro, enfermeiro ou advogado tem que estudar muito. O problema da AGI é que ele é imediatamente escalável”.
3.Superinteligência Artificial (ASI) O último estágio, que será atingido pouco depois que a fronteira da AGI for ultrapassada e a inteligência sintética superar a humana. A preocupação dos cientistas vem de uma teoria consolidada a este respeito: se uma máquina atingir inteligência equivalente à humana, vai adquirir capacidade de multiplicar seu próprio aprendizado de forma exponencial e nos ultrapassará em pouco tempo.
O físico britânico Stephen Hawking, figura lendária entre os grandes cientistas da humanidade, era francamente preocupado a respeito da inteligência artificial completa. Em 2014 (quatro anos antes de morrer), ele afirmou que uma máquina com esse nível de inteligência “descolaria por conta própria e se redesenharia em ritmo crescente”. Ele também considerava que “os humanos, que são limitados pela lenta evolução biológica, não seriam capazes de competir e seriam superados”. Em resumo, ele considerava que “o desenvolvimento da inteligência artificial completa pode significar o fim dos humanos”, conforme declarou em entrevista à BBC.
Nick Bostrom, filósofo sueco, especialista em IA da Universidade de Oxford (Reino Unido) e escritor de sucesso define a superinteligência artificial como “um intelecto muito mais inteligente do que os melhores cérebros humanos em praticamente todos os campos, incluindo criatividade científica, sabedoria geral e habilidades sociais”. Ele concorda com Hawking que nossos cérebros serão ultrapassados pelas máquinas, em razão da limitação biológica.
Bostrom se dedica a pontos incomuns, como pensar sobre riscos existenciais que possam ameaçar a vida humana. E isso inclui do choque de um asteroide com a Terra à explosão de um conflito nuclear generalizado. Nesse cenário, não poderia faltar algo digno de ficção científica como o surgimento de uma espécie de inteligência artificial de último estágio, capaz de aprender e se aprimorar sozinha. Ele alerta que se esse novíssimo elemento tecnológico for mal projetado será o principal risco que a humanidade terá pela frente, a ponto de simplesmente nos levar à extinção.
Segundo o cientista, os caminhos para um possível apocalipse digital deverão ser bem mais prosaicos do que o lugar-comum oferecido pela literatura e cinema, onde máquinas odeiam e escravizam humanos. Elas serão indiferentes a nós, o perigo estará no fato de que terão um objetivo final e vão cumpri-lo da maneira mais eficiente, independentemente de colocar pessoas em risco. E não haverá lugar para remorso. Se nas instruções operacionais constar a tarefa de permanecer sempre abastecida de energia elétrica, ela fará isso sem se preocupar se populações inteiras ficarão no escuro e com as demais consequências. Se determinada área for reconhecida como de risco e a interrupção do tráfego aéreo, naval e terrestre fizer parte da programação previamente determinada, assim será feito sem levar em conta a necessidade do fluxo de alimentos, medicamentos e de ambulâncias para atender emergências.
Como que antecipando a carta aberta publicada agora nos EUA, em 2015 Bostrom já afirmava que deve haver um esforço concentrado para resolver a questão do controle e descobrir maneiras de desligar uma máquina que será muito mais inteligente do que qualquer ser humano. Só assim, a superinteligência será segura e capaz de nos beneficiar.
A questão do controle também é bastante desafiadora porque revela uma espécie de contradição. A pergunta óbvia é: a superinteligência não poderia se encarregar disso? Bostrom afirma que ela teria todas as condições para resolver o problema, mas não há garantias de que a máquina adote a lógica humana e se importe com a consequência dos seus resultados operacionais. Por isso, é fundamental garantir que a primeira superinteligência seja segura, que surja já capacitada para ajudar a controlar as que vierem depois. Afinal, deveremos ter um cenário com diversos tipos de superinteligências, cada uma com características e objetivos particulares que exigirão abordagens específicas nas questões de controle e segurança.
Outras falas Os debates a respeito da IA superinteligente também trazem previsões positivas. Ray Kurzweil, renomado inventor futurista norte-americano (criador dos fabulosos sintetizadores musicais Kurzweil) e pesquisador do Google acredita que os humanos terão capacidade de utilizar essa tecnologia avançada para melhorar a vida e o mundo, inclusive ultrapassando as atuais barreiras biológicas da raça humana. Ele defende que os nanobots (robôs minúsculos) poderão ajudar à medicina atuando em nossos corpos para reparar qualquer dano e curar todas as doenças, inclusive aquelas atreladas ao envelhecimento.
Durante a audiência no Congresso, Sam Altman também afirmou seu otimismo, declarando que a IA tem capacidade para resolver “grandes desafios da humanidade, como a mudança climática e a cura do câncer”.
Muitos cientistas reconhecem que, no curto prazo, a IA trará mais benefícios do que riscos, o que justifica a continuidade do seu desenvolvimento. O ponto de equilíbrio parece estar no reconhecimento do potencial da IA e que é preciso mitigar riscos com regras e limites claros. Como disse o próprio Hinton ao anunciar sua aposentadoria do Google, é preciso impedir que “maus agentes” usem a IA para fazer “coisas ruins”, que gerem riscos existenciais. E Gutiérrez reforça a ideia, defendendo a criação de um sistema de governança antes do desenvolvimento de uma inteligência sintética capaz de tomar decisões próprias.
O campo de atuação das tecnologias é o mesmo mundo informatizado onde operam todos os sistemas que controlam as atividades humanas modernas. Controle e segurança têm enorme importância porque não será simples compartilhar a administração do planeta com uma entidade incontrolável e muito mais inteligente do que nós.
Saiba mais
https://www.bbc.com/portuguese/articles/cw5kyywz074o#
Leia também
Computação quântica assusta? https://giramundo.blog.br/computacao-quantica-assusta/