Categories

Most Viewed

Inteligência Artificial

Ideias centrais: 

1 – A inteligência artificial (IA) estreita, apesar de receber menos holofotes das mídias do que a inteligência artificial genérica, é o campo de estudo da inteligência artificial que tem apresentado avanços concretos muito expressivos nos últimos anos. Nesse campo estão Google, Amazon, Tenent, Alibaba, Facebook e outras megaempresas. 

2 – Deep learning pode ser entendida como uma imitação da disposição de um cérebro, composto de neurônios artificiais, que recebem enorme quantidade de dados, input – A, e consegue a melhor maneira para se chegar a determinado resultado, output – B. 

3 – Verifique se há algoritmo para a sua necessidade. Utilizar ou adaptar algoritmos existentes é muito menos complexo do que desenvolver algoritmos.

4 – Retreinamento da força de trabalho (reskilling) é uma solução bastante considerada para combater o desemprego decorrente da automação da IA e de outras tecnologias. Ela tem o apoio dos especialistas de IA e dos amantes da educação. E também do World Economic Forum. 

5 – Muitos robôs não são artificialmente inteligentes. Até pouco tempo, todos os robôs podiam somente ser programados para fazer uma série repetitiva de movimentos sem requerer IA. É possível adicionarmos IA aos robôs para aumentar sua capacidade e eficiência. 

Sobre o autor: 

Adriano Mussa é reitor, diretor acadêmico, diretor de inteligência artificial e sócio da Saint Paul Escola de Negócios e do Lit. Também é pós-doutor em IA pela Columbia University. É palestrante sobre IA e reskilling

Introdução 

Em meados de 2015, iniciamos na Saint Paul Escola de Negócios um grande projeto de IA. Provavelmente, o maior projeto desse tema no setor educacional do Brasil até hoje. 

Na época, quando o projeto foi idealizado pelo meu amigo, professor Claudio Securato, CEO da Saint Paul, eu me vi diante de uma oportunidade que mudaria fortemente os rumos da minha vida profissional: aceitar ou não o seu convite para aprender uma nova área de conhecimento, praticamente do zero, acumular algumas diretorias e liderar o promissor e altamente arriscado projeto de IA da escola. 

E foi desse projeto que nasceu o premiado Paul, a IA da Plataforma LIT. O Paul consegue tornar a aprendizagem mais fluida, orgânica e pessoal com muita eficiência e baixíssimo custo. O Paul é capaz de personalizar o processo de aprendizagem dos alunos e isso acontece em duas partes. Ambas consideradas aplicações de aprendizagem adaptativa com uso de IA. 

A primeira parte da personalização ocorre quando o Paul auxilia os alunos, individualmente, na identificação das formas com as quais cada um aprende melhor. Isso faz muito sentido, dado que somos seres únicos, certamente aprendemos de formas distintas. Uma pessoa analítica, por exemplo, pode aprender melhor lendo um texto; outra mais expansiva, participando de uma discussão sobre determinado tema ou atuando num exercício de cocriação. A segunda parte da personalização ocorre à medida que o Paul ajuda os alunos a identificarem, muito rapidamente, quais tópicos eles desconhecem, quais conhecem pouco e quais conhecem mais profundamente dentro de determinado assunto. 

Como resultado dessa e de outras aprendizagens, nasceu este livro, que tem como objetivo esclarecer ao leitor o que de fato é a IA, separar o que é mito e o que é verdade sobre o tema, mostrar quais técnicas estão mais ou menos avançadas para uso, além de habilitar qualquer pessoa, mesmo aquelas que não tenham conhecimentos prévios, a reconhecer as reais capacidades dessa tão importante tecnologia. 

PARTE I – O que é inteligência artificial: mitos e verdades 

Capítulo 1 – As diferentes inteligências artificiais 

É importante, desde o início de nossa discussão sobre o tema, termos o entendimento de que a IA pode ser dividida em dois grandes campos de estudos: a IA genérica (artificial general intelligence), também conhecida como IA forte (strong AI) e a IA estreita (artificial narrow intelligence), também conhecida como IA fraca (weak AI). 

Estudiosos, pesquisadores desse campo de estudo consideram que a IA genérica permitirá que computadores façam quase tudo (ou mesmo tudo) que um ser humano é capaz de fazer, nos mais diferentes campos de atuação. É essa IA que nos conduzirá à temida e intrigante singularidade – aquele ponto da história em que a IA supera a inteligência humana, aprendendo a aprimorar a si própria, de forma exponencial, levando a uma situação em que a IA nos controla. 

A IA estreita, por sua vez, apesar de receber menos holofotes das mídias, é o campo de estudo da IA que tem apresentado avanços concretos muito expressivos nos últimos anos. Ela recebe este nome devido ao escopo claramente delimitado a suas aplicações: domínios, tarefas ou objetivos bastante específicos; que hoje já são realidade. Alguns exemplos desse tipo de aplicação são os sistemas de transcrição de áudios, de tradução de textos do inglês para o português ou de classificação automática de e-mails em spam ou não spam.  

A IA estreita já permitiu a criação de inúmeras aplicações, produtos e serviços, geradoras de centenas de milhares de dólares para as empresas que a adotaram, via automação de tarefas, transformações radicais de negócios e até criação de novos negócios antes impensáveis. Os exemplos são incontáveis e discutiremos muitos deles ao longo deste livro: Google, Amazon, Tenent, Alibaba, Facebook e Baidu são apenas algumas, entre muitas organizações bem conhecidas, com valores gigantescos de mercado.   

Capítulo 2 – Mas, afinal, o que é inteligência artificial? 

A seguir, selecionamos duas entre as mais comumente encontradas numa simples busca no Google: 

  • “Falando genericamente, IA emprega algumas capacidades – anteriormente possuídas somente pelos seres humanos -, como conhecimentos, insights e percepções, para realizar determinadas tarefas.”
  • “Tecnologia que pode entender nossa linguagem e responder a ela, podendo ver e interpretar o mundo do modo que nós fazemos.” 

É importante começarmos tecendo alguns comentários, destacando certos pontos relevantes dessas definições que, apesar de estarem nelas presentes de forma implícita ou explícita, podem não estar com a clareza necessária. 

  • “IA emprega algumas capacidades… para realizar determinadas tarefas”. “Determinadas tarefas” significa que os algoritmos de IA estão restritos à execução de tarefas com escopo estreito, ou seja, tarefas limitadas e específicas, típicas da IA estreita. 
  • Mesmo que a IA seja capaz de ter “conhecimentos, insights e percepções” e que “ver e interpretar o mundo”, seja qual for o entendimento que cada um de nós temos para o significado de cada um desses termos, ela não é capaz hoje, nem em futuro próximo, de ter consciência e sentimentos, tipicamente humanos, como afeto, amor, empatia, criatividade e vontades. E, talvez, nunca chegue a ter.
  • A maioria dessas capacidades da IA está essencialmente baseada em modelos estatísticos e matemáticos, e não em qualquer outro tipo de superinteligência que seja compatível com a inteligência humana. 

Nesse ponto, é conveniente definirmos mais um termo essencial em IA: o algoritmo

Eis o que é algoritmo: nome dado à descrição dessas tarefas ou rotinas específicas e ordenadas, dadas a um computador. Em outras palavras, o algoritmo nada mais é do que uma linha de rotinas, de procedimentos ou de instruções para que um computador execute. 

Depois de compreendermos o que são algoritmos, vamos retornar ao nosso exemplo de modelo de estimativa de preço de imóveis. 

Se observarmos bem, podemos descrever tal modelo como modelo do tipo A =→ B: 

  • Entrada de dados, input – A. 
  • Saída de dados, output – B. 

Esse resumo de relação A = → B, de input e output, pode ser generalizado. A maioria das aplicações de IA em uso hoje (provavelmente num futuro próximo) são relações simples como esta: de input – A, gerando um output – B. 

Depois de entendermos vários exemplos de relação do tipo A = → B, como leitura de textos, predição de potencial de cliques em propagandas e banners, podemos chegar a uma definição mais completa de IA: 

“Inteligência artificial se refere ao uso de modelos estatísticos ou matemáticos em aplicações específicas para predição de resultados, buscando sempre a máxima acurácia e robustez possíveis (por meio do melhor modelo estatístico e de separação da amostra em duas partes, uma para treinar; outra para validar o modelo).” 

Capítulo 3 – Por que agora? Deep learning, o protagonista da inteligência artificial 

Apesar da importância e do grande volume de uso das técnicas de statistical machine learning, é fato que o grande avanço da IA que presenciamos nos últimos anos se deve a outra técnica de supervised learning, conhecida como deep learning (DL) – ou aprendizagem profunda. 

Deep learning pode ser entendida, de forma simplificada, como um sinônimo de artificial neural network (ANN) – ou redes neurais artificiais. Para ser mais preciso, deep learning é um tipo de artificial neural network, um tipo mais complexo, com mais camadas. Porém, como atualmente a maioria das ANN são justamente de deep learning, é comum usarmos esses termos como sinônimos. 

Você deve estar pensando: “Redes neurais artificiais… Então, o termo neural se refere a neurônios? Neurônios como os nossos, humanos?” Sim refere-se a neurônios, mas a uma “rede de neurônios artificiais”. Logo, não são exatamente como os nossos neurônios. Essa associação é muito mais no sentido de que esse nome é inspirado, e apenas inspirado, na organização do cérebro humano. 

Visto isso, deep learning pode ser entendida como uma imitação da disposição de um cérebro, composto de neurônios artificiais, que recebem uma enorme quantidade de dados, input – A, e consegue aprender a melhor maneira, a maneira ótima, para se chegar a determinado objetivo ou resultado, output – B, utilizando otimizações matemáticas. Vale ressaltar que o resultado, output – B, é determinado e informado por um ser humano. 

Por isso, dizemos que os algoritmos de deep learning podem aprender a treinar a si próprios, com enorme quantidade de dados, desde que os resultados esperados sejam informados por nós, seres humanos, e que estejamos com o escopo estreito, de um único domínio. 

Para quem entende um pouco mais de estatística, precisaríamos também analisar outros aspectos, por exemplo, a multicolinearidade (a correlação entre variáveis como tamanho do imóvel e quantidade de quartos) para melhor selecionarmos quase que, manualmente, quais variáveis escolher para fazerem parte do modelo. 

No entanto, nos algoritmos de deep learning, não precisamos nos preocupar com nada disso. Basta pegarmos as variáveis, input – A, que o modelo é capaz de absorver as informações e nos dar o resultado, output – B. E não é necessário refletir muito se, em nossa opinião, essas variáveis, de input – A, podem explicar ou não os preços dos imóveis. Simplesmente incluímos todas as variáveis que possam, eventualmente, ter relação com o preço dos imóveis. Quanto mais variáveis de input – A tivermos, melhor tenderá a ser a acurácia do modelo. 

Esse modelo de funcionamento “caixa preta” ou “insira A que lhe retorno B, da melhor forma possível” tem como consequência a grande vantagem do deep learning: aumento expressivo da acurácia, do seu poder de explicação. Em nosso modelo de preços de imóveis, dissemos que a acurácia do modelo foi de 73%. Com os algoritmos de deep learning, em vez da regressão linear múltipla (statistical machine learning), certamente a acurácia do modelo chegaria a algo próximo de 95%. 

PARTE II – Inteligência artificial e as organizações: oportunidades e riscos 

Capítulo 4 – O Ciclo virtuoso de Inteligência Artificial 

Em linha gerais, o ciclo virtuoso funciona da seguinte forma: se a organização desenvolver um produto ou serviço de qualidade satisfatória, ela conseguirá alguns usuários iniciais. Os usuários iniciais, ao utilizarem o produto ou serviço, gerarão dados que serão coletados e armazenados pela organização. Esses dados, se bem tratados por técnicas de IA, principalmente machine learning, possibilitarão a melhoria do produto ou serviço. O produto ou serviço aperfeiçoado levará à aquisição de mais usuários. Mais usuários gerarão mais dados; mais dados levarão à melhoria do produto ou serviço e esse ciclo seguirá continuamente. 

Produto (ou serviço). O ciclo se inicia com a organização desenvolvendo um produto (ou serviço) de qualidade satisfatória. Mas, atenção, não estou falando de um produto espetacular, maduro e praticamente impecável. Refiro-me aqui a um produto minimamente satisfatório para que a organização consiga alguns usuários iniciais. Trata-se de um minimum viable product (MVP) – ou produto mínimo viável. 

Nesse sentido, celeridade é mais importante do que alta qualidade no lançamento dos produtos e serviços baseados em IA. 

Usuários (ou clientes). Não estou me referindo a enormes massas de usuários, mas sim a alguns usuários iniciais, conhecidos pela expressão em inglês early adopters. São aqueles que aceitam utilizar o produto ou serviço, atraídos principalmente por seu caráter inovador, mesmo que ele ainda não seja um produto otimizado. 

Dados. Se o produto ou serviço for habilitado para dados, os usuários, ao consumirem esses produtos ou serviços, gerarão dados para a organização. Dados que ajudem a organização a responder às questões do tipo: Como o produto chamou a atenção do usuário? De quais canais vieram esses usuários? O que ficou faltando? E outras do gênero. 

Talentos. Quando me refiro a talentos no ciclo virtuoso de IA, refiro-me principalmente a dois tipos de talento, que devem trabalhar juntos, continuamente, em todas as etapas, desde o início do planejamento do produto. 

  1. Profissionais técnicos de IA, com competência suficiente para entender minimamente as necessidades do negócio e com profunda capacidade de customizar os algoritmos de IA. 
  2. Profissionais de negócios, que entendam minimamente das capacidades da IA e com profunda competência no entendimento do negócio com o cliente.

Exemplos reais de utilização do ciclo virtuoso: o buscador do Google, entrega de comida iFood, livros da Amazon e microempréstimos da Tala [banco de fomento].   

Capítulo 5 – As ondas de desenvolvimento da inteligência artificial 

A DARPA (Defense Advanced Research Projects Agency), agência do governo americano, foi criada, em 1958, por militares e pesquisadores do país como resposta à vitória tecnológica da União Soviética no lançamento do primeiro satélite artificial. 

A DARPA propôs a estruturação da IA em três ondas. São elas: 

Onda 1: Handcrafted knowledge (o conhecimento artesanal). 

Onda 2: Statistical learning (ou aprendizagem estatística). 

Onda 3: Contextual adaptation (ou adaptação contextual). 

Onda 1: Handcrafted knowledge (conhecimento artesanal). Essa onda se refere à IA baseada em regras exatas, lógicas e precisas para a solução de problemas muito bem definidos. Ela consiste na transferência de conhecimento sobre determinado tema, de seres humanos especialistas, para o computador. Trata-se de programas que conseguem jogar xadrez, programas de agendamentos logísticos, softwares de gestão, softwares que auxiliam a confecção de declaração de imposto de renda e até mesmo sistemas operacionais, como o Windows. 

Onda 2: Statistical learning (aprendizagem estatística). Ela é, segundo a DARPA, a fase em que hoje estamos com a IA. Trata-se da IA com base em modelos estatísticos para endereçar certos tipos de problemas. Esses modelos estatísticos são treinados com enormes bases de dados, contendo exemplos de diferentes situações, para torná-los mais precisos e eficientes. A principal técnica dessa segunda onda é justamente a principal protagonista da IA: nossa já conhecida deep learning

Aqui, diferentemente do que ocorre na primeira onda, os programadores e engenheiros não se preocupam em ensinar regras exatas e precisas ao algoritmo. Ao contrário, eles ensinam os algoritmos a encontrar a melhor resposta para determinada situação, ou seja, a resposta que otimiza determinada condição, baseada em técnicas estatísticas. Diferentemente do que ocorre na primeira onda, os sistemas aqui não tomam a decisão perfeita, mas sim a melhor decisão dado o contexto, baseado no aprendizado coletivo dos dados e não em casos individuais. 

Onda 3: Contextual adaptation (adaptação contextual). Essa é uma onda do futuro, aquela que ainda não chegou. É definida pela DARPA como o “estado da arte” da IA estreita. Trata-se da IA que construirá modelos que explicarão as decisões tomadas pelos sistemas da segunda onda. 

A terceira onda da IA, ao fornecer explicações sobre as decisões tomadas pelo algoritmo e sobre os porquês das decisões erradas, pode nos ajudar a mudar essa situação, auxiliando-nos na escolha de algoritmos e possibilitando o seu aperfeiçoamento contínuo. Afinal de contas, é só conhecendo e especificando detalhadamente o erro que podemos corrigi-lo.  

Modelo de quatro ondas do professor Kai-Fu Lee. A quatro ondas de desenvolvimento da IA propostas pelo professor são: 

  1. IA da internet
  2. IA dos negócios
  3. IA perceptiva 
  4. IA autônoma 

O autor explica que cada uma dessas quatro ondas explora o poder da IA de forma diferente e causa fortes mudanças (e até mesmo disrupções) em diferentes setores da economia, com aplicações que alteram profundamente o nosso cotidiano. 

Capítulo 6 – As doze dicas essenciais para identificar oportunidades em IA 

Já sabemos que a agregação de valor gerada pela IA tem suas causas nas automações de tarefas que seus algoritmos são capazes de realizar. Porém, se pararmos para refletir, praticamente todos os exemplos de capacidades de IA que discutidos até aqui são referentes a automações de tarefas cognitivas e não manuais. Eu fiz isso intencionalmente para reforçar um ponto importantíssimo: a IA não faz distinção quanto às tarefas serem manuais ou cognitivas, possibilitando a automação de ambas, e sendo especialmente boa para automatização de tarefas cognitivas. 

A seguir apresentamos doze dicas essenciais para identificação e seleção de oportunidades de uso da IA: 

DICA 1: Procure tarefas com alto nível de repetição e com baixa necessidade de interação social, sejam elas manuais, sejam cognitivas. 

DICA 2: Foque em tarefas específicas, e não em cargos ou ocupação. Procure sempre quebrar cargos em tarefas. 

DICA 3: Procure, inicialmente, relações do tipo A – → B, típicas de supervised learning, de escopo estreito. 

DICA 4: Concentre-se em situações, produtos ou serviços de que você tenha os dados necessários. 

DICA 5: Qualquer coisa que um ser humano pode fazer, que requeira poucos segundos de pensamento, provavelmente agora ou em breve será automatizada pela IA. 

DICA 6: Concentre-se em atividades que hoje já são realizadas por seres humanos e, portanto, exequíveis. 

DICA 7: Concentre-se, inicialmente, em projetos típicos das ondas 1 e 2 da IA. A tecnologia aqui está mais madura e sua jornada terá mais chances de êxito. 

DICA 8: Verifique se há algoritmos existentes para a sua necessidade. Utilizar ou adaptar algoritmos existentes é muito menos complexo do que desenvolver algoritmos. 

DICA 9: Tenha sempre em mente que a verdadeira IA é silenciosa e está abaixo da superfície. 

DICA 10: Comece com projetos pequenos e validadores de conceitos. Moonshots (viagens à lua) não combinam com IA. 

DICA 11: Na dúvida, priorize projetos que foquem na melhoria da experiência do cliente. 

DIA 12: Espere resultados de longo prazo, jamais de curto prazo.   

PARTE III – Inteligência artificial e as pessoas: oportunidades e riscos 

Capítulo 7 – Inteligência artificial e o futuro do emprego: visão macro 

A Revolução Industrial teve como grande impulso duas tecnologias de impacto extremamente fortes e abrangentes: o motor a vapor e a energia elétrica, respectivamente na primeira e segunda Revoluções Industriais Conforme Erk Brynjolfsson e Andrew McAfee, não há dúvidas que essas duas tecnologias atendem aos requisitos para se enquadrarem como tecnologia de alcance geral – da expressão em inglês, general purpose technologies (GPT). 

Começa a se tornar um consenso que a IA, especialmente em conjunto com algumas outras tecnologias que lhe são contemporâneas e impulsionadoras, como IoT e blockchain, apresenta o real potencial para ingressar nesse seleto grupo de GPTs. 

A IA requer profissionais que compreendam um mix de lógica de programação, ciência de dados, computação, matemática, estatística e negócios, dentre outras competências complexas. E como essas competências dificilmente são encontradas numa única pessoa, faz-se necessário que qualquer profissional que queira trabalhar com IA tenha que adicionar novas competências às suas, justificando a utilização dos termos upskilling ou reskilling. 

Em outras palavras: a pessoa que perder o emprego em virtude da IA provavelmente não conseguirá com facilidade desempenhar as funções exigidas pela criação de empregos que a IA proporcionará. E o mesmo raciocínio é válido para a adaptação de profissionais que terão suas ocupações mantidas, porém fortemente transformadas pela IA. 

Vale a ressalva que, qualquer que seja a previsão mais correta, isso não significa que teremos o percentual de empregos em risco, correspondendo ao percentual de desemprego de um país. Pelo menos não em curto ou médio prazo. Por exemplo, se as automações causadas pela IA tiverem o potencial de causar a automação de 50% dos trabalhos, não significa que teremos 50% de desemprego. Fricções sociais, restrições regulatórias trabalhistas de cada país e a própria inércia típica dos mercados podem frear ou atrasar as consequências da IA. 

As projeções globais feitas por Oxford, OECD, McKinsey e PWC estimam que o percentual de empregos em risco vai de 14% a 43%, estando a maior parte dos estudos mais próximos de 43%. Esses números se agravam se considerarmos o papel das startups, com potencial de modificarem setores inteiros. 

Capítulo 8 – A inteligência artificial e o futuro do emprego: as ocupações individuais 

Os professores de Oxford, Carl Benedikt Frey e Michael A. Osborne, autores do primeiro estudo de empregos em risco discutido no capítulo anterior, identificaram as tarefas humanas que são mais difíceis de ser automatizadas, mesmo pela IA. Eles as nomearam “gargalos da automação” (tradução livre do termo em inglês bottlenecks to automation) e incluem: 

  1. Inteligência social: a habilidade de negociar e lidar com relações sociais complexas, incluindo o cuidado com os demais ou o reconhecimento de sensibilidades culturais.
  2. Inteligência cognitiva: a criatividade e o raciocínio complexo.
  3. Percepção e manipulação de alta precisão: a habilidade de desempenhar tarefas físicas mais complexas num ambiente de trabalho não estruturado.

Algumas possíveis soluções para o desemprego, diante da IA: 

Solução 1: Redução da carga horária de trabalho. Uma solução aventada é a redução da carga horária de trabalho de cada trabalhador para três ou quatro dias por semana, por exemplo, na lógica de que a IA reduz a necessidade de trabalhadores humanos. Porém, obviamente essa é uma solução bastante simplista e controversa, encarando, por exemplo, a diminuição de salário e de renda do trabalhador. 

Solução 2: retreinamento da força de trabalho – reskilling. Essa talvez seja a solução mais eficiente e a que possui mais defensores entre os especialistas em IA e amantes da educação. O próprio WEF (World Economic Forum) destaca ser o retreinamento um indubitável caminho para a equalização dos impactos da automação. A lógica é simples: se a tecnologia muda o ambiente de negócios com cada vez maior velocidade, os profissionais precisarão cada vez mais aprender ao longo da vida inteira. Para se manterem úteis no mercado de trabalho. 

Solução 3: renda mínima básica. Essa alternativa consiste em redistribuir a riqueza gerada pela IA e concentrada em poucas organizações, por meio da instituição de uma renda básica ou mínima àqueles que tiverem seus empregos substituídos pela automação. Essa alternativa é, sem dúvida, uma das mais polêmicas e mais difíceis de ser implementada. 

Solução 4: remunerar trabalhos sociais e centrados no ser humano. O professor Kai-Fu Lee, em especial, defende que as três primeiras soluções, apesar de relevantes, não são de forma alguma suficientes para resolvermos o problema. Devido à amplitude da IA, não podemos reagir apenas com soluções técnicas, como as três primeiras. Como solução adicional às outras três alternativas, o professor defende a criação de uma quarta: passar a remunerar dignamente as atividades que realmente nos distinguem das máquinas, aquelas que requerem empatia, compaixão, carinho e amor. Entre essas atividades se encaixam o cuidado dos idosos, serviços comunitários, educação de crianças e adultos. 

PARTE IV – O futuro da inteligência artificial: outras técnicas, limitações e desafios 

Capítulo 9 – As demais técnicas de inteligência artificial e suas perspectivas 

Neste capítulo, nos dedicaremos a compreender as demais técnicas da IA, especialmente as mais promissoras, que apresentam, até a publicação deste livro, maior potencial para amadurecer e ser utilizados na prática dos negócios, em larga escala. São elas: 

  • Unsupervised learning– aprendizagem não supervisionada. 
  • Reinforcement learning – aprendizagem por reforço. 
  • Generative adversarial network (GAN) – rede adversária generativa. 
  • Transfer learning – transferência de aprendizado. 
  • Symbolic reasoning e knowledge graph – raciocínio simbólico e gráfico de conhecimento. 

Supervised learning é uma técnica caracterizada pela existência de relações A = → B: entrada de dados (input – A) e saída de dados (output – B). Para que os algoritmos funcionem, precisamos prover, como insumos de seu desenvolvimento e treinamento, tanto os dados de entrada quanto os dados de resultado. 

Os algoritmos de unsupervised learning, por sua vez, funcionam de forma distinta. Nos modelos de unsupervised learning é preciso fornecer os dados de entrada, input – A, mas não é necessário fornecer os dados de resultado, output – B, porque o emprego dessa técnica se justifica justamente em situações nas quais o Output – B é desconhecido. Um dos principais usos de unsupervised learning tem como objetivo realizar a segmentação de clientes. Outra ampliação muito interessante de unsupervised learning acessível a todos é o Google News. Nesse serviço, o Google realiza uma busca em milhares de notícias diariamente para, então, clusterizar ou agrupar as diferentes fontes que falam a respeito do mesmo assunto. 

Generative adversarial network (GAN) é outra técnica de IA muito promissora. Trata-se de uma técnica que pode ser considerada pertencente ao subgrupo, um caso especial, das técnicas de unsupervised learning. Essa técnica foi criada pelo então estudante de Stanford e Montreal, Ian Goodfellow, em 2014, inicialmente com o intuito de aumentar a eficiência e diminuir os altos custos de processamento em algoritmos de redes neurais artificiais mais complexas. Ian teve a ideia de colocar duas redes neurais para competir entre si, sendo adversárias. Uma rede neural foi colocada para realizar determinado trabalho, como classificar e-mails em spams ou não spams. Essa rede neural foi denominada generator nos modelos de GAN. Outra rede neural – conhecida nos modelos de GAN por discriminator – foi colocada para atrapalhar e dificultar o trabalho de generator em um processo de interação contínua. Como a rede neural generator foi programada para “se livrar” do incômodo da rede neural adversária – a discriminator – ela passou a se aperfeiçoar continuamente e, desse modo, realizar o seu trabalho de forma cada vez mais otimizada. 

Reinforcement learning. Uma definição mais formal de reinforcement learning seria: uso de recompensas como sinais para dizer à IA (ou ao algoritmo) quando ela está agindo positivamente e quando ele está agindo negativamente. Alguns dos usos de reinforcement learning são: a) treinamento de robôs autônomos. Por exemplo um robô aprende, por reforço de comportamento, a caminhar num espaço com obstáculos (como a nossa casa); b) jogos de videogame ou de tabuleiro, como xadrez, damas ou AlphaGo. Quando os algoritmos de IA do Google derrotaram o melhor jogador de AlphaGo do mundo em 2017, era um algoritmo de reinforcement learning atuando. Da mesma forma, o Deep Blue derrotou o então campeão mundial de xadrez, Garry Gasparov, em 1997, graças a outro algoritmo de reinforcement learning. 

Transfer learning é outra técnica que podemos considerar pertencente ao grupo de machine learning, assim como as técnicas de supervised learning, unsupervised learning reinforcement learning. Apesar de ser considerada um subgrupo de técnicas dentro do grupo maior de machine learning, é preferível definir transfer learning como sendo um atalho para a implantação e desenvolvimento, especialmente, das técnicas de supervised learning. Isso porque ela consiste em aprender com determinada tarefa ou uso de algoritmos, mais comumente de supervised learning, e utilizar esse conhecimento para auxiliar em outra tarefa ou uso de algoritmos que tenha alguma semelhança com a primeira. 

Symbolic reasoning e knowledge graph (raciocínio simbólico e gráfico de conhecimento). Todas as técnicas abordadas até aqui são técnicas que pertencem ao maior subgrupo da IA, o machine learningKnowledge graph é uma exceção. Knowledge graph é uma técnica que pertence a um subgrupo paralelo ao machine learning, conhecido como symbolic reasoning. Para compreender symbolic reasoning vamos começar discutindo a diferença entre simbolic reasoning e machine learning. A maior diferença entre ambas está na forma pela qual o “aprendizado” ocorre. O machine learning, especialmente deep learning, busca aprender a otimizar as relações existentes entre inputs – A e os outputs – B. Trata-se de uma técnica que aprende a otimizar as relações de causa-efeito. Já as symbolic reasoning são regras criadas por seres humanos, ou seja, a máquina aprende somente o que o ser humano ensinar, na forma como ele ensinar. 

Robótica e inteligência artificial. São dois campos de estudo, cujas associações e relações causam muita confusão na cabeça das pessoas. É comum que esses dois campos sejam mencionados como se fossem sinônimos. Frequentemente, a robótica é tratada como um subcampo da IA. Porém, a verdade é que a IA e a robótica são dois campos enormes e apartados, apesar de haver possíveis interseções entre eles. 

Muitos robôs não são artificialmente inteligentes. Até pouco tempo atrás, praticamente todos os robôs industriais podiam somente ser programados para fazer uma série repetitiva de movimentos que não requeriam IA. Porém, é possível adicionarmos IA aos robôs. E robôs com IA formam justamente a ponte existente entre a robótica e a IA. Para facilitar, vamos retomar o exemplo do robô que realiza a tarefa repetitiva de pegar um determinado item num local e colocá-lo em outro. Poderíamos aqui utilizar IA para ampliarmos as capacidades desse robô. Como? Por exemplo, adicionando uma câmera para ele conseguir identificar se há objetos à sua frente, quais objetos são esses e onde eles estão. Essas são tarefas típicas de algoritmos de IA. 

Capítulo 10 – Limitações e desafios da inteligência artificial 

Os desafios de desempenho podem limitar a velocidade ou mesmo impedir a adoção da IA em algumas circunstâncias e contextos. O primeiro dos desafios de desempenho é que, especialmente os algoritmos de deep learning precisam de uma quantidade extremamente grande de dados para conseguir um desempenho adequado. Entretanto, sabemos que não são em todas as situações de nosso cotidiano profissional ou pessoal que contamos com esses cenários de big data, especialmente com dados íntegros e confiáveis. 

Uma falta de flexibilidade está relacionada à finalidade para a qual o algoritmo foi desenvolvido e criado. Um algoritmo treinado para uma finalidade não pode ser usado para outra. Isso implica que o algoritmo que aprendeu a jogar Go, não pode ser usado para jogar xadrez ou damas, sem praticamente ter de ser reconstruído do zero. 

Os dados, novamente eles, também podem gerar desafios a um segundo grupo: o de vieses sociais ou de amplificação de vieses. Isso porque os dados disponíveis, que alimentam e treinam os algoritmos de IA, podem não refletir os valores que desejamos à nossa sociedade. O que não significa, necessariamente, dizer que esses dados não reflitam os valores históricos de nossa sociedade. 

Além de desafios de desempenho e de amplificação de vieses, a IA, assim como qualquer outra tecnologia, apresenta desafios de uso indesejados, aqueles para finalidades prejudiciais de pessoas ou grupos, finalidades escusas e até bélicas. Um bom exemplo para ilustrar é a técnica conhecida como deepfake. Deepfake, uma junção de deep learning e fake (falso em inglês), é uma técnica de síntese de imagens ou sons humanos, baseada em generative adversarial network (GAN). Com ela, é possível, por exemplo, simular falas, imagens e vídeos de pessoas reais, com um nível assombroso de aproximação da realidade. 

Conclusão 

Como sempre aconteceu na história, primeiro as tecnologias são criadas e testadas, para, então, começarem a ser usadas em larga escala. Só quando começamos a usá-las em larga escala e aplicá-las nos diferentes contextos e com distintos propósitos, é que temos condições de efetivamente conhecer as suas limitações, desafios e consequências indesejadas. É só aí que nos habilitamos a discutir alternativas e soluções a fim de realizar os ajustes necessários para que o seu uso seja o mais positivo possível para as pessoas, para a economia e para a sociedade, de forma a melhorar a vida de todos. 

Bem-vindos à Era da IA.   

Ficha técnica: 

Título: Inteligência Artificial – mitos e verdades: As reais oportunidades de criação de valor nos negócios e os impactos no futuro do trabalho 

Autor: Adriano Mussa 

Primeira edição: Saint Paul Editora 

Resenha: Rogério H. Jönck  

    Leave Your Comment

    Your email address will not be published.*

    Header Ad