Inteligência Artificial: o que muda com o seu avanço?

Tempo de leitura: 10 minutos

Com a recente explosão na AI – ou Inteligência Artificial – cresceu o compreensível receio acerca de seu potencial impacto no trabalho humano.

Muitas pessoas tentaram prever que indústrias e empregos serão os mais afetados, e quais serão as novas habilidades a serem demandadas pelo mercado de trabalho (deveria você aprender a programar? Ou a AI irá substituir programadores também?)

Ao invés de tentar prever essas coisas, nós sugerimos uma abordagem diferente.

A Teoria Econômica sugere que a Inteligência Artificial irá substancialmente elevar o valor do julgamento humano.

Pessoas que possuem uma boa capacidade de julgamento serão mais valiosas, não menos.

O que a AI faz e o porquê ela é útil

Os avanços recentes na AI são bastante reconhecidos internacionalmente como uma redução no custo da predição.

Por predição não estamos querendo dizer apenas o futuro – predição é usar dados que você tem para gerar dados que você não tem, geralmente traduzindo uma grande quantidade de dados em quantidades menores e gerenciáveis.

Por exemplo, usar imagens divididas por partes para detectar que se uma imagem tem ou não um rosto humano é um problema clássico da predição.

A Teoria Econômica diz que, enquanto o custo da predição automática cair, as máquinas farão mais e mais predições.

A predição é útil porque ajuda a melhorar decisões. Mas isso não é a única coisa que se leva em conta no momento de uma tomada de decisão.

Outra coisa importantíssima para se tomar uma decisão acertada é a capacidade de bom julgamento. Pense no exemplo de uma rede de cartão de crédito decidindo se aprova ou não cada tentativa de transação.

Eles querem garantir que transações legítimas passem, e que transações fraudulentas sejam bloqueadas.

Eles utilizam de Inteligência Artificial para prever se cada tentativa de transação é válida ou não.

Se essas predições fossem perfeitas, o processo de decisão dessa rede seria muito simples: bloqueie uma transação única e exclusivamente em caso de fraude.

Contudo, até mesmo as melhores AIs erram, e isso dificilmente vai deixar de acontecer tão rápido.

As pessoas que controlam as redes de cartão de crédito conhecem e sabem por experiência que é difícil detectar cada caso de fraude e evitar inconveniências ao usuário.

Quem nunca teve uma compra no cartão de crédito negada enquanto estava em viagem, por exemplo?

E como a conveniência é justamente o “peixe vendido” pelas redes de cartão de crédito, isso não é algo que possa ser simplesmente ignorado.

Isso significa que as redes de cartão de crédito precisam saber o custo dos erros de suas predições.

O quão ruim seria rejeitar uma transação legítima? O quão ruim seria aprovar uma transação fraudulenta?

Leitura recomendada: Você sabe qual é seu ROI?

O que é um bom julgamento?

Alguém nessa rede de cartão de crédito precisa entender como a organização inteira é afetada quando uma transação fraudulenta é aprovada.

E essa pessoa precisa então comparar como essa mesma organização inteira é afetada quando uma transação legítima é bloqueada.

E esse impacto pode ser de um jeito quando estamos lidando com um usuário do cartão de crédito que tenha uma renda altíssima, e de outro jeito quando estamos lidando com usuários de baixa renda.

Nenhuma Inteligência Artificial pode decidir isso.

Isso é decidido por humanos. Isso é o bom julgamento.

“Julgamento” é o processo de determinar qual é a recompensa para uma ação em um ambiente em particular.

Julgamento é como nós avaliamos os benefícios e os custos de diferentes decisões em nossas vidas, em diferentes situações.

Fraudes em cartão de crédito é uma decisão fácil de se explicar nesse contexto.

Julgamento envolve determinar quanto dinheiro se perde em uma transação fraudulenta, quanto o cliente vai ficar infeliz quando uma transação legítima é bloqueada, bem como a recompensa de se fazer a coisa certa e permitir transações legítimas e bloquear transações fraudulentas.

Em muitas situações, essas análises são bastante complexas, e as consequências não tão claras assim.

Humanos aprendem com essas consequências através da experiência, tomando decisões e observando seus próprios erros.

Humanos – pelo menos pelos próximos anos – serão requeridos para esse tipo de julgamento. Eles se especializarão em colocar em uma balança os custos e os benefícios de diferentes decisões, e depois essas decisões serão combinadas com predições geradas por AI, afinando e tornando a tomada de decisão cada vez mais assertiva e eficiente.
Ei, mas a AI pode fazer isso!

Você pode se perguntar: mas a Inteligência Artificial não poderia fazer essa comparação por conta própria?

O exemplo utilizado no post anterior, da rede de cartão de crédito, a AI não poderia usar dados de consumo e comportamento do usuário para otimizar a tomada de decisão priorizando o lucro?

Sim, mas alguém teria que programar a AI para que ela mensurasse isso da maneira correta, e para isso, quem quer que fosse a programar teria que ter condições de fazer esse julgamento.

Isso dá evidência para o julgamento humano, que será mais comum de ser encorajado em escolas e universidades, e que será mais valioso.

Configurando as recompensas certas

Assim como pessoas, AIs também aprendem pela experiência.

Uma técnica importante em Inteligência Artificial é o aprendizado de reforço, pelo qual um computador é treinado para tomar ações que maximizem uma determinada função de recompensa.

Por exemplo, o AlphaGO da DeepMind foi treinado dessa forma para maximizar suas chances de ganhar o jogo Go.

Em jogos isso geralmente se aplica mais facilmente, porque a recompensa pode ser facilmente descrita e programada, tirando assim a necessidade da interação humana.

Mas trapaças podem acontecer em jogos. Segundo uma matéria da Wired, quando pesquisadores de AI treinaram uma AI para jogar o jogo de corridas de barco CoastRunners, a AI aprendeu a como maximizar seu resultado correndo em círculos ao invés de completar o percurso, como ela deveria fazer.

Isso pode ser até considerado uma “ingenuidade”, mas quando esse tipo de coisa pode acontecer fora do ambiente de jogos, esse tipo de ingenuidade pode levar a acontecimentos perversos.

inteligência artificial

O ponto chave no exemplo do CoastRunners é que na grande maioria das aplicações, o objetivo dado à AI diverge do sentido verdadeiro e difícil de mensurar que é o objetivo de uma organização.

Enquanto esse for o caso, humanos irão sempre ocupar um papel central no julgamento, e assim ocuparão um papel central no processo decisório de uma organização.

Ainda que uma organização permita e desenvolva uma inteligência artificial para tomar certas decisões, conseguir os resultados esperados certos para a organização como um todo requer uma compreensão de como as máquinas tomam essas decisões.

Que tipos de erros de previsão são mais prováveis? Como uma máquina pode aprender o objetivo errado?

Cada vez mais as AIs irão entregar predições mais baratas e melhores, então consequentemente se faz necessário pensar qual o melhor uso dessas predições.

Os pesquisadores de AI chamam esse trabalho de “reward function engineering”, ou “engenharia de função de recompensas”, em tradução livre.

Trata-se do trabalho de determinar as recompensas para várias ações, dadas as predições feitas pela inteligência artificial.

Ser excelente nisso requer a compreensão das necessidades da organização e as capacidades da máquina (e isso não significa colocar um humano no loop para auxiliar o treinamento da AI).

Para encurtar, vamos chamar a reward function engineering de RFE.

As vezes a RFE envolve programar as recompensas antes das predições, para que as ações possam ser automatizadas.

Veículos autoguiados são um exemplo desse tipo de recompensa.

Uma vez que a predição é feita, a ação é instantânea.

Mas como o exemplo utilizado no post anterior (do jogo CoastRunners) ilustra, conseguir a recompensa não é algo tão trivial.

A RFE deve sempre considerar a possibilidade de que a AI irá otimizar demais uma métrica de sucesso, e fazer isso pode desencadear um ato que é inconsistente com o objetivo principal (voltando ao exemplo, não completar o percurso, mas só correr em círculos).

Em algumas outras vezes, programar essas recompensas é muito difícil.

Podem haver tantas predições possíveis que pode ser muito difícil que alguém julgue todas as possibilidades de resultado de uma ação de maneira antecipada.

Isso está muito próximo de como a grande maioria dos processos de tomada de decisão se encontram hoje, incluindo-se ou não predições feitas por AI.

A maioria de nós já faz alguma RFE mesmo que inconscientemente, mas para humanos – e não para máquinas.

inteligência artificial

Os pais ensinam aos filhos seus valores, Mentores ensinam novos funcionários como o sistema funciona.

Gestores dão metas e objetivos para suas equipes, e então buscam deles a melhor performance possível.

Todos os dias nós tomamos decisões e julgamos as recompensas.

Mas quando fazemos isso para humanos, predição e julgamento são agrupados juntos, e o papel da RFE não precisa ser explicitamente separado.

Enquanto as máquinas ficam melhores nas predições, o valor da RFE irá aumentar cada vez mais enquanto a aplicação do julgamento humano será cada vez mais central.

No fim das contas, predições vindas da inteligência artificial aumentará ou diminuirá a quantidade de trabalho disponível para humanos em tomadas de decisão?

Ainda é muito cedo para ter 100% de certeza.

Em uma mão, a predição da inteligência artificial irá substituir a predição humana na tomada de decisão.

Em outra mão, a predição da AI é um complemento ao julgamento humano. E predições mais baratas irão gerar uma maior demanda por tomadas de decisão, então terão mais oportunidades para a utilização do julgamento humano.

inteligência artificial

Então, mesmo que seja muito cedo para especular o impacto geral em empregos e na sociedade, não há muita dúvida que logo iremos testemunhar um aumento enorme na demanda por julgamento humano em forma de RFE.

Você está preparado para isso?

Siro Canabarro

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *