Por que a IA gabarita matemática no vestibular, mas fracassa em resolver problemas humanos?
- W. Gabriel de Oliveira
- 17 de out. de 2024
- 4 min de leitura
O texto "Por que nova IA 'raciocina', gabarita Fuvest, mas falha em problema social?", de Diogo Cortiz e Helton Simões Gomes, no DEU TILT, Podcast da UOL - Universo Online, apresenta uma análise essencial sobre as limitações e potencialidades das inteligências artificiais modernas, como o OpenAI GPT, ao apontar sua capacidade de "raciocinar" em questões matemáticas e objetivas, enquanto demonstra falhas em resolver questões sociais complexas. Concordo com a crítica central da fala e, a partir dela, expando a discussão, introduzindo fundamentos teóricos que ajudam a compreender a dificuldade da IA em lidar com aspectos sociais e humanos.

IA e raciocínio: um limite programável
As IAs contemporâneas, como o modelo GPT, são amplamente eficazes em resolver problemas estruturados e que podem ser mapeados em dados numéricos ou linguísticos claros. Segundo Norvig e Russell (2021), as IAs são modelos que simulam processos de pensamento com base em padrões probabilísticos, o que significa que seu "raciocínio" está limitado àquilo que pode ser quantificado e reproduzido em algoritmos. No caso da Fuvest, por exemplo, o modelo pode “gabaritar” porque está lidando com um domínio objetivo, no qual as respostas são previsíveis e mensuráveis. No entanto, quando a IA se depara com problemas sociais, sua capacidade é limitada porque tais questões envolvem nuances culturais, emocionais e contextos históricos, que são desafiadores de serem codificados.
A falha em problemas sociais: teoria dos sistemas complexos
Ao abordar problemas sociais, entramos na complexidade de sistemas dinâmicos, não lineares e adaptativos, algo que a IA ainda não consegue compreender de forma eficiente. As teorias de Edgar Morin (2005) sobre sistemas complexos nos mostram que questões humanas e sociais envolvem múltiplas variáveis interdependentes que não podem ser tratadas isoladamente. A inteligência artificial, mesmo com a evolução das redes neurais, falha ao tentar lidar com essa complexidade porque, diferentemente de um problema matemático, as variáveis sociais são mutáveis e influenciadas por fatores subjetivos como ética, moralidade, e interpretação cultural.
Um exemplo claro disso está na maneira como a IA lida com dilemas éticos. Tomemos, por exemplo, o famoso “dilema do bonde” - um problema moral clássico. Uma IA pode calcular probabilidades de salvar mais vidas, mas não consegue considerar o contexto moral e emocional que os humanos avaliam ao tomar decisões. Isso mostra que, ao lidar com problemas sociais, a IA depende de dados previamente inseridos e não tem o mesmo tipo de consciência crítica ou flexibilidade moral que os humanos.
A limitação das redes neurais e a abordagem humana
Redes neurais, como as utilizadas pelo GPT, são baseadas em aprendizagem supervisionada ou não supervisionada, o que significa que elas dependem de exemplos passados para fazer previsões sobre o futuro. Segundo Geoffrey Hinton (1986), uma das grandes limitações dessas redes é a incapacidade de “entender” verdadeiramente o contexto no qual estão operando, pois seus processos são puramente estatísticos. O resultado disso é que, enquanto um modelo de IA pode resolver com eficácia problemas como cálculos complexos, ele não consegue entender o contexto de uma interação social, na qual as regras são implícitas e variáveis, e o sucesso depende de fatores humanos não quantificáveis.
Além disso, essas IAs não possuem "experiência vivida", algo que estudiosos como Lev Vygotsky (1978) destacaram como essencial para a cognição humana. Enquanto humanos são moldados por suas interações sociais e culturais, a IA processa apenas dados objetivos, sem uma imersão verdadeira nas práticas humanas e sociais.
IA na prática: o desafio das aplicações reais
Em termos práticos, a implementação de IA em questões sociais tem mostrado diversas falhas. Um exemplo disso pode ser visto em algoritmos utilizados em áreas como o sistema judiciário e contratações. Algoritmos como o COMPAS (sigla em inglês para Correctional Offender Management Profiling for Alternative Sanctions), utilizados para prever a reincidência criminal nos EUA, mostraram-se racialmente tendenciosos, amplificando disparidades existentes em vez de corrigi-las. Isso se dá porque o algoritmo, ao ser treinado em dados históricos de encarceramento, replicou os vieses presentes nesses dados, o que demonstra como a IA pode falhar em questões sociais que exigem uma análise crítica e contextual que vá além dos dados (Angwin et al., 2016).
A necessidade de humanização da IA
Concordo com a crítica na fala de Diogo Cortiz e Helton Simões Gomes, trazem a segunte reflexão:
apesar do avanço impressionante da IA em problemas estruturados, ela falha nas áreas sociais e humanas. Para que a inteligência artificial possa avançar nesses campos, é necessário um modelo de "humanização" da IA, que vá além da simples manipulação de dados e envolva a inserção de contextos culturais, históricos e éticos nos processos decisórios.
A inteligência artificial, como temos hoje, é uma ferramenta poderosa, mas, como toda ferramenta, sua eficácia depende de como, onde e por quem ela é utilizada. A tecnologia pode fazer muito, mas, no campo das questões sociais, ainda há um longo caminho a percorrer para que as máquinas possam verdadeiramente compreender e lidar com a complexidade humana.
REFERÊNCIAS BIBLIOGRÁFICAS:
ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine bias. ProPublica, 2016. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 17 out. 2024.
HINTON, Geoffrey E.; RUMELHART, David E.; WILLIAMS, Ronald J. Learning representations by back-propagating errors. Nature, v. 323, p. 533-536, 1986.
MORIN, Edgar. A cabeça bem-feita: repensar a reforma, reformar o pensamento. Rio de Janeiro: Bertrand Brasil, 2005.
NORVIG, Peter; RUSSELL, Stuart. Artificial intelligence: a modern approach. 4. ed. Pearson, 2021.
VYGOTSKY, Lev. Mind in society: the development of higher psychological processes. Cambridge: Harvard University Press, 1978.
Comments