A visão econômica da OpenAI versus sua realidade política: uma crescente lacuna de confiança

2

A OpenAI lançou recentemente um documento político abrangente de 13 páginas descrevendo como a inteligência artificial pode remodelar a força de trabalho americana. O documento propõe uma mudança económica radical para mitigar a deslocação de trabalhadores humanos, sugerindo que a “abundância” gerada pela IA deveria financiar uma rede de segurança social robusta.

A Proposta: Financiar uma Economia Pós-IA

O roteiro da empresa centra-se na redistribuição da riqueza gerada pela automação para proteger as pessoas por ela afetadas. Os principais pilares de sua proposta incluem:

  • Aumento de impostos sobre ganhos de capital: Visando empresas que substituem funcionários humanos por sistemas de IA.
  • Um Fundo de Riqueza Pública: Utilizar lucros gerados pela IA para apoiar a estabilidade económica nacional.
  • O “Dividendo de Eficiência”: Financiar uma transição para uma semana de trabalho de quatro dias.
  • Programas de Transição Centrados no Ser Humano: Iniciativas lideradas pelo governo para requalificar trabalhadores para funções que exigem competências exclusivamente humanas.

Embora estas ideias introduzam novos conceitos substantivos no discurso político relativo à governação da IA, chegam num momento de escrutínio significativo relativamente à integridade corporativa da OpenAI.

A crise de credibilidade: palavras versus ações

A divulgação deste artigo coincidiu com um relatório profundamente crítico do The New Yorker, que detalhou uma história de alegada fraude por parte do CEO Sam Altman. O relatório sugere um padrão recorrente: a OpenAI defende publicamente valores idealistas e regulamentações de segurança, enquanto trabalha de forma privada para miná-los em busca de vantagens políticas ou financeiras.

Esta discrepância levou os decisores políticos e especialistas da indústria a questionarem se as propostas políticas da OpenAI são tentativas genuínas de governação ou meramente relações públicas sofisticadas.

Um padrão de manobra política

Os críticos apontam para vários casos em que as ações privadas da OpenAI pareciam contradizer a sua posição pública:
1. Supressão legislativa: Embora Altman tenha defendido publicamente a supervisão federal da IA em 2023, os relatórios sugerem que a empresa trabalhou nos bastidores para eliminar projetos de lei de segurança específicos na Califórnia.
2. Táticas legais agressivas: A empresa teria usado intimações para intimidar os defensores da legislação estadual de segurança de IA.
3. Mudança de lealdades: Depois de trabalhar em estreita colaboração com a administração Biden para estabelecer padrões de segurança, Altman pressionou com sucesso a administração Trump para desmantelar muitas das iniciativas que outrora apoiou.

Ceticismo dos especialistas: Será que a visão sobreviverá ao lobby?

Os observadores da indústria estão divididos sobre se os especialistas técnicos que elaboram estas políticas podem manter a sua influência contra a máquina política da empresa.

Malo Bourgon, CEO do Machine Intelligence Research Institute (MIRI), observa que embora o documento possa ser produto de pesquisadores bem-intencionados, existe o risco de “desencanto”. A história mostra que muitos funcionários da OpenAI saíram depois de descobrir que as ações da empresa não estão alinhadas com os valores declarados.

Da mesma forma, Nathan Calvin, da organização sem fins lucrativos de política de IA Encode, expressou ceticismo em relação ao envolvimento da OpenAI com o processo democrático. Embora reconhecendo o mérito da investigação técnica por detrás da proposta, Calvin observou que o verdadeiro teste será se a OpenAI adere a estes princípios quando estes passarem dos “princípios políticos gerais” para o mundo de alto risco do lobby activo.

Conclusão: A OpenAI apresentou um quadro económico visionário para lidar com a deslocação de empregos impulsionada pela IA, mas um histórico crescente de inconsistência política deixou Washington céptico sobre se a empresa irá realmente cumprir as suas promessas.

Попередня статтяO frágil cessar-fogo: por que a economia global permanece no limite
Наступна статтяOpenAI revela novo plano de segurança para combater a exploração infantil impulsionada pela IA