No mesmo dia em que a OpenAI apresentou recomendações de políticas para garantir que a inteligência artificial (IA) beneficie a humanidade, caso a superinteligência seja alcançada (ainda não estamos nem de longe próximos disso), a revista The New Yorker publicou uma investigação sobre a confiabilidade do executivo-chefe (CEO) Sam Altman para cumprir as promessas da empresa.

Empresa defende supervisão e transparência em cenários extremos
A OpenAI afirmou que planeja defender políticas que mantenham as pessoas como prioridade quando a IA começar a superar os humanos mais inteligentes, mesmo quando estiverem assistidos por tecnologia.
A empresa prometeu manter uma postura lúcida e transparente sobre os riscos, o que inclui monitorar cenários extremos como sistemas de IA que escapam ao controle humano ou governos que usam a tecnologia para minar a democracia.
Sem o controle adequado desses perigos, a OpenAI advertiu que as pessoas serão prejudicadas. A companhia então descreveu como poderia ser confiável para defender um futuro no qual a superinteligência signifique maior qualidade de vida para todos.
Investigação aponta contradições no comportamento de Altman
A The New Yorker entrevistou mais de 100 pessoas familiarizadas com a forma como Altman conduz negócios, além de revisar memorandos internos e entrevistar o executivo mais de 12 vezes.
A reportagem oferece um contraponto sobre por que o público pode ter dificuldade em confiar no CEO da OpenAI para controlar o futuro da IA, independentemente de quão positiva seja a visão da empresa.
Indivíduos próximos a Altman o descreveram como um agradador de pessoas que diz aos outros o que eles querem ouvir enquanto busca poder em uma tentativa de sempre se colocar em primeiro lugar.
Um membro do conselho resumiu que Altman possui dois traços quase nunca vistos na mesma pessoa: um forte desejo de agradar e ser querido em qualquer interação, combinado com uma falta de preocupação quase sociopática com as consequências de enganar alguém.

Ex-líderes técnicos documentaram supostas manipulações
Embora a The New Yorker não tenha encontrado uma prova cabal, seus repórteres analisaram mensagens do ex-chefe científico da OpenAI, Ilya Sutskever, e do ex-diretor de pesquisa, Dario Amodei.
Para complementar a polêmica, Amodei escreveu que o problema da OpenAI é o próprio Sam.
Os documentos mostravam um acúmulo de supostos enganos e manipulações. Muitos incidentes poderiam ser ignorados individualmente, mas quando analisados em conjunto, ambos concluíram que Altman não promovia um ambiente seguro para o desenvolvimento de IA avançada.
Altman responde a alegações e admite evitar conflitos
Altman contestou as alegações da reportagem ou afirmou ter esquecido certos eventos. Ele atribuiu algumas de suas narrativas em mudança ao cenário em transformação da inteligência artificial e admitiu que no passado evitava conflitos.
Suas contradições aparentes estão se tornando mais difíceis de ignorar à medida que a investigação sobre a OpenAI aumenta, com governos cada vez mais dependentes de seus modelos e processos judiciais classificando a tecnologia como insegura.

Empresa adota otimismo enquanto público demonstra preocupação
A The New Yorker informou que Altman recentemente deixou de posicionar a OpenAI como uma salvadora que bloqueia cenários apocalípticos da IA, adotando um tom de otimismo agitado. As recomendações de políticas da empresa refletem essa mudança em alguns momentos.
O diretor de assuntos globais da OpenAI, Chris Lehane, confirmou ao The Wall Street Journal que a empresa está urgentemente preocupada com as opiniões negativas do público sobre inteligência artificial.
Ao anunciar suas ideias para poupar a humanidade dos perigos da IA, a OpenAI também promoveu um programa piloto de bolsas e subsídios de pesquisa focados de até US$ 100 mil e até US$ 1 milhão em créditos de interface de programação de aplicações (API) para trabalhos que se baseiem nessas ideias políticas.
A reportagem da revista levanta a possibilidade de que as recomendações tenham sido divulgadas para desviar a atenção dos crescentes medos públicos sobre segurança infantil, perda de empregos ou data centers que consomem muita energia.
Pesquisas mostram receio da população sobre impacto da IA
Uma pesquisa recente da Universidade Harvard e do Instituto de Tecnologia de Massachusetts (MIT) descobriu que a maior preocupação dos norte-americanos é que o consumo de energia da IA prejudique sua qualidade de vida, informou a Axios.
O Wall Street Journal observou que essas preocupações podem influenciar votos para democratas e republicanos nas eleições de meio de mandato, à medida que moratórias sobre data centers ganham força. As moratórias mencionadas poderiam desacelerar o avanço da inteligência artificial.
Para Altman e sua empresa, convencer o público a adotar sua visão da IA neste momento crítico parece essencial. A The New Yorker observou que a perda do controle do Congresso pelos republicanos poderia abrir caminho para leis de segurança de IA mais rígidas, contra as quais Altman fez lobby em particular.
Sem confiança no executivo, a revista sugeriu que fica muito mais difícil convencer o público de que a OpenAI não está simplesmente dizendo o que for preciso para consolidar seu próprio domínio.

Propostas da OpenAI incluem fundo de riqueza pública e semana de 32 horas
A OpenAI afirmou não ter todas ou mesmo a maioria das respostas. A empresa caracterizou sua política industrial para a era da inteligência como ideias iniciais para manter as pessoas em primeiro lugar durante a transição para a superinteligência.
Pedindo regulamentações de bom senso e parcerias público-privadas, a OpenAI propôs ideias ambiciosas para garantir que todos possam acessar e lucrar com a inteligência artificial.
A visão da empresa reconhece esperar alcançar o que a sociedade nunca conseguiu: garantir acesso à internet e assegurar que a IA seja implantada de forma justa nos Estados Unidos, com todos treinados para usá-la.
A proteção dos trabalhadores é um foco do plano. As recomendações incluem envolver os funcionários em discussões sobre como os sistemas de IA funcionam para melhorar produtividade e segurança no trabalho, bem como sobre como estabelecer limites claros para usos prejudiciais da tecnologia.
A OpenAI sugeriu criar um imposto sobre o trabalho automatizado que poderia financiar programas como Medicaid, Programa de Assistência Nutricional Suplementar (SNAP) e assistência habitacional à medida que as empresas dependem menos do trabalho humano.
Entre outras ideias está um plano para incentivar empregadores e sindicatos a realizar pilotos de jornada de 32 horas semanais distribuídas em 4 dias, sem perda de pagamento e mantendo produção e níveis de serviço constantes.
As horas recuperadas poderiam ser convertidas em uma semana mais curta permanente, tempo de folga remunerado bancável, ou ambos.
Um pouco mais sobre as propostas da OpenAI
A OpenAI propôs ainda um fundo de riqueza pública que fornece a cada cidadão (incluindo aqueles não investidos nos mercados financeiros) uma participação no crescimento econômico impulsionado pela IA.
Os retornos do fundo poderiam ser distribuídos diretamente aos cidadãos, permitindo que mais pessoas participem dos benefícios do crescimento impulsionado pela inteligência artificial, independentemente de sua riqueza inicial ou acesso a capital.
À medida que a IA assume mais tarefas, os humanos podem se voltar para o trabalho centrado no cuidado. A OpenAI recomendou ideias políticas para ajudar trabalhadores deslocados a obter treinamento para atuar na área da saúde, cuidados de idosos, creches ou serviços comunitários.
Para garantir que as pessoas sejam atraídas por essas funções (historicamente desvalorizadas), a empresa sugeriu iniciativas para ajudar a sociedade a reconhecer que o cuidado é trabalho economicamente valioso. Trabalhadores humanos também serão necessários para usar a IA e acelerar avanços científicos, segundo a OpenAI.

Companhia condiciona benefícios públicos à construção de sociedade resiliente
A companhia afirmou que todos esses benefícios públicos só podem ser realizados se for construída uma sociedade resiliente que possa responder rapidamente a implementações arriscadas e manter a IA segura, controlável e alinhada com valores democráticos.
Esse aspecto da visão da empresa exige que organizações, como a gigante aqui mencionada, desenvolvam sistemas de segurança que ajudarão a melhorar a confiança pública sobre a IA.
A empresa parece sugerir que o público deve confiar que esses sistemas funcionarão e que só deve intervir quando perigos reais se aproximarem.
À medida que houver progresso em direção à superinteligência, a OpenAI opinou que pode chegar um ponto em que um conjunto restrito de modelos altamente capazes (particularmente aqueles que poderiam avançar materialmente riscos químicos, biológicos, radiológicos, nucleares ou cibernéticos) exija controles mais fortes.
Quando esse dia chegar, deve haver uma rede global em vigor para comunicar riscos emergentes. Apenas as empresas com os modelos mais avançados devem ser submetidas a auditorias rigorosas, para que empresas menores ainda possam competir.
Esse é o caminho para garantir que a posição dominante de nenhuma empresa seja abusada para eliminar concorrentes injustamente ou enfraquecer valores democráticos, disse a OpenAI, insistindo que a contribuição pública é vital para o sucesso da inteligência artificial.
Leia mais
- OpenAI encerra criador de vídeos Sora
- OpenAI prepara caixa de som com ChatGPT para 2027
- CEO da OpenAI pede para regulamentar a IA com urgência
Histórico de promessas não cumpridas levanta ceticismo
A The New Yorker informou que Altman já convenceu um público cético em relação à tecnologia de que suas prioridades, mesmo quando mutuamente exclusivas, também são as prioridades dele.
Mas para o público, que já relata supostos danos causados pelos modelos da OpenAI, pode estar ficando mais difícil engolir ideias grandiosas de uma empresa liderada pelo maior vendedor de sua geração.
Um pesquisador da OpenAI disse à revista que as promessas de Altman às vezes parecem uma solução paliativa para superar críticas até ele atingir o próximo marco.
Quando se trata de superinteligência, alguns especialistas otimistas acham que pode levar dois anos. Esse período é maior do que o tempo que Elon Musk permaneceu na OpenAI antes de criticar abertamente a liderança de Altman e sair para fundar sua própria empresa de inteligência artificial.
Para finalizar, o pesquisador afirmou que Altman cria estruturas que, no papel, o restringem no futuro. Mas quando o futuro chega e o momento de ser restringido o alcança, ele simplesmente age como quer (eliminando os obstáculos necessários).
E aí? Qual é a sua opinião sobre o assunto? Compartilhe o seu ponto de vista nesta publicação e continue acompanhando o Mundo Conectado!
Fonte: arsTechnica



