Trump e Netanyahu são assassinos em série que devem ser parados, diz ex-agente da CIA

Donald Trump e Benjamin Netanyahu (Foto: reprodução)

Chefe da Casa Branca é tão fora de controle que rompeu com a empresa Anthropic, de IA, porque ela quis colocar algum limite nas armas de guerra que usam sua tecnologia

O ex-analista da Agência Central de Inteligência (CIA), o norte-americano Larry C. Johnson, afirmou, neste sexta-feira (13), em entrevista ao brasileiro/iraniano, Nima Alkhorshid, que tanto Donald Trump quanto Benjamin Netanyahu são dois assassinos em série capazes de cometer qualquer crime contra a Humanidade. Segundo Johnson, eles têm que ser parados.

CRIMES HEDIONDOS

Nada mais preciso diante dos horrores que o mundo vem assistindo por parte desse dois fascistas nos últimos dias. Desde o bombardeio criminoso sobre a população civil em Gaza, o sequestro do presidente Maduro e o assassinato do líder religioso do Irã, Ali Khamenei e sua neta e outros familiares, ao assassinato de 160 meninas numa escola iraniana e o uso de armas químicas sobre a população de Teerã. Não há limites para os dois criminosos.

Não há dúvida que, desde Hitler, esses dois fascistas são o que de pior existe hoje na espécie humana. Se é que pode-se chamar Trump e Netanyahu de seres humanos. O mundo efetivamente só terá paz se esses dois monstros forem derrotados. Os iranianos, com muito sofrimento, estão mostrando ao fascismo quais são os limites para sua ganância. O Irã está dizendo não ao domínio imperialista da civilização persa. O mundo vê com esperança, os poderosos mísseis iranianos que se abatem sobre as bases americanas no Golfo Pérsico e sobre a ditadura israelense.

Mas os criminosos não param de se esmerar no planejamento de mais crimes hediondos. Estamos falando do empenho desesperado do governo Trump em usar a Inteligência Artificial (IA) como arma de guerra. Enquanto a China socialista aplica os avanços obtidos com da IA para aumentar a produtividade de suas empresas e para elevar o bem-estar de sua população, o governo fascista de Trump se empenha em usar a IA como arma de destruição em massa.

ANTHROPIC

Isto é o que se pode depreender da polêmica pública entre Donald Trump e o executivo da empresa de IA, Anthropic, Dario Amodei. A empresa estava em negociações com o Pentágono e, repentinamente, Donald Trump veio a público e informou que a empresa estava proibida de prestar serviços ao governo americano. Todos os contratos deveriam ser cancelados, ordenou.

A Anthropic já prestava serviços às tropas dos americanas, mas Trump se irritou porque a empresa demonstrou um mínimo de consciência e quis impor limites ao poder destrutivo da IA na guerra. Negociou esses termos no acordo com o governo. Trump ficou enfurecido. Chamou a empresa de esquerdista e suspendeu tudo.

Anthropic (Foto: divulgação)

O que a Anthropic pediu ao governo foi que o Pentágono garantisse que seu modelo de IA Claude não fosse usado para vigilância em massa dos Estados Unidos ou para pilotar armas letais totalmente autônomas.

SEM LIMITES

Ficou evidente neste episódio que o fascista Trump não quer nenhum limite para suas armas de destruição em massa. Ou seja, se não for parado, pretende desenvolvê-las e usá-las cada vez mais em suas guerras eternas. Ele vociferou que empresas privadas não têm o direito de definir políticas para o governo dos EUA.

O fanático Secretário de Defesa dos EUA, Hegerseth, anunciou em seguida, como seu chefe ordenou, que a Anthropic seria listada como uma empresa de “risco na cadeia de suprimentos”. No dia 5 de março, o Pentágono notificou oficialmente a empresa de que a determinação relevante havia entrado em vigor.

A mídia americana de tecnologia The Information revelou que o CEO da Anthropic, Dario Amodei, disse que a administração Trump se opunha à empresa “porque não damos elogios ao estilo de ditador de Trump.”

O conflito entre a empresa e o Pentágono continua a se intensificar. Em 9 de março, a empresa entrou oficialmente com uma ação contra o Departamento de Defesa dos EUA, acusando-o de abusar do rótulo de “risco da cadeia de suprimentos” e de direcionar indevidamente empresas americanas para realizar supressão punitiva.

ARMAS CADA VEZ MAIS LETAIS

A Anthropic afirmou em um comunicado que o “risco na cadeia de suprimentos” é muito restrito e não se aplica a empresas americanas, e que a acusação é “necessária para proteger nossos negócios, clientes e parceiros.” Um porta-voz do Departamento de Defesa dos EUA respondeu que é política não comentar sobre o processo em andamento.

O New York Times apontou no mesmo dia que o rótulo de “risco na cadeia de suprimentos” geralmente se aplica apenas a empresas consideradas uma ameaça significativa à segurança nacional, como empresas com ligações à China. Uma vez incluída na lista, a empresa será efetivamente cortada da cooperação com o Departamento de Defesa dos EUA. O rótulo nunca foi usado por empresas americanas antes.

O Washington Post também afirmou no dia 10 que a identificação de “risco na cadeia de suprimentos” geralmente é usada apenas contra empresas chinesas ou russas.

Mark Jia, da Universidade de Georgetown, disse ao jornal que a Anthropic provavelmente vencerá na justiça, considerando que a lei sob a qual o Departamento de Defesa está baseado foi originalmente criada contra empresas associadas a adversários estrangeiros.

Segundo relatos da mídia americana, ferramentas de IA da Anthropic já foram amplamente utilizadas em sistemas classificados do Departamento de Defesa dos EUA para analisar dados em grande escala coletados por agências de inteligência dos EUA e filtrar rapidamente informações.

USO NA GUERRA

O Pentágono ainda está usando a tecnologia da Anthropic, inclusive para apoiar o recente bombardeio de Trump ao Irã. O Washington Post afirmou que o modelo Claude foi profundamente integrado ao sistema do Departamento de Defesa dos EUA e, até recentemente, era o único modelo de IA aprovado para uso em sistemas classificados.

A ferramenta foi incorporada ao Maven Smart System das Forças Armadas dos EUA para ajudar os comandantes a analisar inteligência e identificar alvos de ataque. De acordo com relatórios anteriores, nos estágios iniciais das operações militares, o sistema propunha centenas de alvos e fornecia suas coordenadas exatas, em ordem de importância. Além disso, acelera significativamente o planejamento do combate e pode ajudar a avaliar os resultados após um ataque.

A disputa entre Trump e a Anthropic também abalou o Vale do Silício e levantou a questão de até que ponto as empresas de IA deveriam poder limitar o uso de sua tecnologia ao trabalharem com o governo dos EUA. Assim que a Anthropic foi vetada por Trump, a OpenAI se ofereceu para substituí-la. Em suma, a OpenAI se propôs a romper qualquer limite nas armas de Trump.

SÉRGIO CRUZ

Compartilhe

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *