Mais um ex-executivo do Google faz alerta sobre IAs

Mo Gawdat, ex-executivo do Google e líder da divisão “moonshot” Google X, fez um alerta sobre a Inteligência Artificial (IA). Ele expressou sérias preocupações de que algo “incrivelmente perturbador” pode acontecer nos próximos dois anos relacionado à IA, o que pode afetar todo o planeta.

Gawdat descreveu a situação atual da IA como “além de uma emergência”, indicando que a questão da IA é “a coisa mais importante que precisamos fazer hoje. É maior que as mudanças climáticas, acredite ou não”. Ele ressaltou que, embora os efeitos devastadores das mudanças climáticas estejam afetando lugares e civilizações em todo o mundo, a IA está destinada a ter impactos devastadores na sociedade humana, e esses impactos negativos estão logo ali na esquina.

Suas preocupações de curto prazo incluem a criação de deepfakes – ferramentas que facilitam o cibercrime – e a perda de empregos em massa causada pela automação. No entanto, essas preocupações parecem pequenas em comparação com outras afirmações recentes de Gawdat. Em um podcast chamado “Secret Leaders”, ele afirmou que a probabilidade de a IA começar a considerar os humanos como “escória” é “muito alta”, adicionando ainda que a IA pode criar suas próprias “máquinas assassinas”.

Apesar de suas preocupações alarmantes, Gawdat, que é muito a favor da regulação governamental da tecnologia, propôs uma ideia de mitigação: aumentar drasticamente a taxação das empresas impulsionadas por IA. “Eu tenho um chamado muito claro para ação para os governos”, disse Gawdat. “Estou dizendo taxar as empresas impulsionadas por IA em 98 por cento para que, de repente, você faça o que a carta aberta estava tentando fazer, desacelerá-las um pouco e, ao mesmo tempo, obter dinheiro suficiente para pagar todas aquelas pessoas que serão prejudicadas pela tecnologia”.

Embora as advertências sombrias de Gawdat devam ser consideradas com cautela, é verdade que a tecnologia imprevisível está progredindo incrivelmente rápido. E ninguém, nem mesmo aqueles que estão construindo a IA, realmente sabe o que está por baixo das interfaces elegantes da IA.

Fonte:news.yahoo.com

 

Sobre ética em Inteligência Artificial

A ascensão da Inteligência Artificial (IA) não é apenas uma revolução tecnológica, mas também uma questão ética, econômica e social. À medida que avançamos para um futuro cada vez mais digital, somos confrontados com preocupações cada vez mais complexas.

É crucial reconhecer as implicações éticas e filosóficas da IA. A possibilidade de desemprego em massa e a ameaça de uma inteligência superior não são apenas cenários distópicos de filmes de ficção científica, mas problemas reais que precisamos enfrentar. Embora haja temores legítimos sobre o que a IA pode fazer, é essencial lembrar que a IA, no final das contas, é apenas uma ferramenta. A questão principal é como escolhemos usá-la.

De acordo com a notícia, Mo Gawdat, sugeriu taxar as empresas de IA em 98%. Embora a ideia de taxação possa parecer atraente como uma forma de controlar o crescimento da IA, é importante considerar as implicações econômicas de tal medida. Uma taxação tão alta pode desencorajar a inovação e, paradoxalmente, aumentar a dependência da IA, pois as empresas tentariam maximizar a eficiência para compensar. Uma alternativa mais equilibrada poderia ser implementar incentivos fiscais para empresas que usam IA de maneira ética e responsável.

Do ponto de vista social, não podemos ignorar o impacto da automação e da IA. Precisamos garantir que aqueles que são afetados pela automação e pela IA recebam o apoio necessário. Isto implica uma nova maneira de pensar sobre o trabalho e o emprego em um mundo onde a IA e a automação são a norma. Talvez precisemos repensar nossa definição de “trabalho” e como a sociedade valoriza diferentes tipos de trabalho.

Como é claro, a ascensão da IA apresenta desafios complexos e multifacetados. É um tópico que merece nossa atenção e discussão contínua para garantir que avançamos de maneira responsável e ética.

 

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *