notícias Das proibições escolares ao drama de Sam Altman: os principais desenvolvimentos na IA em 2023 | tecnologia

A indústria de inteligência artificial (IA) começou 2023 com força, enquanto escolas e universidades lutavam com alunos que usavam o ChatGPT da OpenAI para ajudá-los com trabalhos de casa e redação.

Menos de uma semana após o início do ano, as escolas públicas da cidade de Nova York baniram o ChatGPT – lançado semanas antes com muito alarde – uma medida que abriria caminho para grande parte da discussão generativa sobre IA em 2023.

À medida que crescia o burburinho em torno do ChatGPT, apoiado pela Microsoft, e de rivais como Bard AI do Google, Ernie Chatbot do Baidu e LLaMA da Meta, surgiram questões sobre como lidar com uma nova tecnologia poderosa que se tornou disponível ao público da noite para o dia.

Embora imagens, músicas, vídeos e códigos de computador gerados por IA criados por plataformas como Stable Diffusion da Stability AI ou DALL-E da OpenAI tenham aberto novas possibilidades interessantes, eles também alimentaram preocupações sobre desinformação, assédio direcionado e violação de direitos autorais.

Em março, um grupo de mais de mil signatários, incluindo o cofundador da Apple, Steve Wozniak, e o bilionário empresário de tecnologia Elon Musk, pediram uma pausa no desenvolvimento de IA mais avançada à luz dos “profundos riscos para a sociedade e a humanidade”.

Embora não tenha havido pausa, os governos e os reguladores começaram a implementar novas leis e regulamentos para conter o desenvolvimento e a utilização da IA.

Embora muitas questões relacionadas à IA permaneçam sem solução no início do novo ano, 2023 provavelmente será um marco importante na história da área.

Drama na OpenAI

Depois que o ChatGPT acumulou mais de 100 milhões de usuários até 2023, o desenvolvedor OpenAI voltou ao noticiário em novembro, quando seu conselho de administração demitiu abruptamente o CEO Sam Altman – alegando que ele não era “consistentemente sincero em suas comunicações com o conselho”.

Embora a startup de Silicon Valley não tenha detalhado as razões da demissão de Altman, a sua demissão foi amplamente atribuída a uma batalha ideológica dentro da empresa entre segurança e interesses comerciais.

A remoção de Altman desencadeou cinco dias de drama público durante os quais a equipe da OpenAI ameaçou pedir demissão em massa e Altman foi brevemente contratado pela Microsoft, até sua reintegração e substituição do conselho.

Embora a OpenAI tenha tentado deixar o drama para trás, as questões levantadas durante a turbulência permanecem válidas para a indústria como um todo – incluindo como equilibrar a busca pelo lucro e o lançamento de novos produtos com o medo de que a IA se torne demasiado, possa rapidamente tornar-se demasiado poderoso ou cair. acabar nas mãos erradas.

READ MORE  notícias O Herdeiro Impossível: data de lançamento, elenco e mais sobre o drama K
altman
Sam Altman foi brevemente demitido da OpenAI (Arquivo: Lucy Nicholson/Reuters)

Num inquérito a 305 programadores, decisores políticos e académicos realizado pelo Pew Research Center em julho, 79% dos entrevistados afirmaram estar mais preocupados do que entusiasmados com o futuro da IA, ou tão preocupados quanto entusiasmados.

Apesar do potencial da IA ​​para transformar campos da medicina à educação e comunicações de massa, os entrevistados expressaram preocupações sobre riscos como a vigilância em massa, o assédio governamental e policial, a deslocação de empregos e o isolamento social.

Sean McGregor, fundador da Responsible AI Collaborative, disse que 2023 mostrou as esperanças e medos em torno da IA ​​generativa, bem como profundas divisões filosóficas dentro da indústria.

“O que é mais esperançoso é a luz que agora brilha sobre as decisões sociais tomadas pelos tecnólogos, embora seja preocupante que muitos dos meus colegas no sector da tecnologia pareçam ver tal atenção de forma negativa”, disse McGregor à Al Jazeera, acrescentando que a IA deve ser moldado pelas “necessidades das pessoas mais afetadas”.

“Ainda me sinto bastante positivo, mas serão algumas décadas desafiadoras à medida que chegarmos a um acordo com o fato de que o discurso de segurança da IA ​​​​é uma versão tecnológica elegante de antigos desafios sociais”, disse ele.

Legislação sobre o futuro

Em dezembro, Os decisores políticos da União Europeia concordaram numa legislação abrangente para regular o futuro da IAcoroando um ano de esforços de governos nacionais e organizações internacionais como as Nações Unidas e o G7.

As principais preocupações incluem as fontes de informação utilizadas para treinar algoritmos de IA, muitas das quais estão a ser eliminadas da Internet sem levar em conta a privacidade, preconceito, precisão ou direitos de autor.

O projeto de legislação da UE exigirá que os desenvolvedores tornem públicos seus dados de treinamento e cumpram as leis do bloco, com restrições a certos tipos de uso e um caminho para reclamações de usuários.

Esforços legislativos semelhantes estão em curso nos EUA, onde o Presidente Joe Biden emitiu uma ordem executiva abrangente sobre os padrões de IA em Outubro, e na Grã-Bretanha, que acolheu a Cimeira de Segurança da IA ​​em Novembro, envolvendo 27 países e partes interessadas da indústria.

A China também tomou medidas para regular o futuro da IA, emitindo regras provisórias para os desenvolvedores, exigindo que se submetam a uma “avaliação de segurança” antes de lançar produtos ao público.

As diretrizes também restringem os dados de treino de IA e proíbem conteúdos considerados como “defendendo o terrorismo”, “minando a estabilidade social”, “derrubando o sistema socialista” ou “prejudicando a imagem do país”.

READ MORE  notícias Fotos do tatuador de Auschwitz definem data de lançamento da série dramática histórica Peacock

Globalmente, o primeiro acordo internacional provisório sobre segurança da IA ​​também foi assinado em 2023, assinado por vinte países, incluindo os Estados Unidos, Reino Unido, Alemanha, Itália, Polónia, Estónia, República Checa, Singapura, Nigéria, Israel e Chile.

IA e o futuro do trabalho

As questões sobre o futuro da IA ​​também são generalizadas no sector privado, onde a sua utilização nos EUA já levou a acções judiciais colectivas movidas por escritores, artistas e meios de comunicação social, alegando violação de direitos de autor.

O temor de que a IA substituísse os empregos foi um fator determinante por trás de meses de greves em Hollywood por parte do Screen Actors Guild e do Writers Guild of America.

Em Março, a Goldman Sachs previu que a IA generativa poderia substituir 300 milhões de empregos pela automação e impactar pelo menos dois terços dos empregos actuais na Europa e nos EUA – tornando o trabalho mais produtivo, mas também mais automatizado.

Outros tentaram moderar as previsões mais catastróficas.

Em Agosto, a Organização Internacional do Trabalho, a agência laboral da ONU, afirmou que a IA generativa provavelmente expandirá mais empregos do que substituirá, citando o trabalho administrativo como a ocupação de maior risco.

Ano do ‘deepfake’?

O ano de 2024 será um grande teste para a IA generativa, à medida que novas aplicações entram no mercado e nova legislação entra em vigor num contexto de agitação política global.

Nos próximos doze meses, mais de dois mil milhões de pessoas votarão em eleições num número recorde de quarenta países, incluindo centros geopolíticos como os EUA, a Índia, a Indonésia, o Paquistão, a Venezuela, o Sudão do Sul e Taiwan.

Embora as campanhas de desinformação online já sejam uma parte regular de muitos ciclos eleitorais, espera-se que os conteúdos gerados pela IA piorem a situação, à medida que as informações falsas se tornam cada vez mais difíceis de distinguir das informações reais e mais fáceis de replicar em grande escala.

O conteúdo gerado pela IA, incluindo imagens “deepfake”, já foi usado para alimentar a raiva e a confusão em zonas de conflito como a Ucrânia e Gaza, e apareceu em disputas eleitorais acirradamente disputadas, como as eleições presidenciais dos EUA.

Meta disse aos anunciantes no mês passado que proibirá anúncios políticos no Facebook e Instagram criados com IA generativa, enquanto o YouTube anunciou que exigirá que os criadores rotulem conteúdo gerado por IA de aparência realista.