Ligue-se a nós

CIÊNCIA & TECNOLOGIA

INTELIGÊNCIA ARTIFICIAL VAI TER CAPACIDADE DE FALAR E VER – CHATGPT

A OpenAI informou na segunda-feira que tinha dotado o seu programa de inteligência artificial (IA) ChatGPT de capacidade de falar e ver para a tornar “mais intuitiva”.

Online há

em

A OpenAI informou na segunda-feira que tinha dotado o seu programa de inteligência artificial (IA) ChatGPT de capacidade de falar e ver para a tornar “mais intuitiva”.

A interface que popularizou a IA generativa — isto é, capaz de produzir texto, imagem e outros conteúdos a pedido — vai assim, em breve, poder tratar pedidos com imagens e também discutir oralmente com os seus utilizadores.

Em comunicado, a OpenAi dá o exemplo de um utilizador que fotografa um monumento e que depois “tem uma conversa com o ChatGPT” sobre a história da construção ou que mostra ao programa o interior do seu frigorífico para que lhe proponha uma receita.

Outros exemplos de usos possíveis, ainda segundo a empresa, são os de ajudar as crianças com os exercícios escolares, por exemplo, através d envio de uma foto de um problema de matemática, ou pedir ao ‘chatbot’ que conte às crianças uma história antes de adormecerem.

Estes novos instrumentos vão ser desenvolvidos nas duas próximas semanas para os assinantes do ChatGPT Plus, que é a versão paga do ‘chatbot’, e as organizações clientes do serviço.

A empresa anunciou em março estas funcionalidades, ao apresentar o GPT-4, a versão mais recente do seu modelo de linguagem, que sustenta o chatGPT.

O GPT-4 é multimédia, no sentido em que pode tratar de informação, além de texto ou códigos informáticos.

O sucesso do ChatGPT desde o final de 2022 desencadeou uma corrida à IA generativa pelos conglomerados das tecnologias, desde logo Google e Microsoft.

Mas o desenvolvimento acelerado destes programas, ainda muito pouco regulados, suscita muitas inquietações, tanto mais que têm tendência a “alucinar”, isto é, a inventar respostas.

“Os modelos dotados de visão colocam novos desafios, alucinações, por as pessoas se poderem basear na interpretação das imagens pelo programa em domínios com consequências pesadas” das decisões tomadas, admitiu OpenAI, no seu comunicado.

A empresa garantiu ter “testado o modelo” em temas como o extremismo e os conhecimentos científicos, mas adiantou que conta com os usos na vida real e os comentários dos utilizadores para o melhorar.

Por outro lado, limitou as capacidades da ChatGPT para “analisar as pessoas”, uma vez que a interface “nem sempre é exata e estes sistemas devem respeitar a confidencialidade dos indivíduos”.

CIÊNCIA & TECNOLOGIA

INTELIGÊNCIA ARTIFICIAL: ESPECIALISTAS ALERTAM PARA FALTA DE CONTROLO E REGULAÇÃO

Os principais especialistas mundiais em Inteligência Artificial (IA) alertaram hoje para a falta de regulação e controlo da tecnologia e pediram aos líderes mundiais uma maior intervenção, sob pena de um “risco catastrófico” para a humanidade.

Online há

em

Os principais especialistas mundiais em Inteligência Artificial (IA) alertaram hoje para a falta de regulação e controlo da tecnologia e pediram aos líderes mundiais uma maior intervenção, sob pena de um “risco catastrófico” para a humanidade.

“A cibercriminalidade em grande escala, a manipulação social e outros danos podem aumentar rapidamente” e, em “caso de conflito aberto, os sistemas de IA poderiam utilizar de forma autónoma uma série de armas, incluindo armas biológicas”, acrescentam, admitindo uma “possibilidade muito real de que o avanço incontrolado da IA possa culminar numa perda de vidas e da biosfera em grande escala e na marginalização ou extinção da humanidade”, afirmam 25 autores de renome em IA, num documento hoje publicado na revista Science.

Os autores salientam que “é imperativo que os líderes mundiais levem a sério a possibilidade de sistemas de IA generalistas altamente potentes – que superem as capacidades humanas em muitos domínios críticos – virem a ser desenvolvidos na presente década ou na próxima” e as “tentativas para introduzir orientações iniciais” não estão a ser suficientes.

Falta de investigação sobre segurança nos sistemas é uma das principais preocupações dos peritos, que estimam em menos de 3% as publicações cientificas sobre o tema, a que se soma a ausência de “mecanismos para prevenir a utilização indevida e a imprudência, nomeadamente no que respeita à utilização de sistemas autónomos capazes de agir de forma independente”, referem os autores, uma lista que inclui galardoados Nobel, investigadores e vencedores do Prémio Turing.

No documento, intitulado “Gerir riscos extremos de IA no meio do rápido progresso”, os subscritores recomendam aos governos que “criem instituições especializadas e de ação rápida para a supervisão”, com um financiamento robusto, “exigência de avaliações de risco muito mais rigorosas e com consequências obrigatórias” e que as empresas “deem prioridade à segurança e demonstrem que os seus sistemas não podem causar danos”.

Nos casos dos sistemas de IA mais potentes, os autores defendem que os “governos devem estar preparados para assumir a liderança na regulamentação”, incluindo o licenciamento, “a restrição da sua autonomia em funções sociais fundamentais, a interrupção do seu desenvolvimento e implantação em resposta a capacidades preocupantes”, entre outras matérias.

Para os subscritores do documento, os riscos da IA são “catastróficos”, porque a tecnologia “já está a progredir rapidamente em domínios críticos como a pirataria informática, a manipulação social e o planeamento estratégico, e poderá em breve colocar desafios de controlo sem precedentes”.

Segundo Stuart Russell, da Universidade de Berkeley, este documento de consenso “apela para uma regulamentação rigorosa por parte dos governos e não códigos de conduta voluntários redigidos pela indústria”, porque os sistemas avançados de IA “não são brinquedos”.

“Aumentar as suas capacidades antes de sabermos como os tornar seguros é absolutamente imprudente. As empresas queixar-se-ão de que é demasiado difícil satisfazer os regulamentos – que ‘a regulamentação sufoca a inovação’”, disse, acrescentando que “há mais regulamentos para as lojas de sandes do que para as empresas de IA”.

Para Philip Torr, da Universidade de Oxford, se existir cuidado, “os benefícios da IA superarão as desvantagens”, mas sem essa preocupação, existe o “risco de um futuro orwelliano com uma forma de estado totalitário que tenha controlo total” da humanidade.

Outro dos autores, o historiador Yuval Noah Harari, recorda que, com esta tecnologia, “a humanidade está a criar algo mais poderoso do que ela própria, que pode escapar ao controlo do ser humano”.

LER MAIS

CIÊNCIA & TECNOLOGIA

DESINFORMAÇÃO “ESTÁ MUITO PRESENTE NO AMBIENTE ONLINE”

A responsável pelas políticas públicas e assuntos governamentais do TikTok Portugal e Espanha afirma, em entrevista à Lusa, que a desinformação “está muito presente no ambiente ‘online’” e, por isso, a rede social tem de investir no seu combate.

Online há

em

A responsável pelas políticas públicas e assuntos governamentais do TikTok Portugal e Espanha afirma, em entrevista à Lusa, que a desinformação “está muito presente no ambiente ‘online’” e, por isso, a rede social tem de investir no seu combate.

“A desinformação está muito presente no ambiente ‘online’, achamos que é algo que temos de investir e é por isso que confiamos nos ‘fact-checkers’ com parceiros locais”, diz Yasmina Laraudogoitia.

A responsável esteve em Portugal para participar no 33.º Congresso da APDC.

Atualmente, a rede social conta com “3,3 milhões de utilizadores mensalmente ativos” em Portugal.

Em Portugal, a rede social trabalha com o Polígrafo, considerando esta parceria “imensamente útil”.

“Temos colaborado com eles, digamos, de forma consistente e constantemente”, prossegue, apontando que no caso das eleições portuguesas, decorridas em 10 de março, trabalharam este evento específico com o Polígrafo.

“Temos um fluxo de trabalho específico com o Polígrafo e agora com as eleições europeias também”, acrescenta Yasmina Laraudogoitia.

“É muito importante recolhermos informações de especialistas”, sublinha a responsável.

Yasmina Laraudogoitia explica também como o TikTok usa o sistema de moderação.

“Treinamos o nosso sistema de moderadores, as nossas equipas de moderação são treinadas especificamente em desinformação graças a esta parceria e desta forma podemos saber que tipo de informação é mais popular e, assim por diante”, e depois é utilizada também a inteligência artificial (IA).

Nos conteúdos gerados por IA pode haver informação enganosa e prejudicial e daí advir desinformação.

“Na verdade somos a primeira plataforma que inclui uma ferramenta para que os criadores de conteúdo possam rotular” se houve manipulação.

Ou seja, “se eles fizerem um vídeo que é manipulado com IA, que é gerado com IA, eles podem ser capacitados e informar a comunidade. E isso está a ser feito com inteligência artificial, explica.

E agora “estamos a colaborar com a Coalition for Provenance and Authenticity”, acrescenta.

O que é que isso quer dizer? “O nosso sistema de moderação será mais eficiente na deteção de conteúdo gerado por IA e, desta forma, poderemos moderar melhor e poderemos ser mais eficientes em termos de também combater a desinformação”, explica.

O TikTok usa a IA para o sistema de recomendação para fornecer a melhor experiência, o melhor conteúdo para cada utilizador e para a moderação também.

“Implementámos os protocolos de conteúdos e com isso somos mais capazes de identificar conteúdos gerados”, diz.

Com os conteúdos gerados por IA, a TikTok pretende fornecer mais transparência aos utilizadores e também ser mais eficiente em termos de moderação de conteúdo, como também capacitar a comunidade.

Em suma, “transparência e empoderamento”, remata.

Em termos de fornecimento de contexto, “temos 40.000 profissionais em todo o mundo” no combate à desinformação, diz, e 173 moderadores para conteúdo específico.

Mas este número vai se alterando conforme o conteúdo evolui.

LER MAIS
Subscrever Canal WhatsApp
RÁDIO ONLINE
ASSOCIAÇÃO SALVADOR, HÁ 20 ANOS A TIRAR SONHOS DO PAPEL

LINHA CANCRO
DESPORTO DIRETO
A RÁDIO QUE MARCA GOLOS
FAMALICÃO X BENFICA


RÁDIO REGIONAL NACIONAL: SD | HD



RÁDIO REGIONAL VILA REAL


RÁDIO REGIONAL CHAVES


RÁDIO REGIONAL BRAGANÇA


RÁDIO REGIONAL MIRANDELA


MUSICBOX

WEBRADIO 100% PORTUGAL


WEBRADIO 100% POPULAR


WEBRADIO 100% LOVE SONGS


WEBRADIO 100% BRASIL


WEBRADIO 100% OLDIES


WEBRADIO 100% ROCK


WEBRADIO 100% DANCE


WEBRADIO 100% INSPIRATION

KEYWORDS

FABIO NEURAL @ ENCODING


NARCÓTICOS ANÓNIMOS
PAGAMENTO PONTUAL


MAIS LIDAS