Ligue-se a nós

CIÊNCIA & TECNOLOGIA

PLÁSTICOS MICROSCÓPICOS SÃO UM RISCO PARA ECOSSISTEMAS DE ÁGUA DOCE

Concentrações ambientalmente relevantes de fragmentos microscópicos de plástico representam um risco para o funcionamento dos ecossistemas de água doce, concluiu um estudo da Universidade de Coimbra (UC) hoje divulgado.

Online há

em

Concentrações ambientalmente relevantes de fragmentos microscópicos de plástico representam um risco para o funcionamento dos ecossistemas de água doce, concluiu um estudo da Universidade de Coimbra (UC) hoje divulgado.

No estudo, a equipa de cientistas da UC, em colaboração com investigadores da Universidade de Aveiro e da Konkuk University (Coreia do Sul), pretendeu avaliar os impactos dos nanoplásticos na decomposição de matéria orgânica, taxa de reprodução e alterações na comunidade de fungos aquáticos, denominados hifomicetes, explicou a Universidade de Coimbra, em nota de imprensa enviada à agência Lusa.

Para tal, foi realizado um ensaio laboratorial “com as menores concentrações de nanoplásticos já testadas, até 25 microgramas por litro, com dois tamanhos (100 e 1000 nanómetros)”.

“Além disso, verificámos as alterações na qualidade nutricional das folhas expostas aos nanoplásticos. Essas folhas foram depois fornecidas a uma espécie de invertebrados de ribeiros, de forma a avaliar possíveis consequências no seu comportamento alimentar”, afirmou, citada na nota, Seena Sahadevan, investigadora do Centro de Ciências do Mar e do Ambiente (MARE) da Faculdade de Ciências e Tecnologia da Universidade de Coimbra (FCTUC) e primeira autora do artigo científico.

No comunicado, a UC explicou que os nanoplásticos “são fragmentos de plástico com tamanho menor que 1.000 nanómetros [0,001 milímetros] – aproximadamente o tamanho de um vírus – usados geralmente por indústrias farmacêuticas, de cosmética e produtos de limpeza, podendo também ser derivados da degradação dos macroplásticos” que se usa no dia a dia.

“Em pequenos ribeiros, a decomposição da matéria orgânica é um processo crucial, responsável pela transferência de energia e nutrientes entre os diversos níveis tróficos da cadeia alimentar. Os hifomicetes aquáticos são os principais mediadores desse processo. Estes fungos são capazes de modificar os componentes recalcitrantes da folha, melhorando assim a sua palatabilidade e qualidade nutricional para consumo de invertebrados”, acrescentou a cientista.

Segundo a investigadora do MARE, os resultados obtidos indicam que “a decomposição, reprodução e a abundância dos fungos são significativamente afetadas por baixas concentrações e tamanho dos nanoplásticos” e “as partículas de menor tamanho demonstram maior toxicidade”.

Curiosamente, sublinhou Seena Sahadevan, “apenas os nanoplásticos de menor tamanho impactaram a qualidade nutricional das folhas, aumentando a quantidade de ácidos gordos polinsaturados”.

“Não houve alterações visíveis nas taxas de alimentação dos invertebrados, porém, observámos um comportamento letárgico nos animais alimentados com folhas expostas as concentrações mais elevadas, indicando uma possível contaminação”.

A principal preocupação dos cientistas envolvidos no estudo para com estes fragmentos plásticos nanométricos “é a alta capacidade de interação e reação com outras moléculas e organismos presentes no ambiente” e a investigação agora publicada fornece “novas perceções sobre os grandes riscos que os nanoplásticos apresentam para o bom funcionamento dos ecossistemas de água doce”, sintetizou Seena Sahadevan.

Por outro lado, atualmente, a grande maioria dos estudos científicos que abordam os impactos e consequências dos micro e nanoplásticos na Natureza “são realizados em ambiente marinhos”.

“No entanto, é importante ressaltar que 1,15 milhões a 2,41 milhões de toneladas dos plásticos presentes nos oceanos são transportados através dos rios”, frisam os autores do estudo.

Publicidade

HELPO, EU CONSIGNO EU CONSIGO, IRS 2024
ASSOCIAÇÃO SALVADOR, HÁ 20 ANOS A TIRAR SONHOS DO PAPEL

DEIXE O SEU COMENTÁRIO

Leave a Reply

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.

CIÊNCIA & TECNOLOGIA

INTELIGÊNCIA ARTIFICIAL: ESPECIALISTAS ALERTAM PARA FALTA DE CONTROLO E REGULAÇÃO

Os principais especialistas mundiais em Inteligência Artificial (IA) alertaram hoje para a falta de regulação e controlo da tecnologia e pediram aos líderes mundiais uma maior intervenção, sob pena de um “risco catastrófico” para a humanidade.

Online há

em

Os principais especialistas mundiais em Inteligência Artificial (IA) alertaram hoje para a falta de regulação e controlo da tecnologia e pediram aos líderes mundiais uma maior intervenção, sob pena de um “risco catastrófico” para a humanidade.

“A cibercriminalidade em grande escala, a manipulação social e outros danos podem aumentar rapidamente” e, em “caso de conflito aberto, os sistemas de IA poderiam utilizar de forma autónoma uma série de armas, incluindo armas biológicas”, acrescentam, admitindo uma “possibilidade muito real de que o avanço incontrolado da IA possa culminar numa perda de vidas e da biosfera em grande escala e na marginalização ou extinção da humanidade”, afirmam 25 autores de renome em IA, num documento hoje publicado na revista Science.

Os autores salientam que “é imperativo que os líderes mundiais levem a sério a possibilidade de sistemas de IA generalistas altamente potentes – que superem as capacidades humanas em muitos domínios críticos – virem a ser desenvolvidos na presente década ou na próxima” e as “tentativas para introduzir orientações iniciais” não estão a ser suficientes.

Falta de investigação sobre segurança nos sistemas é uma das principais preocupações dos peritos, que estimam em menos de 3% as publicações cientificas sobre o tema, a que se soma a ausência de “mecanismos para prevenir a utilização indevida e a imprudência, nomeadamente no que respeita à utilização de sistemas autónomos capazes de agir de forma independente”, referem os autores, uma lista que inclui galardoados Nobel, investigadores e vencedores do Prémio Turing.

No documento, intitulado “Gerir riscos extremos de IA no meio do rápido progresso”, os subscritores recomendam aos governos que “criem instituições especializadas e de ação rápida para a supervisão”, com um financiamento robusto, “exigência de avaliações de risco muito mais rigorosas e com consequências obrigatórias” e que as empresas “deem prioridade à segurança e demonstrem que os seus sistemas não podem causar danos”.

Nos casos dos sistemas de IA mais potentes, os autores defendem que os “governos devem estar preparados para assumir a liderança na regulamentação”, incluindo o licenciamento, “a restrição da sua autonomia em funções sociais fundamentais, a interrupção do seu desenvolvimento e implantação em resposta a capacidades preocupantes”, entre outras matérias.

Para os subscritores do documento, os riscos da IA são “catastróficos”, porque a tecnologia “já está a progredir rapidamente em domínios críticos como a pirataria informática, a manipulação social e o planeamento estratégico, e poderá em breve colocar desafios de controlo sem precedentes”.

Segundo Stuart Russell, da Universidade de Berkeley, este documento de consenso “apela para uma regulamentação rigorosa por parte dos governos e não códigos de conduta voluntários redigidos pela indústria”, porque os sistemas avançados de IA “não são brinquedos”.

“Aumentar as suas capacidades antes de sabermos como os tornar seguros é absolutamente imprudente. As empresas queixar-se-ão de que é demasiado difícil satisfazer os regulamentos – que ‘a regulamentação sufoca a inovação’”, disse, acrescentando que “há mais regulamentos para as lojas de sandes do que para as empresas de IA”.

Para Philip Torr, da Universidade de Oxford, se existir cuidado, “os benefícios da IA superarão as desvantagens”, mas sem essa preocupação, existe o “risco de um futuro orwelliano com uma forma de estado totalitário que tenha controlo total” da humanidade.

Outro dos autores, o historiador Yuval Noah Harari, recorda que, com esta tecnologia, “a humanidade está a criar algo mais poderoso do que ela própria, que pode escapar ao controlo do ser humano”.

LER MAIS

CIÊNCIA & TECNOLOGIA

DESINFORMAÇÃO “ESTÁ MUITO PRESENTE NO AMBIENTE ONLINE”

A responsável pelas políticas públicas e assuntos governamentais do TikTok Portugal e Espanha afirma, em entrevista à Lusa, que a desinformação “está muito presente no ambiente ‘online’” e, por isso, a rede social tem de investir no seu combate.

Online há

em

A responsável pelas políticas públicas e assuntos governamentais do TikTok Portugal e Espanha afirma, em entrevista à Lusa, que a desinformação “está muito presente no ambiente ‘online’” e, por isso, a rede social tem de investir no seu combate.

“A desinformação está muito presente no ambiente ‘online’, achamos que é algo que temos de investir e é por isso que confiamos nos ‘fact-checkers’ com parceiros locais”, diz Yasmina Laraudogoitia.

A responsável esteve em Portugal para participar no 33.º Congresso da APDC.

Atualmente, a rede social conta com “3,3 milhões de utilizadores mensalmente ativos” em Portugal.

Em Portugal, a rede social trabalha com o Polígrafo, considerando esta parceria “imensamente útil”.

“Temos colaborado com eles, digamos, de forma consistente e constantemente”, prossegue, apontando que no caso das eleições portuguesas, decorridas em 10 de março, trabalharam este evento específico com o Polígrafo.

“Temos um fluxo de trabalho específico com o Polígrafo e agora com as eleições europeias também”, acrescenta Yasmina Laraudogoitia.

“É muito importante recolhermos informações de especialistas”, sublinha a responsável.

Yasmina Laraudogoitia explica também como o TikTok usa o sistema de moderação.

“Treinamos o nosso sistema de moderadores, as nossas equipas de moderação são treinadas especificamente em desinformação graças a esta parceria e desta forma podemos saber que tipo de informação é mais popular e, assim por diante”, e depois é utilizada também a inteligência artificial (IA).

Nos conteúdos gerados por IA pode haver informação enganosa e prejudicial e daí advir desinformação.

“Na verdade somos a primeira plataforma que inclui uma ferramenta para que os criadores de conteúdo possam rotular” se houve manipulação.

Ou seja, “se eles fizerem um vídeo que é manipulado com IA, que é gerado com IA, eles podem ser capacitados e informar a comunidade. E isso está a ser feito com inteligência artificial, explica.

E agora “estamos a colaborar com a Coalition for Provenance and Authenticity”, acrescenta.

O que é que isso quer dizer? “O nosso sistema de moderação será mais eficiente na deteção de conteúdo gerado por IA e, desta forma, poderemos moderar melhor e poderemos ser mais eficientes em termos de também combater a desinformação”, explica.

O TikTok usa a IA para o sistema de recomendação para fornecer a melhor experiência, o melhor conteúdo para cada utilizador e para a moderação também.

“Implementámos os protocolos de conteúdos e com isso somos mais capazes de identificar conteúdos gerados”, diz.

Com os conteúdos gerados por IA, a TikTok pretende fornecer mais transparência aos utilizadores e também ser mais eficiente em termos de moderação de conteúdo, como também capacitar a comunidade.

Em suma, “transparência e empoderamento”, remata.

Em termos de fornecimento de contexto, “temos 40.000 profissionais em todo o mundo” no combate à desinformação, diz, e 173 moderadores para conteúdo específico.

Mas este número vai se alterando conforme o conteúdo evolui.

LER MAIS
Subscrever Canal WhatsApp
RÁDIO ONLINE
ASSOCIAÇÃO SALVADOR, HÁ 20 ANOS A TIRAR SONHOS DO PAPEL

LINHA CANCRO
DESPORTO DIRETO

RÁDIO REGIONAL NACIONAL: SD | HD



RÁDIO REGIONAL VILA REAL


RÁDIO REGIONAL CHAVES


RÁDIO REGIONAL BRAGANÇA


RÁDIO REGIONAL MIRANDELA


MUSICBOX

WEBRADIO 100% PORTUGAL


WEBRADIO 100% POPULAR


WEBRADIO 100% LOVE SONGS


WEBRADIO 100% BRASIL


WEBRADIO 100% OLDIES


WEBRADIO 100% ROCK


WEBRADIO 100% DANCE


WEBRADIO 100% INSPIRATION

KEYWORDS

FABIO NEURAL @ ENCODING


NARCÓTICOS ANÓNIMOS
PAGAMENTO PONTUAL


MAIS LIDAS