Ligue-se a nós

CIÊNCIA & TECNOLOGIA

UNIVERSIDADE DE COIMBRA GANHA 492 MIL EUROS PARA ESTUDAR EFEITOS DO ‘STRESS’ NO CÉREBRO

Um projeto dedicado ao estudo dos efeitos do ‘stress’ crónico no cérebro, coordenado pelo Centro de Neurociências e Biologia Celular (CNC) da Universidade de Coimbra (UC), ganhou 492 mil euros de financiamento.

Online há

em

Um projeto dedicado ao estudo dos efeitos do ‘stress’ crónico no cérebro, coordenado pelo Centro de Neurociências e Biologia Celular (CNC) da Universidade de Coimbra (UC), ganhou 492 mil euros de financiamento.

Este financiamento de quase meio milhão de euros, anunciou hoje a Universidade de Coimbra, é concedido no âmbito de Concurso CaixaResearch de Investigação na Saúde, iniciativa da Fundação la Caixa, que conta com o apoio da Fundação para a Ciência e a Tecnologia (FCT).

“O ‘stress’ crónico é cada vez mais prevalente nas sociedades modernas e resulta num risco aumentado para a saúde mental, devido aos seus efeitos no cérebro”, afirma, numa nota enviada à agência Lusa, a UC, referindo que “uma das regiões do cérebro mais afetadas pelo ‘stress’ é o córtex pré-frontal, que está envolvido no planeamento de comportamentos complexos e na tomada de decisões”.

Estima-se que na Europa mais de 40 milhões de pessoas sofram de ansiedade e depressão – distúrbios mentais associados ao ‘stress’ crónico –, adianta a UC, sublinhando que “estes distúrbios estão a piorar, de modo significativo, devido à pandemia de covid-19”. Torna-se assim “urgente encontrar soluções”, sustenta.

“Sabe-se que indivíduos sujeitos a ‘stress’ de forma crónica têm maior probabilidade de sofrer alterações nas suas capacidades cognitivas, mas não se conhece as bases moleculares desta associação”, explica, citado pela UC, Paulo Pinheiro, responsável pelo projeto.

Desta forma, esclarece o investigador do CNC, pretende-se estudar “a função de uma molécula reguladora da expressão de genes – o miR-186-5p – que se sabe estar aumentada no cérebro em situações de ‘stress’ crónico, e que regula processos celulares e moleculares envolvidos na aprendizagem e memória”.

Os investigadores adiantam que vão “testar a hipótese de que ao normalizar os níveis do miR-186-5p seja possível contrariar os efeitos negativos do ‘stress’ crónico na cognição”.

Assim, o principal objetivo deste projeto, intitulado “Regulação da função sináptica e do comportamento dependente do córtex pré-frontal pelo microRNA-186-5p induzido por ‘stress’ crónico”, é perceber como é que os níveis do miR-186-5p variam no córtex pré-frontal em resposta ao stress crónico, e qual o impacto desta regulação na função neuronal e nos comportamentos dependentes desta região cerebral.

Adicionalmente, os investigadores pretendem perceber se a regulação do miR-186-5p é distinta entre sexos, o que poderá ajudar a explicar diferentes suscetibilidades aos efeitos nefastos do ‘stress’ crónico.

Com a duração de três anos, este estudo poderá levar à identificação de novos alvos terapêuticos para mitigar os efeitos do ‘stress’ crónico e melhorar a saúde mental.

Para além do coordenador do projeto, Paulo Pinheiro, também integram a equipa Ana Luísa Carvalho, líder do grupo de Biologia da Sinapse do CNC e do Departamento de Ciências da Vida (DCV) da Faculdade de Ciências e Tecnologia da UC, Ângela Inácio, Beatriz Rodrigues, Lino Ferreira, Mariline Silva, Miguel Lino, Sandra Santos, investigadores do CNC, e Jorge Valero, investigador do Achucarro – Basque Center for Neuroscience (Espanha).

Nesta edição de 2021, o CaixaResearch de Investigação na Saúde atribuiu um financiamento total de 22,1 milhões de euros aos 30 projetos selecionados.

Dos 644 projetos apresentados a concurso, 195 foram submetidos por instituições portuguesas, tendo sido financiados 12 com uma verba global de 7,9 milhões de euros.

CIÊNCIA & TECNOLOGIA

INTELIGÊNCIA ARTIFICIAL: ESPECIALISTAS ALERTAM PARA FALTA DE CONTROLO E REGULAÇÃO

Os principais especialistas mundiais em Inteligência Artificial (IA) alertaram hoje para a falta de regulação e controlo da tecnologia e pediram aos líderes mundiais uma maior intervenção, sob pena de um “risco catastrófico” para a humanidade.

Online há

em

Os principais especialistas mundiais em Inteligência Artificial (IA) alertaram hoje para a falta de regulação e controlo da tecnologia e pediram aos líderes mundiais uma maior intervenção, sob pena de um “risco catastrófico” para a humanidade.

“A cibercriminalidade em grande escala, a manipulação social e outros danos podem aumentar rapidamente” e, em “caso de conflito aberto, os sistemas de IA poderiam utilizar de forma autónoma uma série de armas, incluindo armas biológicas”, acrescentam, admitindo uma “possibilidade muito real de que o avanço incontrolado da IA possa culminar numa perda de vidas e da biosfera em grande escala e na marginalização ou extinção da humanidade”, afirmam 25 autores de renome em IA, num documento hoje publicado na revista Science.

Os autores salientam que “é imperativo que os líderes mundiais levem a sério a possibilidade de sistemas de IA generalistas altamente potentes – que superem as capacidades humanas em muitos domínios críticos – virem a ser desenvolvidos na presente década ou na próxima” e as “tentativas para introduzir orientações iniciais” não estão a ser suficientes.

Falta de investigação sobre segurança nos sistemas é uma das principais preocupações dos peritos, que estimam em menos de 3% as publicações cientificas sobre o tema, a que se soma a ausência de “mecanismos para prevenir a utilização indevida e a imprudência, nomeadamente no que respeita à utilização de sistemas autónomos capazes de agir de forma independente”, referem os autores, uma lista que inclui galardoados Nobel, investigadores e vencedores do Prémio Turing.

No documento, intitulado “Gerir riscos extremos de IA no meio do rápido progresso”, os subscritores recomendam aos governos que “criem instituições especializadas e de ação rápida para a supervisão”, com um financiamento robusto, “exigência de avaliações de risco muito mais rigorosas e com consequências obrigatórias” e que as empresas “deem prioridade à segurança e demonstrem que os seus sistemas não podem causar danos”.

Nos casos dos sistemas de IA mais potentes, os autores defendem que os “governos devem estar preparados para assumir a liderança na regulamentação”, incluindo o licenciamento, “a restrição da sua autonomia em funções sociais fundamentais, a interrupção do seu desenvolvimento e implantação em resposta a capacidades preocupantes”, entre outras matérias.

Para os subscritores do documento, os riscos da IA são “catastróficos”, porque a tecnologia “já está a progredir rapidamente em domínios críticos como a pirataria informática, a manipulação social e o planeamento estratégico, e poderá em breve colocar desafios de controlo sem precedentes”.

Segundo Stuart Russell, da Universidade de Berkeley, este documento de consenso “apela para uma regulamentação rigorosa por parte dos governos e não códigos de conduta voluntários redigidos pela indústria”, porque os sistemas avançados de IA “não são brinquedos”.

“Aumentar as suas capacidades antes de sabermos como os tornar seguros é absolutamente imprudente. As empresas queixar-se-ão de que é demasiado difícil satisfazer os regulamentos – que ‘a regulamentação sufoca a inovação’”, disse, acrescentando que “há mais regulamentos para as lojas de sandes do que para as empresas de IA”.

Para Philip Torr, da Universidade de Oxford, se existir cuidado, “os benefícios da IA superarão as desvantagens”, mas sem essa preocupação, existe o “risco de um futuro orwelliano com uma forma de estado totalitário que tenha controlo total” da humanidade.

Outro dos autores, o historiador Yuval Noah Harari, recorda que, com esta tecnologia, “a humanidade está a criar algo mais poderoso do que ela própria, que pode escapar ao controlo do ser humano”.

LER MAIS

CIÊNCIA & TECNOLOGIA

DESINFORMAÇÃO “ESTÁ MUITO PRESENTE NO AMBIENTE ONLINE”

A responsável pelas políticas públicas e assuntos governamentais do TikTok Portugal e Espanha afirma, em entrevista à Lusa, que a desinformação “está muito presente no ambiente ‘online’” e, por isso, a rede social tem de investir no seu combate.

Online há

em

A responsável pelas políticas públicas e assuntos governamentais do TikTok Portugal e Espanha afirma, em entrevista à Lusa, que a desinformação “está muito presente no ambiente ‘online’” e, por isso, a rede social tem de investir no seu combate.

“A desinformação está muito presente no ambiente ‘online’, achamos que é algo que temos de investir e é por isso que confiamos nos ‘fact-checkers’ com parceiros locais”, diz Yasmina Laraudogoitia.

A responsável esteve em Portugal para participar no 33.º Congresso da APDC.

Atualmente, a rede social conta com “3,3 milhões de utilizadores mensalmente ativos” em Portugal.

Em Portugal, a rede social trabalha com o Polígrafo, considerando esta parceria “imensamente útil”.

“Temos colaborado com eles, digamos, de forma consistente e constantemente”, prossegue, apontando que no caso das eleições portuguesas, decorridas em 10 de março, trabalharam este evento específico com o Polígrafo.

“Temos um fluxo de trabalho específico com o Polígrafo e agora com as eleições europeias também”, acrescenta Yasmina Laraudogoitia.

“É muito importante recolhermos informações de especialistas”, sublinha a responsável.

Yasmina Laraudogoitia explica também como o TikTok usa o sistema de moderação.

“Treinamos o nosso sistema de moderadores, as nossas equipas de moderação são treinadas especificamente em desinformação graças a esta parceria e desta forma podemos saber que tipo de informação é mais popular e, assim por diante”, e depois é utilizada também a inteligência artificial (IA).

Nos conteúdos gerados por IA pode haver informação enganosa e prejudicial e daí advir desinformação.

“Na verdade somos a primeira plataforma que inclui uma ferramenta para que os criadores de conteúdo possam rotular” se houve manipulação.

Ou seja, “se eles fizerem um vídeo que é manipulado com IA, que é gerado com IA, eles podem ser capacitados e informar a comunidade. E isso está a ser feito com inteligência artificial, explica.

E agora “estamos a colaborar com a Coalition for Provenance and Authenticity”, acrescenta.

O que é que isso quer dizer? “O nosso sistema de moderação será mais eficiente na deteção de conteúdo gerado por IA e, desta forma, poderemos moderar melhor e poderemos ser mais eficientes em termos de também combater a desinformação”, explica.

O TikTok usa a IA para o sistema de recomendação para fornecer a melhor experiência, o melhor conteúdo para cada utilizador e para a moderação também.

“Implementámos os protocolos de conteúdos e com isso somos mais capazes de identificar conteúdos gerados”, diz.

Com os conteúdos gerados por IA, a TikTok pretende fornecer mais transparência aos utilizadores e também ser mais eficiente em termos de moderação de conteúdo, como também capacitar a comunidade.

Em suma, “transparência e empoderamento”, remata.

Em termos de fornecimento de contexto, “temos 40.000 profissionais em todo o mundo” no combate à desinformação, diz, e 173 moderadores para conteúdo específico.

Mas este número vai se alterando conforme o conteúdo evolui.

LER MAIS
Subscrever Canal WhatsApp
RÁDIO ONLINE
ASSOCIAÇÃO SALVADOR, HÁ 20 ANOS A TIRAR SONHOS DO PAPEL

LINHA CANCRO
DESPORTO DIRETO

RÁDIO REGIONAL NACIONAL: SD | HD



RÁDIO REGIONAL VILA REAL


RÁDIO REGIONAL CHAVES


RÁDIO REGIONAL BRAGANÇA


RÁDIO REGIONAL MIRANDELA


MUSICBOX

WEBRADIO 100% PORTUGAL


WEBRADIO 100% POPULAR


WEBRADIO 100% LOVE SONGS


WEBRADIO 100% BRASIL


WEBRADIO 100% OLDIES


WEBRADIO 100% ROCK


WEBRADIO 100% DANCE


WEBRADIO 100% INSPIRATION

KEYWORDS

FABIO NEURAL @ ENCODING


NARCÓTICOS ANÓNIMOS
PAGAMENTO PONTUAL


MAIS LIDAS