Ligue-se a nós

CIÊNCIA & TECNOLOGIA

DOENÇAS NEUROLÓGICAS PODERÃO SER TRATADAS DIRETAMENTE NO CÉREBRO

Investigadores do Instituto de Investigação e Inovação em Saúde integram um projeto financiado em mais de 16 milhões de euros que pretende desenvolver metodologias para tratar doenças neurológicas associadas à perda de neurónios intervindo diretamente no cérebro dos doentes.

Online há

em

Investigadores do Instituto de Investigação e Inovação em Saúde integram um projeto financiado em mais de 16 milhões de euros que pretende desenvolver metodologias para tratar doenças neurológicas associadas à perda de neurónios intervindo diretamente no cérebro dos doentes.

O projeto, que integra 20 grupos de investigação canadianos e quatro grupos europeus, visa “desenvolver metodologias para tratar certo tipo de doenças neurológicas associadas à perda de neurónios, intervindo diretamente no cérebro dos doentes, mais especificamente no local onde se verificou a lesão“, adianta esta sexta-feira, em comunicado, o instituto da Universidade do Porto (i3S).

Apesar de ainda não existir cura para os distúrbios neurológicos associados à perda ou disfunção neuronal, o i3S destaca que a reprogramação neuronal direta [metodologia assente na conversão de outras células em neurónios] é “cada vez mais encarada como uma estratégia promissora para reparar o cérebro em situações patológicas associadas à perda de neurónios”, como no caso das doenças neurodegenerativas ou acidentes vasculares cerebrais.

“Na base desta ideia estão resultados encorajadores de experiências desenvolvidas em células em cultura, e que usam proteínas, chamadas fatores de transcrição, para ligar e desligar genes que dão às células características de neurónios”, assinala.

No decorrer do projeto, que tem a duração de seis anos, os investigadores vão procurar “efetuar a reprogramação neuronal diretamente no cérebro“, mas, para que tal seja possível, é preciso “ultrapassar algumas barreiras”.

Com recurso a modelos animais, os investigadores vão tentar identificar o “conjunto de fatores de transcrição ideal para obter determinados tipos de neurónios, “desenvolver metodologias para colocar os fatores dentro das células cerebrais que tencionam reprogramar e encontrar formas de avaliar o sucesso da reprogramação neuronal”, através de técnicas de imagiologia do funcionamento cerebral.

“O objetivo a longo prazo é conceber aplicações clínicas para reprogramação neuronal diretamente no cérebro dos pacientes, mais especificamente na zona onde houver perda de neurónios, gerando novos neurónios a partir de células residentes do cérebro adulto, nomeadamente os astrócitos”, esclarece, citado no comunicado, o investigador Diogo Castro, coordenador da equipa do i3S que integra o projeto.

Ainda que esse seja o objetivo, é necessário, inicialmente, fazer uma “prova de conceito em modelos pré-clínicos”.

“Os astrócitos, pela sua plasticidade, abundância e localização, são o candidato ideal para este efeito, já que podem ser convertidos em neurónios com relativa facilidade e se encontram disseminados por todo o órgão”, acrescenta Diogo Castro, líder do grupo Stem Cells & Neurogenesis do i3S, que tem vindo a desvendar como funcionam os fatores de transcrição envolvidos na geração dos neurónios durante o desenvolvimento embrionário.

Neste consórcio, os investigadores do i3S vão ajudar no mapeamento dos locais de ligação dos fatores de transcrição ao genoma dos astrócitos durante a reprogramação neuronal.

Coordenado pelo Sunnybrook Research Institute (Canadá), o projeto foi financiado com mais de 16 milhões de euros pelas três agências governamentais canadianas para a investigação: Canadian Institutes of Health Research (CIHR), Natural Sciences and Engineering Research Council (NSERC) and Social Sciences and Humanities Research Council (SSHRC).

A equipa do i3S irá receber cerca de 750 mil euros.

CIÊNCIA & TECNOLOGIA

INTELIGÊNCIA ARTIFICIAL: ESPECIALISTAS ALERTAM PARA FALTA DE CONTROLO E REGULAÇÃO

Os principais especialistas mundiais em Inteligência Artificial (IA) alertaram hoje para a falta de regulação e controlo da tecnologia e pediram aos líderes mundiais uma maior intervenção, sob pena de um “risco catastrófico” para a humanidade.

Online há

em

Os principais especialistas mundiais em Inteligência Artificial (IA) alertaram hoje para a falta de regulação e controlo da tecnologia e pediram aos líderes mundiais uma maior intervenção, sob pena de um “risco catastrófico” para a humanidade.

“A cibercriminalidade em grande escala, a manipulação social e outros danos podem aumentar rapidamente” e, em “caso de conflito aberto, os sistemas de IA poderiam utilizar de forma autónoma uma série de armas, incluindo armas biológicas”, acrescentam, admitindo uma “possibilidade muito real de que o avanço incontrolado da IA possa culminar numa perda de vidas e da biosfera em grande escala e na marginalização ou extinção da humanidade”, afirmam 25 autores de renome em IA, num documento hoje publicado na revista Science.

Os autores salientam que “é imperativo que os líderes mundiais levem a sério a possibilidade de sistemas de IA generalistas altamente potentes – que superem as capacidades humanas em muitos domínios críticos – virem a ser desenvolvidos na presente década ou na próxima” e as “tentativas para introduzir orientações iniciais” não estão a ser suficientes.

Falta de investigação sobre segurança nos sistemas é uma das principais preocupações dos peritos, que estimam em menos de 3% as publicações cientificas sobre o tema, a que se soma a ausência de “mecanismos para prevenir a utilização indevida e a imprudência, nomeadamente no que respeita à utilização de sistemas autónomos capazes de agir de forma independente”, referem os autores, uma lista que inclui galardoados Nobel, investigadores e vencedores do Prémio Turing.

No documento, intitulado “Gerir riscos extremos de IA no meio do rápido progresso”, os subscritores recomendam aos governos que “criem instituições especializadas e de ação rápida para a supervisão”, com um financiamento robusto, “exigência de avaliações de risco muito mais rigorosas e com consequências obrigatórias” e que as empresas “deem prioridade à segurança e demonstrem que os seus sistemas não podem causar danos”.

Nos casos dos sistemas de IA mais potentes, os autores defendem que os “governos devem estar preparados para assumir a liderança na regulamentação”, incluindo o licenciamento, “a restrição da sua autonomia em funções sociais fundamentais, a interrupção do seu desenvolvimento e implantação em resposta a capacidades preocupantes”, entre outras matérias.

Para os subscritores do documento, os riscos da IA são “catastróficos”, porque a tecnologia “já está a progredir rapidamente em domínios críticos como a pirataria informática, a manipulação social e o planeamento estratégico, e poderá em breve colocar desafios de controlo sem precedentes”.

Segundo Stuart Russell, da Universidade de Berkeley, este documento de consenso “apela para uma regulamentação rigorosa por parte dos governos e não códigos de conduta voluntários redigidos pela indústria”, porque os sistemas avançados de IA “não são brinquedos”.

“Aumentar as suas capacidades antes de sabermos como os tornar seguros é absolutamente imprudente. As empresas queixar-se-ão de que é demasiado difícil satisfazer os regulamentos – que ‘a regulamentação sufoca a inovação’”, disse, acrescentando que “há mais regulamentos para as lojas de sandes do que para as empresas de IA”.

Para Philip Torr, da Universidade de Oxford, se existir cuidado, “os benefícios da IA superarão as desvantagens”, mas sem essa preocupação, existe o “risco de um futuro orwelliano com uma forma de estado totalitário que tenha controlo total” da humanidade.

Outro dos autores, o historiador Yuval Noah Harari, recorda que, com esta tecnologia, “a humanidade está a criar algo mais poderoso do que ela própria, que pode escapar ao controlo do ser humano”.

LER MAIS

CIÊNCIA & TECNOLOGIA

DESINFORMAÇÃO “ESTÁ MUITO PRESENTE NO AMBIENTE ONLINE”

A responsável pelas políticas públicas e assuntos governamentais do TikTok Portugal e Espanha afirma, em entrevista à Lusa, que a desinformação “está muito presente no ambiente ‘online’” e, por isso, a rede social tem de investir no seu combate.

Online há

em

A responsável pelas políticas públicas e assuntos governamentais do TikTok Portugal e Espanha afirma, em entrevista à Lusa, que a desinformação “está muito presente no ambiente ‘online’” e, por isso, a rede social tem de investir no seu combate.

“A desinformação está muito presente no ambiente ‘online’, achamos que é algo que temos de investir e é por isso que confiamos nos ‘fact-checkers’ com parceiros locais”, diz Yasmina Laraudogoitia.

A responsável esteve em Portugal para participar no 33.º Congresso da APDC.

Atualmente, a rede social conta com “3,3 milhões de utilizadores mensalmente ativos” em Portugal.

Em Portugal, a rede social trabalha com o Polígrafo, considerando esta parceria “imensamente útil”.

“Temos colaborado com eles, digamos, de forma consistente e constantemente”, prossegue, apontando que no caso das eleições portuguesas, decorridas em 10 de março, trabalharam este evento específico com o Polígrafo.

“Temos um fluxo de trabalho específico com o Polígrafo e agora com as eleições europeias também”, acrescenta Yasmina Laraudogoitia.

“É muito importante recolhermos informações de especialistas”, sublinha a responsável.

Yasmina Laraudogoitia explica também como o TikTok usa o sistema de moderação.

“Treinamos o nosso sistema de moderadores, as nossas equipas de moderação são treinadas especificamente em desinformação graças a esta parceria e desta forma podemos saber que tipo de informação é mais popular e, assim por diante”, e depois é utilizada também a inteligência artificial (IA).

Nos conteúdos gerados por IA pode haver informação enganosa e prejudicial e daí advir desinformação.

“Na verdade somos a primeira plataforma que inclui uma ferramenta para que os criadores de conteúdo possam rotular” se houve manipulação.

Ou seja, “se eles fizerem um vídeo que é manipulado com IA, que é gerado com IA, eles podem ser capacitados e informar a comunidade. E isso está a ser feito com inteligência artificial, explica.

E agora “estamos a colaborar com a Coalition for Provenance and Authenticity”, acrescenta.

O que é que isso quer dizer? “O nosso sistema de moderação será mais eficiente na deteção de conteúdo gerado por IA e, desta forma, poderemos moderar melhor e poderemos ser mais eficientes em termos de também combater a desinformação”, explica.

O TikTok usa a IA para o sistema de recomendação para fornecer a melhor experiência, o melhor conteúdo para cada utilizador e para a moderação também.

“Implementámos os protocolos de conteúdos e com isso somos mais capazes de identificar conteúdos gerados”, diz.

Com os conteúdos gerados por IA, a TikTok pretende fornecer mais transparência aos utilizadores e também ser mais eficiente em termos de moderação de conteúdo, como também capacitar a comunidade.

Em suma, “transparência e empoderamento”, remata.

Em termos de fornecimento de contexto, “temos 40.000 profissionais em todo o mundo” no combate à desinformação, diz, e 173 moderadores para conteúdo específico.

Mas este número vai se alterando conforme o conteúdo evolui.

LER MAIS
Subscrever Canal WhatsApp
RÁDIO ONLINE
ASSOCIAÇÃO SALVADOR, HÁ 20 ANOS A TIRAR SONHOS DO PAPEL

LINHA CANCRO
DESPORTO DIRETO

RÁDIO REGIONAL NACIONAL: SD | HD



RÁDIO REGIONAL VILA REAL


RÁDIO REGIONAL CHAVES


RÁDIO REGIONAL BRAGANÇA


RÁDIO REGIONAL MIRANDELA


MUSICBOX

WEBRADIO 100% PORTUGAL


WEBRADIO 100% POPULAR


WEBRADIO 100% LOVE SONGS


WEBRADIO 100% BRASIL


WEBRADIO 100% OLDIES


WEBRADIO 100% ROCK


WEBRADIO 100% DANCE


WEBRADIO 100% INSPIRATION

KEYWORDS

FABIO NEURAL @ ENCODING


NARCÓTICOS ANÓNIMOS
PAGAMENTO PONTUAL


MAIS LIDAS