Apple quer usar IA para ouvir seu coração com AirPods

Apple quer usar IA para ouvir seu coração com AirPods
Imagem destaque: ChatGPT

A equipe de pesquisa da Apple publicou um estudo que mostra que modelos de inteligência artificial (IA) treinados para outros fins podem estimar a frequência cardíaca a partir de gravações de estetoscópio.

O estudo testou seis modelos fundacionais populares, treinados com dados de áudio ou fala, para verificar se suas representações internas desses sons poderiam ser aproveitadas para estimar os batimentos cardíacos em gravações conhecidas como fonocardiogramas, registros sonoros dos batimentos do coração captados por um estetoscópio.

Mesmo sem terem sido projetados para dados médicos, os modelos mostraram bom desempenho, comparável a técnicas tradicionais que usam recursos de áudio elaborados manualmente.

Mas o destaque foi o modelo interno da Apple, uma versão do CLAP (Contrastive Language-Audio Pretraining), treinado com 3 milhões de amostras de áudio. Esse modelo superou os demais em diversos testes comparativos.

Como foi o experimento

A equipe da Apple utilizou um banco de dados público com 20 horas de gravações reais de batimentos, feitas em hospitais e anotadas por especialistas. As gravações foram divididas em trechos de cinco segundos, com avanço de um segundo, totalizando 23 mil clipes de áudio. A IA, então, foi treinada para classificar a frequência cardíaca em batimentos por minuto.

Segundo o estudo, modelos maiores nem sempre foram os melhores. Camadas mais profundas, mais otimizadas para linguagem, se mostraram menos úteis, enquanto representações de camadas intermediárias ou superficiais forneceram melhores resultados.

Implicações e futuro

A pesquisa destaca que a combinação de técnicas clássicas de processamento de sinais com IA moderna gera estimativas mais confiáveis de batimentos. Quando um método falha, o outro compensa, capturando aspectos diferentes do som.

O estudo também delineia planos para o futuro: criar modelos mais leves para dispositivos com baixa potência, ajustar modelos para o domínio da saúde, analisar outros sons corporais e explorar métodos de simplificação de redes neurais.

Embora o estudo não traga promessas comerciais, ele mostra o caminho para que iPhones, Apple Watches e AirPods possam, um dia, monitorar sinais vitais de forma passiva. Afinal, quem já ouviu os próprios batimentos ao usar AirPods sabe do potencial embutido nesses dispositivos.

Leia mais: Consumo de energia da inteligência artificial pode superar o do Bitcoin em 2025

Deixe seu comentário: