Clear Sky Science · pt

Um método de detecção de fadiga baseado na análise da postura do motorista e do estado facial

· Voltar ao índice

Por que motoristas cansados importam para todos

Muitos de nós já sentimos as pálpebras pesarem numa viagem longa, mas poucos percebem com que frequência esse momento de sonolência termina em acidente. Este artigo descreve um sistema baseado em câmera que observa o rosto, a postura e as mãos do motorista para identificar sinais precoces de fadiga e emitir alertas no momento certo, sem precisar prender sensores ao corpo nem alterar a forma de dirigir.

Vendo o motorista, não apenas o carro

Agências de trânsito estimam que a fadiga contribui para uma grande parte dos acidentes graves no mundo. Sistemas de alerta tradicionais têm se concentrado em sinais do próprio veículo, como correções de direção ou saídas de faixa, ou em sensores de tipo médico que monitoram atividade cerebral ou cardíaca. Esses métodos podem ser caros, desconfortáveis ou pouco confiáveis quando motoristas ou condições viárias variam. O estudo, em vez disso, se apoia em vídeo comum de pequenas câmeras dentro do carro para interpretar diretamente o comportamento do motorista, usando inteligência artificial moderna para analisar o que é visto.

Figure 1. Câmeras dentro do carro monitoram a postura, o rosto e as mãos do motorista para identificar sonolência e acionar um alerta de segurança.
Figure 1. Câmeras dentro do carro monitoram a postura, o rosto e as mãos do motorista para identificar sonolência e acionar um alerta de segurança.

Lendo olhos, boca, cabeça e mãos

Os pesquisadores primeiro descrevem em termos cotidianos como é a condução cansada. Sinais de alerta incluem piscadas mais lentas e longas, bocejos repetidos, cabeça caída ou inclinada e mãos escorregando do volante. Usando um método de estimação de pose chamado AlphaPose, o sistema acompanha 119 pontos-chave no corpo do motorista, especialmente ao redor dos olhos, da boca, da cabeça e dos punhos. A partir desses pontos calcula medidas simples, como a largura de abertura dos olhos e da boca e o quanto a cabeça se inclinou ou caiu em relação ao pescoço e aos olhos. Também verifica se cada punho se mantém próximo ao volante ao longo do tempo ou se afasta, sugerindo que o motorista não está mais firmemente no controle.

Vendo de vários ângulos ao longo do tempo

Como uma única foto pode induzir em erro, o sistema analisa pequenos trechos de vídeo em vez de quadros isolados. Por exemplo, um piscar normal poderia se assemelhar a um fechamento de olhos por sonolência, e um olhar rápido ao painel pode parecer um cochilar se visto isoladamente. Para evitar esses equívocos, o método analisa mudanças em pelo menos 20 quadros consecutivos, verificando se as pistas de fadiga persistem. Ele também utiliza três vistas de câmera coletadas no Driving Monitoring Dataset: uma vista frontal do rosto, uma vista lateral da parte superior do corpo e uma vista próxima das mãos. Juntas, essas perspectivas tornam o sistema mais robusto quando o rosto está parcialmente oculto por óculos, luz solar intensa, desfoque por movimento ou viradas da cabeça.

Figure 2. Mudanças passo a passo nos olhos, na inclinação da cabeça e na firmeza das mãos ao longo do tempo revelam quando o motorista passa de alerta para sonolento.
Figure 2. Mudanças passo a passo nos olhos, na inclinação da cabeça e na firmeza das mãos ao longo do tempo revelam quando o motorista passa de alerta para sonolento.

Detecção mais inteligente nos bastidores

Nos bastidores, o sistema tem duas partes principais. Primeiro, um detector de objetos rápido chamado YOLOv11n* localiza o motorista em cada quadro para que o AlphaPose possa marcar os pontos-chave do corpo com precisão. Os autores melhoram esse detector com um bloco híbrido de pooling especial que ajuda a rede a compreender tanto o contexto amplo quanto detalhes finos, como olhos e dedos. Em seguida, as posições e as pontuações de confiança de todos os pontos acompanhados são alimentadas em uma rede LSTM (Long Short-Term Memory), um tipo de modelo adequado para sequências. A LSTM aprende como combinações de mudanças nos olhos, boca, cabeça e mãos se desenrolam ao longo do tempo quando um motorista está alerta, levemente cansado ou gravemente fatigado, e produz a probabilidade de cada nível de fadiga para a janela de tempo atual.

Quão bem o sistema funciona na prática

A equipe testou sua abordagem em um grande conjunto de dados públicos de vídeos dentro do carro, treinando e avaliando os modelos em milhares de imagens e trechos rotulados. Em comparação com vários métodos de aprendizado profundo líderes, incluindo outras combinações de redes convolucionais, transformadores e LSTMs, a estrutura proposta AlphaPose*–LSTM alcançou as maiores acurácia, precisão e F1-score relatadas para classificar níveis de fadiga. Também rodou rápido o suficiente para uso quase em tempo real: uma vez processados os primeiros 20 quadros, novas estimativas de fadiga podem ser atualizadas aproximadamente a cada 48 milissegundos, o que é adequado para monitoramento contínuo em veículos em movimento.

O que isso significa para a condução cotidiana

Em termos simples, o estudo mostra que um carro pode usar câmeras e software inteligente para detectar sinais indicativos de um motorista cansado, combinando pequenas mudanças nos olhos, na boca, na cabeça e nas mãos em um retrato confiável de alerta. Embora o sistema atual esteja ajustado para condições diurnas e precise de adaptação para a noite ou outros ambientes, os resultados sugerem que o monitoramento não intrusivo baseado em visão pode se tornar um recurso de segurança prático. Ao reconhecer a fadiga cedo e incentivar o motorista a fazer uma pausa, essa tecnologia pode ajudar a prevenir muitos acidentes que hoje ocorrem simplesmente porque alguém estava cansado demais para ficar totalmente acordado ao volante.

Citação: Hao, Y., Sun, X., Liu, H. et al. A fatigue driving detection method based on driver posture and facial state analysis. Sci Rep 16, 15159 (2026). https://doi.org/10.1038/s41598-026-44994-4

Palavras-chave: fadiga do motorista, condução sonolenta, monitoramento do motorista, visão computacional, segurança viária