Audiologia computacional

Origem: Wikipédia, a enciclopédia livre.

Audiologia computacional é um ramo da Audiologia que emprega técnicas da matemática e informática para aprimorar o tratamento clínico e o entendimento científico do sistema auditivo.[1] A audiologia computacional está intimamente relacionada à medicina computacional, que usa modelos quantitativos para desenvolver métodos aprimorados para diagnóstico e tratamento de doenças em geral.[2]

Visão geral[editar | editar código-fonte]

Em contraste com os métodos tradicionais em audiologia, a audiologia computacional enfatiza a modelagem preditiva e a análise em larga escala ("big data") em vez de estatísticas inferenciais e testes de hipóteses de pequena coorte. O objetivo da audiologia computacional é traduzir os avanços em ciência de dados, tecnologia da informação e aprendizado de máquina para cuidados na audiologia clínica. Pesquisas para entender a função auditiva e o processamento auditivo nos ser humano, bem como em animais, representam um exemplo da atuação da audiologia computacional. A investigação e o desenvolvimento de pesquisas para implementação de diagnósticos e tratamentos mais eficazes representam uma perspectiva translacional desse objetivo.[3]

Para pessoas com dificuldades auditivas, zumbido, hiperacusia ou problemas de equilíbrio, esses avanços podem levar a diagnósticos mais precisos, novas terapias e opções avançadas de reabilitação, incluindo próteses inteligentes e aplicativos e-Health/mHealth. Para os profissionais, fornecer conhecimentos e ferramentas acionáveis para automatizar parte do percurso clínico.[4]

O campo da audiologia computacional é interdisciplinar e inclui fundamentos em audiologia, neurociência, ciência da computação, ciência de dados, aprendizado de máquina, psicologia, processamento de sinais, processamento de linguagem natural e vestibulometria.

Aplicação[editar | editar código-fonte]

Na audiologia computacional, modelos e algoritmos são usados para entender os princípios que regem o sistema auditivo, rastrear perdas auditivas, diagnosticar distúrbios auditivos, fornecer reabilitação, gerar simulações para educação do paciente, entre outros.

Modelos computacionais de audição, fala e percepção auditiva[editar | editar código-fonte]

Durante décadas, modelos fenomenológicos e biofísicos (computacionais) foram desenvolvidos para simular características do sistema auditivo humano. Exemplos incluem modelos das propriedades mecânicas da membrana basilar,[5] a cóclea estimulada eletricamente,[6][7] mecânica da orelha médio,[8] condução óssea,[9] e a via auditiva central.[10] Saremi et al. (2016) comparou 7 modelos contemporâneos, incluindo bancos de filtros paralelos, bancos de filtros em cascata, linhas de transmissão e modelos biofísicos.[11] Mais recentemente, foram construídas e treinadas redes neurais convolucionais (CNNs) que podem replicar a função auditiva humana[12] ou reproduzir mecânicas cocleares complexas com alta precisão.[13] Embora inspirada na interconectividade das redes neurais biológicas, a arquitetura das CNNs é distinta da organização do sistema auditivo.

Serviços de saúde auditiva conectados, sem fio e baseados na Internet[editar | editar código-fonte]

Testes on-line de audiometria (ou triagem), medidas eletrofisiológicas, por exemplo, emissões otoacústicas e testes de triagem de fala no ruído estão se tornando cada vez mais disponíveis como ferramentas para promover a conscientização e permitir a identificação precoce precisa da perda auditiva em todas as idades, monitorar os efeitos da ototoxicidade e/ou ruído e orientar as decisões de cuidados auditivos e auditivos e dar suporte aos profissionais.[14][15] Testes baseados em smartphones foram propostos para detectar fluido na orelha média usando impedanciometria e aprendizado de máquina.[16] Os acessórios do smartphone também foram projetados para realizar timpanometria para avaliação acústica do tímpano da orelha média.[17][18] Fones de ouvido de baixo custo conectados a smartphones também foram prototipados para detectar as fracas emissões otoacústicas da cóclea e realizar a triagem auditiva neonatal.[19][20]

Big data e inteligência artificial em audiologia e saúde auditiva[editar | editar código-fonte]

A coleta de um grande número de dados de audiogramas (por exemplo, os bancos de dados NIOSH[21] ou NHANES) oferece aos pesquisadores oportunidades para encontrar padrões de configuração auditiva na população[22][23] ou para treinar sistemas inteligência artificial (IA) que podem classificar audiogramas.[24] O aprendizado de máquina pode ser usado para prever a relação entre vários fatores, por exemplo, prever a depressão com base na perda auditiva autorrelatada[25] ou a relação entre o perfil genético e a perda auditiva.[26] Os aparelhos auditivos e vestíveis fornecem a opção de monitorar o ambiente sonoro do usuário ou registrar os padrões de uso que podem ser usados para recomendar automaticamente as configurações que devem beneficiar o usuário.[27]

Abordagens computacionais para melhorar aparelhos e implantes auditivos[editar | editar código-fonte]

Os métodos para melhorar a reabilitação por implantes auditivos incluem a melhoria da percepção musical,[28] modelos da interface eletrodo-neurônio,[29] e um assistente de adaptação de implante coclear baseado em IA.[30]

Investigações baseadas em dados sobre perda auditiva e zumbido[editar | editar código-fonte]

Pesquisas online processadas com classificação baseada em aprendizado de máquina são usadas para diagnosticar o zumbido somatossensorial.[31] Técnicas automatizadas de processamento de linguagem natural (PLN), aprendizado de máquina não supervisionado e supervisionado são usadas para analisar postagens sociais sobre zumbido e analisar a heterogeneidade dos sintomas.[32][33]

Diagnóstico de alterações auditivas[editar | editar código-fonte]

O aprendizado de máquina foi aplicado à audiometria para criar ferramentas de estimativa flexíveis e eficientes que não exigem tempo de teste excessivo para determinar a configuração auditiva do paciente.[34][35] Da mesma forma, foram criadas versões baseadas em aprendizado de máquina de outros testes auditivos, incluindo a determinação de regiões mortas na cóclea ou contornos de sonoridade igual.[36]

e-Research (teste remoto, experimentos online, novas ferramentas e frameworks)[editar | editar código-fonte]

Exemplos de ferramentas de pesquisa incluem o Remote Testing Wiki,[37] o Portable Automated Rapid Testing (PART)[38], a Ecological Momentary Assessment (EMA) e o medidor de nível sonoro desenvolvido pelo NIOSH. Uma série de ferramentas podem ser encontradas online.[39]

Software e ferramentas[editar | editar código-fonte]

Software e grandes conjuntos de dados são importantes para o desenvolvimento e aplicação da audiologia computacional. Assim como em muitos campos da computação, grande parte da audiologia computacional está relacionada ao uso de software de código aberto e de sua manutenção, desenvolvimento e avanço contínuo.[40]

Campos relacionados[editar | editar código-fonte]

Biologia computacional, medicina computacional, patologia computacional são abordagens interdisciplinares para as ciências da vida que se baseiam em disciplinas quantitativas como matemática e ciência da informação.

Ver também[editar | editar código-fonte]

Referências

  1. «Introduction to Computational Audiology». Computational Audiology (em inglês). Consultado em 23 de setembro de 2023 
  2. Winslow, Raimond L.; Trayanova, Natalia; Geman, Donald; Miller, Michael I. (31 de outubro de 2012). «Computational Medicine: Translating Models to Clinical Care». Science Translational Medicine. 4 (158): 158rv11. PMC 3618897Acessível livremente. PMID 23115356. doi:10.1126/scitranslmed.3003528 
  3. Gannon, Frank (1 de novembro de 2014). «The steps from translatable to translational research». EMBO Reports. 15 (11): 1107–1108. ISSN 1469-221X. PMC 4253482Acessível livremente. PMID 25296643. doi:10.15252/embr.201439587 
  4. Wasmann, Jan-Willem A.; Lanting, Cris P.; Huinck, Wendy J.; Mylanus, Emmanuel A. M.; van der Laak, Jeroen W. M.; Govaerts, Paul J.; Swanepoel, De Wet; Moore, David R.; Barbour, Dennis L. (1 de novembro de 2021). «Computational Audiology: New Approaches to Advance Hearing Health Care in the Digital Age». Ear and Hearing. 42 (6): 1499–1507. PMC 8417156Acessível livremente. PMID 33675587. doi:10.1097/AUD.0000000000001041 
  5. De Boer, Egbert (1996), Dallos, Peter; Popper, Arthur N.; Fay, Richard R., eds., «Mechanics of the Cochlea: Modeling Efforts», ISBN 978-1-4612-6891-8, New York, NY: Springer New York, The Cochlea, Springer Handbook of Auditory Research, 8, pp. 258–317, doi:10.1007/978-1-4612-0757-3_5, consultado em 18 de janeiro de 2022 
  6. Frijns, J. H. M.; de Snoo, S. L.; Schoonhoven, R. (1 de julho de 1995). «Potential distributions and neural excitation patterns in a rotationally symmetric model of the electrically stimulated cochlea». Hearing Research (em inglês). 87 (1): 170–186. ISSN 0378-5955. PMID 8567435. doi:10.1016/0378-5955(95)00090-Q 
  7. Rubinstein, Jay T.; Hong, Robert (2003). «Signal Coding in Cochlear Implants: Exploiting Stochastic Effects of Electrical Stimulation». Annals of Otology, Rhinology & Laryngology. 112 (9_suppl): 14–19. ISSN 0003-4894. PMID 14533839. doi:10.1177/00034894031120s904 
  8. Sun, Q.; Gan, R. Z.; Chang, K.-H.; Dormer, K. J. (1 de outubro de 2002). «Computer-integrated finite element modeling of human middle ear». Biomechanics and Modeling in Mechanobiology (em inglês). 1 (2): 109–122. ISSN 1617-7959. PMID 14595544. doi:10.1007/s10237-002-0014-z 
  9. Stenfelt, Stefan (1 de outubro de 2016). «Model predictions for bone conduction perception in the human». Hearing Research. MEMRO 2015 – Basic Science meets Clinical Otology (em inglês). 340: 135–143. ISSN 0378-5955. PMID 26657096. doi:10.1016/j.heares.2015.10.014 
  10. Meddis, Ray; Lopez-Poveda, Enrique A.; Fay, Richard R.; Popper, Arthur N., eds. (2010). «Computational Models of the Auditory System». Springer Handbook of Auditory Research (em inglês). 35. ISBN 978-1-4419-1370-8. ISSN 0947-2657. doi:10.1007/978-1-4419-5934-8 
  11. Saremi, Amin; Beutelmann, Rainer; Dietz, Mathias; Ashida, Go; Kretzberg, Jutta; Verhulst, Sarah (2016). «A comparative study of seven human cochlear filter models». The Journal of the Acoustical Society of America. 140 (3): 1618–1634. Bibcode:2016ASAJ..140.1618S. ISSN 0001-4966. PMID 27914400. doi:10.1121/1.4960486 
  12. Kell, Alexander J. E.; Yamins, Daniel L. K.; Shook, Erica N.; Norman-Haignere, Sam V.; McDermott, Josh H. (2 de maio de 2018). «A Task-Optimized Neural Network Replicates Human Auditory Behavior, Predicts Brain Responses, and Reveals a Cortical Processing Hierarchy». Neuron (em inglês). 98 (3): 630–644.e16. ISSN 0896-6273. PMID 29681533. doi:10.1016/j.neuron.2018.03.044Acessível livremente 
  13. Baby, Deepak; Van Den Broucke, Arthur; Verhulst, Sarah (2021). «A convolutional neural-network model of human cochlear mechanics and filter tuning for real-time applications». Nature Machine Intelligence (em inglês). 3 (2): 134–143. ISSN 2522-5839. PMC 7116797Acessível livremente. PMID 33629031. doi:10.1038/s42256-020-00286-8 
  14. Paglialonga, Alessia; Cleveland Nielsen, Annette; Ingo, Elisabeth; Barr, Caitlin; Laplante-Lévesque, Ariane (31 de julho de 2018). «eHealth and the hearing aid adult patient journey: a state-of-the-art review». BioMedical Engineering OnLine. 17 (1). 101 páginas. ISSN 1475-925X. PMC 6069792Acessível livremente. PMID 30064497. doi:10.1186/s12938-018-0531-3 
  15. Frisby, Caitlin; Eikelboom, Robert; Mahomed-Asmail, Faheema; Kuper, Hannah; Swanepoel, De Wet (30 de dezembro de 2021). «MHealth Applications for Hearing Loss: A Scoping Review». Telemedicine and e-Health. 28 (8): 1090–1099. ISSN 1530-5627. PMID 34967683. doi:10.1089/tmj.2021.0460 
  16. Chan, Justin; Raju, Sharat; Nandakumar, Rajalakshmi; Bly, Randall; Gollakota, Shyamnath (15 de maio de 2019). «Detecting middle ear fluid using smartphones». Science Translational Medicine (em inglês). 11 (492): eaav1102. ISSN 1946-6234. PMID 31092691. doi:10.1126/scitranslmed.aav1102 
  17. Chan, Justin; Najafi, Ali; Baker, Mallory; Kinsman, Julie; Mancl, Lisa R.; Norton, Susan; Bly, Randall; Gollakota, Shyamnath (16 de junho de 2022). «Performing tympanometry using smartphones». Communications Medicine (em inglês). 2 (1): 57. ISSN 2730-664X. PMC 9203539Acessível livremente. PMID 35721828. doi:10.1038/s43856-022-00120-9 
  18. Community, Nature Portfolio Bioengineering (15 de junho de 2022). «Computing for Audiology: Smartphone tympanometer for diagnosing middle ear disorders». Nature Portfolio Bioengineering Community (em inglês). Consultado em 21 de junho de 2022 
  19. Goodman, Shawn S. (31 de outubro de 2022). «Affordable hearing screening». Nature Biomedical Engineering (em inglês). 6 (11): 1199–1200. ISSN 2157-846X. PMID 36316370. doi:10.1038/s41551-022-00959-2 
  20. Chan, Justin; Ali, Nada; Najafi, Ali; Meehan, Anna; Mancl, Lisa R.; Gallagher, Emily; Bly, Randall; Gollakota, Shyamnath (31 de outubro de 2022). «An off-the-shelf otoacoustic-emission probe for hearing screening via a smartphone». Nature Biomedical Engineering (em inglês). 6 (11): 1203–1213. ISSN 2157-846X. PMC 9717525Acessível livremente. PMID 36316369. doi:10.1038/s41551-022-00947-6 
  21. Masterson, Elizabeth A.; Tak, SangWoo; Themann, Christa L.; Wall, David K.; Groenewold, Matthew R.; Deddens, James A.; Calvert, Geoffrey M. (2013). «Prevalence of hearing loss in the United States by industry». American Journal of Industrial Medicine (em inglês). 56 (6): 670–681. PMID 22767358. doi:10.1002/ajim.22082 
  22. Charih, François; Bromwich, Matthew; Mark, Amy E.; Lefrançois, Renée; Green, James R. (2020). «Data-Driven Audiogram Classification for Mobile Audiometry». Scientific Reports (em inglês). 10 (1). 3962 páginas. Bibcode:2020NatSR..10.3962C. ISSN 2045-2322. PMC 7054524Acessível livremente. PMID 32127604. doi:10.1038/s41598-020-60898-3 
  23. Cox, Marco; de Vries, Bert (2021). «Bayesian Pure-Tone Audiometry Through Active Learning Under Informed Priors». Frontiers in Digital Health. 3: 723348. ISSN 2673-253X. PMC 8521968Acessível livremente. PMID 34713188. doi:10.3389/fdgth.2021.723348Acessível livremente 
  24. Crowson, Matthew G.; Lee, Jong Wook; Hamour, Amr; Mahmood, Rafid; Babier, Aaron; Lin, Vincent; Tucci, Debara L.; Chan, Timothy C. Y. (7 de agosto de 2020). «AutoAudio: Deep Learning for Automatic Audiogram Interpretation». Journal of Medical Systems (em inglês). 44 (9). 163 páginas. ISSN 1573-689X. PMID 32770269. doi:10.1007/s10916-020-01627-1 
  25. Crowson, Matthew G.; Franck, Kevin H.; Rosella, Laura C.; Chan, Timothy C. Y. (2021). «Predicting Depression From Hearing Loss Using Machine Learning». Ear and Hearing (em inglês). 42 (4): 982–989. ISSN 1538-4667. PMID 33577219. doi:10.1097/AUD.0000000000000993 
  26. Wells, Helena RR.; Freidin, Maxim B.; Zainul Abidin, Fatin N.; Payton, Antony; Dawes, Piers; Munro, Kevin J.; Morton, Cynthia C.; Moore, David R.; Dawson, Sally J (14 de fevereiro de 2019). «Genome-wide association study identifies 44 independent genomic loci for self-reported adult hearing difficulty in the UK Biobank cohort». dx.doi.org. doi:10.1101/549071. Consultado em 20 de janeiro de 2022 
  27. Christensen, Jeppe H.; Saunders, Gabrielle H.; Porsbo, Michael; Pontoppidan, Niels H. (2021). «The everyday acoustic environment and its association with human heart rate: evidence from real-world data logging with hearing aids and wearables». Royal Society Open Science. 8 (2). 201345 páginas. Bibcode:2021RSOS....801345C. PMC 8074664Acessível livremente. PMID 33972852. doi:10.1098/rsos.201345 
  28. Tahmasebi, Sina; Gajȩcki, Tom; Nogueira, Waldo (2020). «Design and Evaluation of a Real-Time Audio Source Separation Algorithm to Remix Music for Cochlear Implant Users». Frontiers in Neuroscience. 14: 434. ISSN 1662-453X. PMC 7248365Acessível livremente. PMID 32508564. doi:10.3389/fnins.2020.00434Acessível livremente 
  29. Garcia, Charlotte; Goehring, Tobias; Cosentino, Stefano; Turner, Richard E.; Deeks, John M.; Brochier, Tim; Rughooputh, Taren; Bance, Manohar; Carlyon, Robert P. (1 de outubro de 2021). «The Panoramic ECAP Method: Estimating Patient-Specific Patterns of Current Spread and Neural Health in Cochlear Implant Users». Journal of the Association for Research in Otolaryngology (em inglês). 22 (5): 567–589. ISSN 1438-7573. PMC 8476702Acessível livremente. PMID 33891218. doi:10.1007/s10162-021-00795-2 
  30. Battmer, Rolf-Dieter; Borel, Stephanie; Brendel, Martina; Buchner, Andreas; Cooper, Huw; Fielden, Claire; Gazibegovic, Dzemal; Goetze, Romy; Govaerts, Paul (1 de março de 2015). «Assessment of 'Fitting to Outcomes Expert' FOX™ with new cochlear implant users in a multi-centre study». Cochlear Implants International. 16 (2): 100–109. ISSN 1467-0100. PMID 25118042. doi:10.1179/1754762814Y.0000000093 
  31. Michiels, Sarah; Cardon, Emilie; Gilles, Annick; Goedhart, Hazel; Vesala, Markku; Schlee, Winfried (14 de julho de 2021). «Somatosensory Tinnitus Diagnosis: Diagnostic Value of Existing Criteria». Ear & Hearing. 43 (1): 143–149. ISSN 1538-4667. PMID 34261856. doi:10.1097/aud.0000000000001105 
  32. Palacios, Guillaume; Noreña, Arnaud; Londero, Alain (2020). «Assessing the Heterogeneity of Complaints Related to Tinnitus and Hyperacusis from an Unsupervised Machine Learning Approach: An Exploratory Study». Audiology and Neurotology. 25 (4): 174–189. ISSN 1420-3030. PMID 32062654. doi:10.1159/000504741Acessível livremente 
  33. «What can we learn about tinnitus from social media posts?». Computational Audiology (em inglês). 7 de junho de 2021. Consultado em 20 de janeiro de 2022 
  34. Barbour, Dennis L.; Howard, Rebecca T.; Song, Xinyu D.; Metzger, Nikki; Sukesan, Kiron A.; DiLorenzo, James C.; Snyder, Braham R. D.; Chen, Jeff Y.; Degen, Eleanor A. (2019). «Online Machine Learning Audiometry». Ear & Hearing (em inglês). 40 (4): 918–926. ISSN 0196-0202. PMC 6476703Acessível livremente. PMID 30358656. doi:10.1097/AUD.0000000000000669 
  35. Schlittenlacher, Josef; Turner, Richard E.; Moore, Brian C. J. (1 de julho de 2018). «Audiogram estimation using Bayesian active learning». The Journal of the Acoustical Society of America. 144 (1): 421–430. Bibcode:2018ASAJ..144..421S. ISSN 0001-4966. PMID 30075695. doi:10.1121/1.5047436 
  36. Schlittenlacher, Josef; Moore, Brian C. J. (2020). «Fast estimation of equal-loudness contours using Bayesian active learning and direct scaling». Acoustical Science and Technology. 41 (1): 358–360. doi:10.1250/ast.41.358Acessível livremente 
  37. «PP Remote Testing Wiki | Main / RemoteTesting». www.spatialhearing.org. Consultado em 20 de janeiro de 2022 [ligação inativa] 
  38. «P.A.R.T.». UCR | Brain Game Center (em inglês). Consultado em 6 de março de 2024 
  39. «Resources». Computational Audiology (em inglês). Consultado em 20 de janeiro de 2022 
  40. Fortunato, Laura; Galassi, Mark (17 de maio de 2021). «The case for free and open source software in research and scholarship». Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 379 (2197). 20200079 páginas. Bibcode:2021RSPTA.37900079F. PMID 33775148. doi:10.1098/rsta.2020.0079