Informática de Materiais

Origem: Wikipédia, a enciclopédia livre.
O paradigma dos materiais ilustrados em forma de tetraedro

A informática de materiais é um campo de estudos que aplica os princípios de Informática à Ciência dos Materiais e à engenharia, a fim de contribuir na compreensão, seleção, desenvolvimento e descoberta de novos materiais. Esta é uma área de estudo emergente, que busca agilizar o desenvolvimento, produção e aplicação de novos materiais, principalmente através de métodos vindos da área de Análise de Dados.

Big Data e aprendizado de máquina[editar | editar código-fonte]

A ciência do tratamento de dados (Big Data) é considerada como o “quarto paradigma” da exploração científica, onde os três primeiros são os experimentos, teoria e simulação.[1]

Os bancos de dados são essenciais para qualquer pesquisa em aplicação computacional. Em informática de materiais, existem muitos bancos de dados contendo dados empíricos obtidos experimentalmente e dados teóricos obtidos computacionalmente. Devido à falta de um padrão para relatar dados e a variabilidade no ambiente experimental, é particularmente difícil obter-se dados a fim de montar um banco de dados sólido. Tal falta de um banco de dados levou a um esforço crescente no desenvolvimento de técnicas de aprendizado de máquina que utilizam conjuntos de dados. Por outro lado, existe uma grande base de dados uniforme de cálculos da Teoria do funcional da densidade (DFT). Esses bancos de dados provaram sua utilidade na detecção e triagem de materiais de alto rendimento. Alguns bancos de dados DFT comuns e ferramentas de alto rendimento estão listados abaixo:

  • Banco de dados: MaterialsProject.org, MaterialsWeb.org
  • Softwares: Pymatgen, MPInterfaces

Passos básicos na utilização de aprendizado de máquina na ciência dos materiais[editar | editar código-fonte]

A construção do sistema de aprendizado de máquina na ciência dos materiais é composto por três passos: construção da amostra, construção do modelo e avaliação do modelo.[2]

  • A construção da amostra visa a lapidação dos dados experimentais e/ou computacionais, uma vez que esses dados podem apresentar ruídos ou inconsistências. Esta etapa realiza a limpeza dos dados, a fim de construir uma amostra a partir dos dados originais.
  • A etapa de construção de modelo busca a união entre os dados de entrada e de saída, otimizando o processo por meio de funções lineares ou não lineares. Neste processo ocorre a etapa principal do aprendizado de máquina.
  • Após um modelo ser capaz de interpolar bem os dados com resultados previstos e não previstos, neste último ponto ocorre a avaliação de erros de generalização e a escolha do melhor modelo para os dados.

Utilizar aprendizado de máquina permite realizar-se a predição de propriedades macroscópicas e microscópicas. Em nível macroscópico, é possível predizer propriedades mecânicas e físicas dos materiais com relação a sua microestrutura, como Bertimetto et al avaliaram o desenvolvimento de estruturas hierárquicas para estudos QSPR de pequenas moléculas e polímeros por redes neurais recursivas.[3] Em nível microscópico, as propriedades como estrutura cristalina, parâmetro de rede, energia de banda etc podem ser exploradas como Majid et al desenvolveram, em uma pesquisa com aprendizado de máquina, para determinar o parâmetro de rede de peroviskitas cúbicas complexas.[4]

Descrição de propriedades de materiais[editar | editar código-fonte]

Propriedades eletrônicas[editar | editar código-fonte]

Propriedades eletrônicas como o gap de energia e a condutividade elétrica são de extrema importância para a caracterização de materiais. O cálculo dessas propriedades com computação voluntária da equação de Kohn-Sham apresenta um valor do gap de energia subestimado em relação aos dados experimentais. Por outro lado, o uso de algoritmos de machine learning para encontrar propriedades eletrônicas tem se mostrado muito mais efetivo. Com um training set e representação de dados apropriados, é possível prever as propriedades eletrônicas com redes neurais, regressão linear, arvores aleatórias ou máquina de vetores de suporte.

Propriedades magnéticas[editar | editar código-fonte]

Apesar de ainda muito recente já existem métodos de aprendizado de máquinas para determinar propriedades magnéticas em materiais, como o uso de regressão linear para encontrar a temperatura de Curie em ligas de Heusler, e métodos de análise KRR( kernel ridge regression) para encontrar o momento magnético em determinadas ligas de Lantanídeos.[5]

Uso em DFT[editar | editar código-fonte]

Sabe-se que as estruturas de equilíbrio de um material têm energia potencial mínima.[6] Portanto, a busca por estruturas de equilíbrio de uma dada substância estarão relacionadas aos mínimos locais de sua energia potencial, sendo descritos por uma superfície de energia mínima.

A obtenção destas superfícies mínimas frequentemente se dava por métodos de DFT, o qual é extremamente custoso tanto em tempo quanto em capacidade computacional. Como uma alternativa mais econômica e ágil, vários métodos têm surgido recentemente para obter estas superfícies mínimas via Aprendizado de Máquina. Um exemplo é através de redes neurais treinadas sobre várias estruturas moleculares que são caracterizadas por “fingerprints” (“impressões digitais”) estruturais que caracterizam uma dada estrutura.[7]

De forma direta, os métodos de aprendizado podem até mesmo ser utilizados para pular os cálculos necessários para a de obtenção de dados. Por exemplo, é possível utilizar a Análise de Componentes Principais para obter os funcionais de densidade com um ótimo grau de auto-consistência, como também o uso de regressão não-linear para obter o funcional de exchange-correlation em sistemas físicos simples.[8]

Descobertas de novos materiais[editar | editar código-fonte]

A descoberta de novos materiais (Materials Discovery) é um dos tópicos mais importantes no campo da Ciência de Materiais. Com o grande avanço da tecnologia computacional ao longo dos anos, é possível utilizar técnicas computacionais de Aprendizado de Máquina como forma de reduzir o tempo de descoberta de novos materiais.

A simulação computacional e a utilização de experimentos de laboratório são técnicas comuns para se estudar as propriedades dos materiais, como por exemplo ponto de fusão, temperatura de transição vítrea etc.[9] No entanto, existem limitações inerentes às condições experimentais no que diz respeito à adequação com a teoria, de forma que as duas técnicas nem sempre convergem, o que desacelera o processo da descoberta de novos materiais.[10]

A utilização de simulação computacional por diversas técnicas como DFT, dinâmica molecular, técnicas de Monte Carlo, etc auxiliam no controle das variáveis experimentais e possibilitam diversos testes. Para a descoberta de novos materiais a partir de técnicas de aprendizado de máquina, utiliza-se a abordagem “sugestão e teste”, que consiste em prever as estruturas de materiais com metodologias de aprendizado de máquina e testar a sua estabilidade a partir do cálculo de DFT.

Outras implementações[editar | editar código-fonte]

  • “Redes neurais integráveis”: experimentalmente, é possível obter dados sobre o potencial químico de um material de maneira direta, mas não de sua energia potencial; Teichert et al. propõem treinar uma rede neural nesses dados (derivados da energia potencial), e depois “integrar” os resultados da rede neural para obter a superfície de energia potencial.[11] [12]
  • “Redes neurais fisicamente informadas” (Physically-Informed Neural Networks): utilizar NNs para estimar “parâmetros de potencial” da estrutura da vizinhança de cada átomo, para então calcular os potenciais interatômicos, e então calcular a superfície de energia potencial.[13]
  • Uso de aprendizado não-supervisionado para obtenção de transições de fase de materiais.[14]

Ligações externas[editar | editar código-fonte]

Referências

  1. Hill, Joanne; Mulholland, Gregory; Persson, Kristin; Seshadri, Ram; Wolverton, Chris; Meredig, Bryce (maio de 2016). «Materials science with large-scale data and informatics: Unlocking new opportunities». MRS Bulletin (5): 399–409. ISSN 0883-7694. doi:10.1557/mrs.2016.93. Consultado em 27 de novembro de 2020 
  2. Liu, Yue; Zhao, Tianlu; Ju, Wangwei; Shi, Siqi (setembro de 2017). «Materials discovery and design using machine learning». Journal of Materiomics (3): 159–177. ISSN 2352-8478. doi:10.1016/j.jmat.2017.08.002. Consultado em 27 de novembro de 2020 
  3. Bertinetto, Carlo; Duce, Celia; Micheli, Alessio; Solaro, Roberto; Starita, Antonina; Tiné, Maria Rosaria (abril de 2009). «Evaluation of hierarchical structured representations for QSPR studies of small molecules and polymers by recursive neural networks». Journal of Molecular Graphics and Modelling (7): 797–802. ISSN 1093-3263. doi:10.1016/j.jmgm.2008.12.001. Consultado em 27 de novembro de 2020 
  4. Majid, Abdul; Khan, Asifullah; Choi, Tae-Sun (abril de 2011). «Predicting lattice constant of complex cubic perovskites using computational intelligence». Computational Materials Science (6): 1879–1888. ISSN 0927-0256. doi:10.1016/j.commatsci.2011.01.035. Consultado em 27 de novembro de 2020 
  5. Sanvito, Stefano; Oses, Corey; Xue, Junkai; Tiwari, Anurag; Zic, Mario; Archer, Thomas; Tozman, Pelin; Venkatesan, Munuswamy; Coey, Michael (abril de 2017). «Accelerated discovery of new magnets in the Heusler alloy family». Science Advances (4): e1602241. ISSN 2375-2548. doi:10.1126/sciadv.1602241. Consultado em 27 de novembro de 2020 
  6. Mueller, Tim; Kusne, Aaron Gilad; Ramprasad, Rampi (6 de maio de 2016). «Machine Learning in Materials Science». Hoboken, NJ: John Wiley & Sons, Inc: 186–273. ISBN 978-1-119-14873-9. Consultado em 27 de novembro de 2020 
  7. Schleder, Gabriel R; Padilha, Antonio C M; Acosta, Carlos Mera; Costa, Marcio; Fazzio, Adalberto (16 de maio de 2019). «From DFT to machine learning: recent approaches to materials science–a review». Journal of Physics: Materials (3). 032001 páginas. ISSN 2515-7639. doi:10.1088/2515-7639/ab084b. Consultado em 27 de novembro de 2020 
  8. Snyder, John C.; Rupp, Matthias; Hansen, Katja; Müller, Klaus-Robert; Burke, Kieron (19 de junho de 2012). «Finding Density Functionals with Machine Learning». Physical Review Letters (25). ISSN 0031-9007. doi:10.1103/physrevlett.108.253002. Consultado em 27 de novembro de 2020 
  9. Alcobaça, Edesio; Mastelini, Saulo Martiello; Botari, Tiago; Pimentel, Bruno Almeida; Cassar, Daniel Roberto; de Carvalho, André Carlos Ponce de Leon Ferreira; Zanotto, Edgar Dutra (abril de 2020). «Explainable Machine Learning Algorithms For Predicting Glass Transition Temperatures». Acta Materialia: 92–100. ISSN 1359-6454. doi:10.1016/j.actamat.2020.01.047. Consultado em 27 de novembro de 2020 
  10. Pilania, Ghanshyam; Wang, Chenchen; Jiang, Xun; Rajasekaran, Sanguthevar; Ramprasad, Ramamurthy (30 de setembro de 2013). «Accelerating materials property predictions using machine learning». Scientific Reports (1). ISSN 2045-2322. doi:10.1038/srep02810. Consultado em 27 de novembro de 2020 
  11. Teichert, G.H.; Natarajan, A.R.; Van der Ven, A.; Garikipati, K. (agosto de 2019). «Machine learning materials physics: Integrable deep neural networks enable scale bridging by learning free energy functions». Computer Methods in Applied Mechanics and Engineering: 201–216. ISSN 0045-7825. doi:10.1016/j.cma.2019.05.019. Consultado em 27 de novembro de 2020 
  12. Teichert, G.H.; Natarajan, A.R.; Van der Ven, A.; Garikipati, K. (novembro de 2020). «Scale bridging materials physics: Active learning workflows and integrable deep neural networks for free energy function representations in alloys». Computer Methods in Applied Mechanics and Engineering. 113281 páginas. ISSN 0045-7825. doi:10.1016/j.cma.2020.113281. Consultado em 27 de novembro de 2020 
  13. Pun, G. P. Purja; Batra, R.; Ramprasad, R.; Mishin, Y. (28 de maio de 2019). «Physically informed artificial neural networks for atomistic modeling of materials». Nature Communications (1). ISSN 2041-1723. doi:10.1038/s41467-019-10343-5. Consultado em 27 de novembro de 2020 
  14. Wang, Lei (2 de novembro de 2016). «Discovering phase transitions with unsupervised learning». Physical Review B (19). ISSN 2469-9950. doi:10.1103/physrevb.94.195105. Consultado em 27 de novembro de 2020