본문 바로가기

분류 전체보기67

Atom Centered Symmetry Function 소개 지금까지 우리는 기계학습 포텐셜에 대해 알아보았다. 먼저, 기계학습 포텐셜에 공통으로 적용되는 수식 두 가지, E=sum(E_atom), E_atom=f(G({R}))에 대해 논의하였고, GAP 및 NNP 각각에 대하여 f에 해당하는 기계학습 알고리즘인 Gaussian Process와 인공신경망(Neural Network)에 대하여 알아보았다. 하지만, 아직 우리가 기계학습 포텐셜에 대하여 다 안다고 할 수는 없다. 아직 G에 해당하는, 원자들의 3차원 좌표를 기계학습 포텐셜에 넣을 수 있는 벡터 형태로 변환하는 함수에 대해서는 모르기 때문이다. 따라서, 이번 포스팅에서는 이 변환 함수에 해당하는 Atom Centered Symmetry Function에 대하여 알아보도록 하겠다. 이 방법론은 기본적으로.. 2022. 6. 22.
Neural Network 소개 및 장단점(Gaussian Process와 비교하여) 기계학습 포텐셜 중 가장 유명한 두 알고리즘, GAP 및 NNP는 각각 사용하는 기계학습 알고리즘이 다르다. GAP에 사용되는 Gaussian Process는 우리가 알고 있는 데이터를 전부 사용해서, 우리가 함숫값을 알고 싶은 임의의 점이 기존 데이터와 얼마나 가까이 있는지를 바탕으로 예측값 및 신뢰도를 예측하는 방식이다. Gaussian Process에서는 예측값의 신뢰도가 바로 측정된다는 점이 장점이지만, 데이터 수가 늘어날 경우 예측값을 구하는 데 필요한 계산량이 늘어난다는 단점 또한 지니고 있다. 그렇다면 NNP에 사용되는 인공신경망(Neural Network)은 어떨까? 인공신경망의 경우 2010년대 중후반 이후 황금기를 맞은 기계학습 열풍의 핵심 알고리즘으로, 기계학습과 관련된 여러 가지 대.. 2022. 6. 21.
Gaussian Process 소개 및 장단점 지난 포스팅에서는 기계학습 포텐셜 알고리즘 중 가장 많이 사용되는 두 가지 알고리즘인 GAP과 NNP의 공통점에 대해 알아보았다. 두 방법 모두 시스템의 전체 에너지를 원자 당 에너지의 합으로 나타내며, 원자 당 에너지는 각 원자 및 주변 원자들의 3차원 좌표를 벡터로 전환한 뒤, 이를 기계학습 알고리즘의 입력값으로 넣었을 때 출력된 값을 이용한다. 하지만 GAP과 NNP는 각각 사용하는 기계학습 알고리즘이 달라, 방법론별로 특성에 약간 차이가 있다. 이번 포스팅에서는 GAP에서 사용하는 기계학습 알고리즘인 Gaussian Process에 대해 알아보고, Gaussian Process를 사용했기 때문에 생기는 장점 및 단점에 대해 알아보도록 하겠다. 먼저, 우리가 좌표 공간상에 임의의 함수를 지정해 주었.. 2022. 6. 21.
기계학습 포텐셜(Machine Learning Potential, MLP)의 대표 알고리즘, Gaussian Approximation Potential(GAP), Neural Network Potential(NNP)의 공통점 소개 정확하지만 느린 제일원리 계산, 그리고 빠르지만 부정확한 Classical Force Field, 두 방법론은 양쪽 모두 재료 시뮬레이션에서 다양한 연구에 사용되었지만 각각의 한계 때문에 우리는 이 두 방법론을 실제 제품 스케일에서 사용할 수는 없었다. 따라서 재료 시뮬레이션을 연구하는 연구자들은 각자가 좀 더 중요하게 여기는 것이 어떤 요소인지를 기준으로 제일원리 계산과 Classical Force Field 중 하나를 선택해야 했다. 예를 들어, 정확도가 중시되는 연구에서는 전체 제품 중 특정 부분만을 고려하여 시뮬레이션할 시스템을 구성한 다음 제일원리 계산을 사용하고, 많은 시뮬레이션이 필요하거나, 제품 전체를 고려해야 하는 경우, 혹은 시뮬레이션할 시스템을 작게 조정하기 어려운 경우에는 Class.. 2022. 6. 19.