본문 바로가기

과학28

기계학습 포텐셜에서 변환 함수의 역할 및 그 개선안 소개 기계학습 포텐셜은 재료 내 원자들의 3차원 좌표를 벡터 형태로 변환해 주는 변환 함수와 이를 통해 나온 벡터를 우리가 원하는 원자 당 에너지값으로 바꿔 주는 기계학습 알고리즘 두 부분으로 이루어져 있다. 우리가 지금까지 살펴본 두 가지 기계학습 포텐셜, GAP 및 NNP는 모두 이러한 형태를 따르고 있다. GAP의 경우 변환 함수로는 SOAP(본 블로그에서는 다루지 않았다!)을, 기계학습 알고리즘으로는 Gaussian Process를 사용하며, NNP의 경우 변환 함수로는 Atom Centered Symmetry Function을, 기계학습 알고리즘으로는 인공신경망을 사용한다. 자, 그럼 이제 기계학습 포텐셜을 연구하는 연구자의 입장이 되어 보자. 만약 우리가 이 방법론들을 개선해야 한다면 어느 부분을 .. 2022. 6. 23.
Atom Centered Symmetry Function 소개 지금까지 우리는 기계학습 포텐셜에 대해 알아보았다. 먼저, 기계학습 포텐셜에 공통으로 적용되는 수식 두 가지, E=sum(E_atom), E_atom=f(G({R}))에 대해 논의하였고, GAP 및 NNP 각각에 대하여 f에 해당하는 기계학습 알고리즘인 Gaussian Process와 인공신경망(Neural Network)에 대하여 알아보았다. 하지만, 아직 우리가 기계학습 포텐셜에 대하여 다 안다고 할 수는 없다. 아직 G에 해당하는, 원자들의 3차원 좌표를 기계학습 포텐셜에 넣을 수 있는 벡터 형태로 변환하는 함수에 대해서는 모르기 때문이다. 따라서, 이번 포스팅에서는 이 변환 함수에 해당하는 Atom Centered Symmetry Function에 대하여 알아보도록 하겠다. 이 방법론은 기본적으로.. 2022. 6. 22.
Neural Network 소개 및 장단점(Gaussian Process와 비교하여) 기계학습 포텐셜 중 가장 유명한 두 알고리즘, GAP 및 NNP는 각각 사용하는 기계학습 알고리즘이 다르다. GAP에 사용되는 Gaussian Process는 우리가 알고 있는 데이터를 전부 사용해서, 우리가 함숫값을 알고 싶은 임의의 점이 기존 데이터와 얼마나 가까이 있는지를 바탕으로 예측값 및 신뢰도를 예측하는 방식이다. Gaussian Process에서는 예측값의 신뢰도가 바로 측정된다는 점이 장점이지만, 데이터 수가 늘어날 경우 예측값을 구하는 데 필요한 계산량이 늘어난다는 단점 또한 지니고 있다. 그렇다면 NNP에 사용되는 인공신경망(Neural Network)은 어떨까? 인공신경망의 경우 2010년대 중후반 이후 황금기를 맞은 기계학습 열풍의 핵심 알고리즘으로, 기계학습과 관련된 여러 가지 대.. 2022. 6. 21.
Gaussian Process 소개 및 장단점 지난 포스팅에서는 기계학습 포텐셜 알고리즘 중 가장 많이 사용되는 두 가지 알고리즘인 GAP과 NNP의 공통점에 대해 알아보았다. 두 방법 모두 시스템의 전체 에너지를 원자 당 에너지의 합으로 나타내며, 원자 당 에너지는 각 원자 및 주변 원자들의 3차원 좌표를 벡터로 전환한 뒤, 이를 기계학습 알고리즘의 입력값으로 넣었을 때 출력된 값을 이용한다. 하지만 GAP과 NNP는 각각 사용하는 기계학습 알고리즘이 달라, 방법론별로 특성에 약간 차이가 있다. 이번 포스팅에서는 GAP에서 사용하는 기계학습 알고리즘인 Gaussian Process에 대해 알아보고, Gaussian Process를 사용했기 때문에 생기는 장점 및 단점에 대해 알아보도록 하겠다. 먼저, 우리가 좌표 공간상에 임의의 함수를 지정해 주었.. 2022. 6. 21.