본문 바로가기

기계학습8

Atom Centered Symmetry Function 소개 지금까지 우리는 기계학습 포텐셜에 대해 알아보았다. 먼저, 기계학습 포텐셜에 공통으로 적용되는 수식 두 가지, E=sum(E_atom), E_atom=f(G({R}))에 대해 논의하였고, GAP 및 NNP 각각에 대하여 f에 해당하는 기계학습 알고리즘인 Gaussian Process와 인공신경망(Neural Network)에 대하여 알아보았다. 하지만, 아직 우리가 기계학습 포텐셜에 대하여 다 안다고 할 수는 없다. 아직 G에 해당하는, 원자들의 3차원 좌표를 기계학습 포텐셜에 넣을 수 있는 벡터 형태로 변환하는 함수에 대해서는 모르기 때문이다. 따라서, 이번 포스팅에서는 이 변환 함수에 해당하는 Atom Centered Symmetry Function에 대하여 알아보도록 하겠다. 이 방법론은 기본적으로.. 2022. 6. 22.
Neural Network 소개 및 장단점(Gaussian Process와 비교하여) 기계학습 포텐셜 중 가장 유명한 두 알고리즘, GAP 및 NNP는 각각 사용하는 기계학습 알고리즘이 다르다. GAP에 사용되는 Gaussian Process는 우리가 알고 있는 데이터를 전부 사용해서, 우리가 함숫값을 알고 싶은 임의의 점이 기존 데이터와 얼마나 가까이 있는지를 바탕으로 예측값 및 신뢰도를 예측하는 방식이다. Gaussian Process에서는 예측값의 신뢰도가 바로 측정된다는 점이 장점이지만, 데이터 수가 늘어날 경우 예측값을 구하는 데 필요한 계산량이 늘어난다는 단점 또한 지니고 있다. 그렇다면 NNP에 사용되는 인공신경망(Neural Network)은 어떨까? 인공신경망의 경우 2010년대 중후반 이후 황금기를 맞은 기계학습 열풍의 핵심 알고리즘으로, 기계학습과 관련된 여러 가지 대.. 2022. 6. 21.
Gaussian Process 소개 및 장단점 지난 포스팅에서는 기계학습 포텐셜 알고리즘 중 가장 많이 사용되는 두 가지 알고리즘인 GAP과 NNP의 공통점에 대해 알아보았다. 두 방법 모두 시스템의 전체 에너지를 원자 당 에너지의 합으로 나타내며, 원자 당 에너지는 각 원자 및 주변 원자들의 3차원 좌표를 벡터로 전환한 뒤, 이를 기계학습 알고리즘의 입력값으로 넣었을 때 출력된 값을 이용한다. 하지만 GAP과 NNP는 각각 사용하는 기계학습 알고리즘이 달라, 방법론별로 특성에 약간 차이가 있다. 이번 포스팅에서는 GAP에서 사용하는 기계학습 알고리즘인 Gaussian Process에 대해 알아보고, Gaussian Process를 사용했기 때문에 생기는 장점 및 단점에 대해 알아보도록 하겠다. 먼저, 우리가 좌표 공간상에 임의의 함수를 지정해 주었.. 2022. 6. 21.
기계학습을 이용한 Force Field(Machine Learning Force Field, MLFF) 소개 2010년대 중반쯤부터, GPU의 성능 향상 및 여러 테크닉의 등장으로 인해 기계학습(Machine Learning)의 성능이 비약적으로 향상되었다. 이미지 인식, 자연어 처리 등의 챌린지에서 기존의 성과 대비 수 배, 혹은 수십 배의 성능을 보이는 알고리즘들이 등장하면서, 기계학습(그중에서도 특히 인공신경망, Neural network)은 컴퓨터 과학 분야뿐 아니라 다른 과학 분야에서도 관심을 갖는 유용한 도구가 되었다. 재료공학의 경우도 예외가 아닌데, 많은 연구자가 새로운 재료 설계 및 특성 예측, 새로운 나노 구조 디자인 등의 다양한 분야에 기계학습을 활용하고 있다. 이러한 연구들 역시 최근 주목받고 있는 흥미로운 주제들이지만, 이들에 대해서는 좀 더 이후의 포스팅에서 살펴보기로 하고, 본 포스팅.. 2022. 6. 19.