본문 바로가기

분류 전체보기86

Neural Network 소개 및 장단점(Gaussian Process와 비교하여) 기계학습 포텐셜 중 가장 유명한 두 알고리즘, GAP 및 NNP는 각각 사용하는 기계학습 알고리즘이 다르다. GAP에 사용되는 Gaussian Process는 우리가 알고 있는 데이터를 전부 사용해서, 우리가 함숫값을 알고 싶은 임의의 점이 기존 데이터와 얼마나 가까이 있는지를 바탕으로 예측값 및 신뢰도를 예측하는 방식이다. Gaussian Process에서는 예측값의 신뢰도가 바로 측정된다는 점이 장점이지만, 데이터 수가 늘어날 경우 예측값을 구하는 데 필요한 계산량이 늘어난다는 단점 또한 지니고 있다. 그렇다면 NNP에 사용되는 인공신경망(Neural Network)은 어떨까? 인공신경망의 경우 2010년대 중후반 이후 황금기를 맞은 기계학습 열풍의 핵심 알고리즘으로, 기계학습과 관련된 여러 가지 대.. 2022. 6. 21.
Gaussian Process 소개 및 장단점 지난 포스팅에서는 기계학습 포텐셜 알고리즘 중 가장 많이 사용되는 두 가지 알고리즘인 GAP과 NNP의 공통점에 대해 알아보았다. 두 방법 모두 시스템의 전체 에너지를 원자 당 에너지의 합으로 나타내며, 원자 당 에너지는 각 원자 및 주변 원자들의 3차원 좌표를 벡터로 전환한 뒤, 이를 기계학습 알고리즘의 입력값으로 넣었을 때 출력된 값을 이용한다. 하지만 GAP과 NNP는 각각 사용하는 기계학습 알고리즘이 달라, 방법론별로 특성에 약간 차이가 있다. 이번 포스팅에서는 GAP에서 사용하는 기계학습 알고리즘인 Gaussian Process에 대해 알아보고, Gaussian Process를 사용했기 때문에 생기는 장점 및 단점에 대해 알아보도록 하겠다. 먼저, 우리가 좌표 공간상에 임의의 함수를 지정해 주었.. 2022. 6. 21.
기계학습 포텐셜(Machine Learning Potential, MLP)의 대표 알고리즘, Gaussian Approximation Potential(GAP), Neural Network Potential(NNP)의 공통점 소개 정확하지만 느린 제일원리 계산, 그리고 빠르지만 부정확한 Classical Force Field, 두 방법론은 양쪽 모두 재료 시뮬레이션에서 다양한 연구에 사용되었지만 각각의 한계 때문에 우리는 이 두 방법론을 실제 제품 스케일에서 사용할 수는 없었다. 따라서 재료 시뮬레이션을 연구하는 연구자들은 각자가 좀 더 중요하게 여기는 것이 어떤 요소인지를 기준으로 제일원리 계산과 Classical Force Field 중 하나를 선택해야 했다. 예를 들어, 정확도가 중시되는 연구에서는 전체 제품 중 특정 부분만을 고려하여 시뮬레이션할 시스템을 구성한 다음 제일원리 계산을 사용하고, 많은 시뮬레이션이 필요하거나, 제품 전체를 고려해야 하는 경우, 혹은 시뮬레이션할 시스템을 작게 조정하기 어려운 경우에는 Class.. 2022. 6. 19.
기계학습을 이용한 Force Field(Machine Learning Force Field, MLFF) 소개 2010년대 중반쯤부터, GPU의 성능 향상 및 여러 테크닉의 등장으로 인해 기계학습(Machine Learning)의 성능이 비약적으로 향상되었다. 이미지 인식, 자연어 처리 등의 챌린지에서 기존의 성과 대비 수 배, 혹은 수십 배의 성능을 보이는 알고리즘들이 등장하면서, 기계학습(그중에서도 특히 인공신경망, Neural network)은 컴퓨터 과학 분야뿐 아니라 다른 과학 분야에서도 관심을 갖는 유용한 도구가 되었다. 재료공학의 경우도 예외가 아닌데, 많은 연구자가 새로운 재료 설계 및 특성 예측, 새로운 나노 구조 디자인 등의 다양한 분야에 기계학습을 활용하고 있다. 이러한 연구들 역시 최근 주목받고 있는 흥미로운 주제들이지만, 이들에 대해서는 좀 더 이후의 포스팅에서 살펴보기로 하고, 본 포스팅.. 2022. 6. 19.