01 소개
레이저 심관입 용접의 다중물리 커플링 해석에서 금속 증기 반동 압력에 의해 구동되는 열쇠 구멍 벽의 고주파 변동-과 광{1}}유발 플라즈마의 상호 작용 메커니즘을 정확하게 설명하는 것은 질량, 운동량 및 에너지 보존 방정식의 동시 해법에 따라 엄격하게 달라집니다. 기존의 전산유체역학(CFD)은 고밀도 이산 그리드와 적응형 시간-스테핑 알고리즘을 구성하여-고충실도의 일시적 유체 동작을 포착할 수 있지만 본질적으로 Navier-Stokes 방정식을 기반으로 하는 무차별적인-해법 전략입니다. 계산 영역 그리드의 레이놀즈 수가 증가함에 따라 계산 비용은 기하급수적으로 증가하며 단일의 높은-충실도 3차원{10}} 과도 시뮬레이션에는 며칠이 걸리는 경우가 많습니다. 이러한 계산 장벽은 대규모 프로세스 창의 반복 최적화를 심각하게 제한합니다.{12}} 한편, 기계 학습은 고차원 프로세스 매개변수 공간에서 물리적 응답 공간으로의 비선형 매핑을 구성하여 복잡한 편미분 방정식 이산화 프로세스를 우회하고 효율성을 크게 향상시킬 수 있지만 '블랙박스' 특성으로 인해 물리적 해석 가능성이 부족하고 일반화 기능이 부족합니다. 순수 데이터-기반 모델은 물리적 보존 법칙의 제약 조건에서 분리되면 데이터가 부족한 조건에서 예측 결과의 자체 일관성을 보장하는 데 어려움을 겪습니다.-
따라서 현재 레이저 용접 수치 시뮬레이션의 최첨단 방향은 더 이상 단일 계산 방법 선택에 국한되지 않고 기계 학습과 CFD의 심층 통합으로 전환되었습니다. 메모리 상호 작용(PyFluent) 또는 물리{2}}정보 기반 신경망(PINN)을 기반으로 하는 결합 아키텍처를 구축함으로써 물리적 메커니즘을 심층적으로 탐색하는 CFD의 기능과 광범위한 매개변수에 대한 머신러닝의 효율적인 스캐닝 기능을 결합하는 것이 목표입니다. 이 접근 방식은- CFD가 제공하는 물리적으로 일관된 고품질 데이터를 활용하는 동시에 기계 학습의 온라인 추론 이점을 활용하여 기존 수치 시뮬레이션의 정확성과 효율성 간의 본질적인 충돌에 대한 체계적인 엔지니어링 솔루션을 제공합니다.
02 용접 예측에서의 머신러닝 개발 용접 수치 시뮬레이션 분야의 머신러닝 개발은 학계 내 데이터{1}}물리 관계에 대한 심화된 이해를 반영합니다. 기술 발전은 주로 세 가지 수준을 따르며 단순한 데이터 피팅에서 데이터 및 물리적 메커니즘의 심층 통합으로 점진적으로 도약합니다.. 2.1 정적 보간 및 선형 회귀 용접 수치 시뮬레이션에 기계 학습을 적용하기 위한 기본 차원 축소 전략으로 대리 모델은 제한된 세트의 고충실도 유한 요소(FEM) 계산 결과를 훈련 세트로 사용합니다.- 인공 신경망(ANN) 및 가우스 프로세스 회귀(GPR)와 같은 알고리즘을 활용하여 입력 프로세스 매개변수와 출력 품질 지표(예: 용접 깊이 및 다공성) 간의 기능적 관계를 구성합니다. 이 방법은 본질적으로 고차원 공간에서의 통계적 보간법입니다. 매우 높은 예측 효율성을 달성할 수 있지만 모델 핵심은 열유체 제어 방정식의 지원이 부족하고 블랙{9}}박스 특성을 나타냅니다. 이러한 제한으로 인해 이러한 모델은 정상 상태 결과 예측에만 적합합니다.- 공정 매개변수가 훈련 데이터의 볼록 선체 범위를 벗어나면 물리적 제약이 없기 때문에 일반화 정확도가 급격히 감소하여 복잡하고 가변적인 실제 용접 조건에 적응하기 어렵습니다. 또한, 에너지 및 질량 보존 법칙의 제약으로부터 완전히 분리되어 있기 때문에 작은 샘플 조건에서는 기본 물리적 논리를 위반하는 일관되지 않은 예측 결과를 출력하여 심각한 신뢰 위험을 초래하는 경향이 있습니다.
2.2 용접 공정의 동적 시뮬레이션: 레이저 용접 시 열쇠 구멍 붕괴 및 스패터와 같은 일시적인 불안정성을 해결하기 위해 연구는 고속-사진과 X-선 방사선 사진 데이터를 결합한 딥 러닝 아키텍처로 점차 전환되었습니다. 일반적인 컨벌루션 신경망 + 장단기{5}}장단기 메모리 네트워크(CNN+LSTM) 모델은 용융 풀 이미지의 공간적 특징과 시간적 진화 패턴을 추출하여 일시적인 동작에 대한 종단-대- 동적 예측을 달성하고 동적 프로세스를 캡처할 때 대리 모델의 한계를 어느 정도 보상합니다. 그러나 이 기술은 관측 데이터의 완전성에 의해 제한됩니다. 여러 센서를 사용하더라도 실험 데이터는 기본적으로 3차원 흐름장을 2차원 평면에 투영하거나 로컬 샘플링한 것입니다.- 유체 역학 원리의 제약 없이 표면 시각 정보만으로 복잡한 3차원 유동장을 재구성하는 것은 어렵습니다. 기존 모델은 표면 흐름의 현상학적 특성을 포착할 수 있지만 에너지 및 운동량 전달의 근본적인 관점에서 용접 결함 형성의 기본 메커니즘을 설명하는 데 어려움을 겪고 있습니다.
2.3 물리학-정보 기반 회귀: 순수 데이터-기반 모델의 해석 가능성 위기를 해결하기 위해 물리학-정보 신경망(PINN)이 등장했습니다. 이 아키텍처는 더 이상 관찰된 데이터를 단순히 맞추는 것이 아니라 Navier-Stokes 방정식과 과도 열전도 방정식의 잔차 항을 정규화 제약 조건으로 모델의 손실 함수에 포함시킵니다. 훈련 과정은 본질적으로 관찰된 데이터에 적합하고 물리적 보존 법칙을 만족하는 매개변수 공간에서 최적의 솔루션을 검색합니다. 이론적으로 물리적 방정식의 엄격한 제약 조건은 실험 관찰에서 누락된 데이터 차원을 효과적으로 보상할 수 있으므로 모델이 잠재 공간에서 물리적으로 일관된 내부 압력 구배 및 속도 장을 추론할 수 있습니다. 그러나 엔지니어링 실무에 따르면 이 방법은 심각한 문제에 직면해 있습니다. 데이터 기울기와 물리적 잔류 기울기 간의 크기 차이로 인해 네트워크 수렴이 쉽게 어려워질 수 있습니다. 고차 도함수의 정확한 계산에 필요한{9}}고밀도 배열점은 학습 비용을 크게 증가시키며 일부 고주파수 과도 문제에서 머신러닝의 효율성 이점을 상쇄하기도 합니다.
03 기계학습과 CFD의 비교 및 협업 시뮬레이션: 레이저 용접의 수치 시뮬레이션에서 기계학습과 기존 전산유체역학(CFD)의 효율성 차이를 명확히 하고, 각각의 적용 가능한 시나리오와 핵심 가치를 이해하기 위해 계산 비용, 정확도 및 해상도, 메커니즘 설명, 일반화 능력, 적용 시나리오의 5가지 핵심 차원에서 체계적인 비교 분석을 수행했습니다. 이 분석은 아래에 자세히 설명된 것처럼 두 가지 방법의 장단점과 상호 보완적인 관계를 명확히 합니다.
레이저 용접의 수치 시뮬레이션과 기계 학습의 전통적인 조합은 일반적으로 CFD 계산과 모델 교육이 별도의 단계에서 수행되는 오프라인 모드를 사용합니다. 이 프로세스는 하드 드라이브에 있는 대량의 데이터에 대한 광범위한 읽기, 쓰기 및 형식 변환에 의존하므로 데이터 흐름이 비효율적이며 실시간-폐쇄-루프 제어 연구를 지원하기가 어렵습니다. PyFluent- 기반 결합 아키텍처는 Python 인터페이스를 활용하여 ANSYS Fluent 솔버를 호출하고 gRPC 프로토콜을 사용하여 메모리 수준에서 계산 커널과 외부 알고리즘 간의 직접적인 상호 작용을 달성합니다. 이 결합 방법은 독립적인 CFD 솔버를 Python 스크립트에서 호출할 수 있는 계산 객체로 변환하여 딥 러닝 알고리즘이 유동장 데이터를 직접 읽고 해석 프로세스를 제어할 수 있도록 하며, 높은-충실도 프로세스-물리적 필드 매핑 관계를 설정하기 위한 통합 엔지니어링 경로를 제공합니다. 이 아키텍처의 구체적인 구현에는 동적 매개변수 업데이트와 유동장 데이터의 온라인 추출이라는 두 가지 주요 측면이 포함됩니다. 매개변수 제어 측면에서 이 방법은 정적 직교 배열(DOE)을 기반으로 하는 기존의 이산 샘플링 모드를 포기합니다. Python 측의 베이지안 최적화 또는 강화 학습 알고리즘을 사용하면 현재 모델의 예측 편차 또는 탐색 전략을 기반으로 레이저 전력 및 용접 속도와 같은 다음 공정 변수 세트가 자동으로 계산되고 솔버의 경계 조건이 PyFluent 인터페이스를 통해 실시간으로 수정됩니다. 이 메커니즘을 사용하면 물리적 응답이 크게 변하거나 예측 불확실성이 높은 매개변수 영역에 계산 리소스를 집중할 수 있어 적응형 샘플 포인트 생성이 가능합니다.
데이터 전송 측면에서 기존 ASCII 파일 내보내기 프로세스를 대체하기 위해 메모리 공유 메커니즘이 사용되었습니다. Fluent의 시간 단계 반복 중에 Python 스크립트는 field_data 인터페이스를 통해 솔버의 메모리에 직접 액세스하여 용융 풀 영역의 온도, 부피 분율 및 속도 필드 데이터를 추출하고 이를 NumPy 배열 또는 텐서로 변환하여 신경망에 입력할 수 있습니다. 이 실시간-데이터 흐름을 통해 CFD 계산 간격 동안 모델의 온라인 교육 및 수정이 가능해지며, 물리적 필드 진화와 데이터 기반 모델링의 동시 작업이 달성됩니다.
PyFluent를 기계 학습 워크플로에 통합하면 시뮬레이션 모델링의 깊이가 향상되지만 새로운 엔지니어링 구현 문제도 발생합니다. 기술적인 관점에서 볼 때, 메모리{1}}수준 데이터 상호작용은 샘플 품질과 계산 효율성을 향상시킵니다. 솔버의 메모리에서 부동 소수점 데이터를 직접 추출하면 텍스트 형식 변환으로 인한 잘림 오류를 방지하고 원래 계산 정밀도를 보존할 수 있습니다. 이는 열쇠 구멍 벽의 미세한 변동과 같이 매우 민감한 특징을 포착하는 데 중요합니다. 또한 이 아키텍처는 프로세스 제어 검증 기능을 제공하여 시뮬레이션 시간 단계 사이에 제어 논리를 내장하여 "용융 풀 모니터링 - 매개변수 결정 - 전력 조정"의 폐쇄 루프 프로세스를 시뮬레이션함으로써 수치 수준에서 지능형 용접 제어 전략의 타당성을 검증할 수 있습니다.
04 이 섹션에서는 레이저 용접의 수치 시뮬레이션에서 기계 학습의 역할을 요약합니다. 주로 다중 물리학 분야 계산에서 낮은 계산 효율성 문제를 해결하기 위해 기존 CFD의 물리적 메커니즘과 데이터 기반을 활용하는 데 중점을 둡니다. 향후 연구는 물리학과 데이터의 통합에 중점을 둘 것입니다. 첫째, PyFluent 인터페이스를 사용하여 솔버 메모리 수준에서 동적 상호 작용을 달성하고, 기계 학습 및 CFD의 동기식 작동을 위한 온라인 결합 프레임워크를 구축하여 기존 오프라인 모드에서 데이터 전송 지연 및 폐쇄{3}}루프 제어 부족 문제를 해결합니다. 둘째, 물리학-정보 신경망(PINN)을 적용하여 질량, 운동량 및 에너지 보존 방정식을 알고리즘 제약 조건에 통합하여 물리적 일관성이 부족한 순수 데이터-기반 모델의 단점을 수정합니다. 이러한 방법을 통해 레이저 용접 수치 시뮬레이션을 오프라인 예측에서 높은-충실도의 실시간-디지털 트윈으로 전환하는 것이 목표입니다.









