목록ai (59)
운동하는 공대생

1. Linear Regression house price를 예시로 데이터 포인트를 좌표 평면상에 표시를 한다면 linear 함수로 표현하는 게 가능하다. h(x) = 𝛳0 + 𝛳1X1 이렇게 1차함수로 표시가 가능하다. => 여기서 𝛳0, 𝛳1 이 함수 모델의 형태를 결정하는 "parameters"라고 이야기한다. 그리고 input 하는 데이터나 parameter의 표현은 벡터로 표시한다. 위에서는 input 하는 x 의 데이터의 수가 multiple 한 상화에 대한 식이다. 여기서 이 linear 함수 h(x)는 데이터 포인트의 input 값들(x1, x2, x3)과 파라미터들을 기준으로 값이 판명된다. 여기서 x0=1차원이 항상 존재하면 𝛳0의 파라미터를 bias라고도 한다. 목표: 데이터 포인트를..

1. What is AI 공부를 하면서 느끼는 인공지능 개념은 알고리즘을 기반으로 과거의 상황, 데이터를 기반으로 비슷한 상황이 왔을 때 답을 유추하는 방식이라고 생각한다. 가령 한 이미지를 보고 이 이미지가 강아지인지 고양이인지를 판단하는 모델이 있다고 한다면 이것은 이전까지의 강아지 이미지를 학습하고 강아지의 외형적 특성을 데이터로 녹여 모델에 학습하고 어떤 이미지가 들어왔을 때 그것이 강아지의 외형과 비슷하다면 그것을 강아지라고 판단하는 게 가능하다. 이렇게 인공지능 분야는 다양하게 넓은 분야에서 사용이 가능하며 알고리즘을 변경하여 다양한 분야에서 활용이 가능하다. 2. Machine Learning 기계 학습(機械學習) 또는 머신 러닝(영어: machine learning)은 경험을 통해 자동으로..

1. Intro multivariate time series 데이터에 대한 학습을 진행하는 대표적인 방식인 spatial-temporal graph neural networks 방식이 있다. 이 방식에서는 그래프 구조를 input으로 하여 모델을 학습을 진행한다. 그래프로 구성하지 않는 방식보다 많은 개선점이 있지만 여전히 몇 가지 문제는 남아있다. 문제 1 : 대부분의 multivartiate time series 데이터들은 그래프 구조를 하고 있지 않다. 변수들 간의 관계는 데이터를 보고 발견된다. 문제 2: 그래프 구조가 가능하더라고 대부분의 message passing에 주의를 기울이기 때문에 훈련 과정에서 그래프 구조가 optimal 하지 않을 수 있다. 본 논문에서는 이런 문제들을 해결하려고 ..

논문 https://arxiv.org/abs/1901.04997 MAD-GAN: Multivariate Anomaly Detection for Time Series Data with Generative Adversarial Networks The prevalence of networked sensors and actuators in many real-world systems such as smart buildings, factories, power plants, and data centers generate substantial amounts of multivariate time series data for these systems. The rich sensor data can be con arxiv.o..

논문 https://www.cs.ubc.ca/~amuham01/LING530/papers/radford2018improving.pdf 1. Introduction 저자는 unsupervised 학습에 대한 어려움을 이야기를 했다. 그게 두 가지가 있는데 최적화를 어떻게 해야 하는지 문제와 데스크마다 변환하는 최적의 방식이 다르다는 문제가 있다. 그래서 이 논문에서는 semi-supervised 방식을 사용하여 이 문제를 해결했다고 말한다. 저자는 semi-supervised와 supervised fine-tuning을 결합하여 사용한다고 말했다. 두 가지의 단계로 훈련을 진행했는데 unlabeled 데이터에 대한 파라미터를 선행 학습하고 그 이후에는 이 파라미터를 가지고 추가적인 supervised 한 ..

0. Intro 데이터는 보통 여러 차원(High-dimensional)으로 구성이 되어 있다. 이런 여러 고차원 데이터는 데이터를 분석하는 과정에서 시각화를 하거나 데이터에 대한 분석을 진행하기에 어려움이 존재한다. 그래서 이런 고차원의 데이터를 차원 축소 방식 PCA를 통해서 표현한다. 1. PCA PCA 의 추론 과정의 아이디어는 차원을 축소하는 axis 를 잡고 데이터와 axis 축의 projection을 구한다음 그 projection들의 값들의 분산이 최소가 되도록한다면 데이터들이 축소된 차원에서 분산이 가장 큰 특성을 가진 방향으로 축이 만들어진다는 아이디어이다. 더 자세하게 설명을 아래에서 해보겠다. 1.1 Maximum variance formulation PCA는 결국 차원을 축소하여..

논문 https://arxiv.org/abs/1512.03385v1 Deep Residual Learning for Image Recognition Deeper neural networks are more difficult to train. We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously. We explicitly reformulate the layers as learning residual functions with arxiv.org 0. Abstract 저자는 DNN 모델을 훈련을 할 때 residual functio..

0. Introduction 먼저 3차원 물체에 대한 영상에서 2차원으로 카메라가 정보를 습득하는 거처럼 3차원 영상을 2차원으로 변환을 진행을 하는 것을 투영변환(projective transformation)이라고 한다. 이때 3차원 영상이 2차원으로 투영 변환한 두 2차원 영상에 대하여 대응점을 매칭시키는 방식 중 하나가 호모그래피라고 한다. 사진을 예로 들면 X'를 표시하는 2차원 영상에서의 두 점을 매칭하는 것이다. 1. Homography 호모그래피는 3*3 행렬로 표현되며 대응점들의 행렬곱으로 표현이 가능하다. 아래의 식을 참고하면 2차원 공간상에서의 영상에서 특정 지점이 x, y로 표현이 된다면 서로 다른 두 영상에서 좌표를 매칭하는 행렬 즉 호모그래피가 존재하게 된다. 이제 이렇게 두 2..