딥러닝5 one class svm (1-svm)에 대해서 안녕하세요! 제리입니다. 이번 참고 자료는 이곳! https://www.youtube.com/watch?v=OmK_GQ40yko&t=2267s 정상 데이터를 최대한 원점에서 멀어지도록 하는 것이 포인트 (hyperplane을 찾는 것이 목표) 최적화 문제에서 w는 regularization을 진행하며 이를 min을 통해 최소화 시켜준다. ==> 모델의 변동성 감소 두번째의 경우 정상 값이 로우보다 가까울 때 패널티를 주는 것으로 정상 데이터는 원점보다 바깥 쪽에 존재하도록 하는 거임 -> 그렇지 않을 경우 패널티 term ==> 조건에 맞지 않을 시 패널티 부여 로우는 원점에서 최대한 멀리 떨어진 hyperplane과의 거리 ==> 결정 경계 예측 4번째 식은 개별적 객체는 원점보다 멀리 있도록 하고 아.. 2023. 5. 19. isolation forest에 대해서 안녕하세요! 제리입니다. 참고 자료는 이곳! https://www.youtube.com/watch?v=puVdwi5PjVA&t=1s isolation forest에서의 가정 1. 이상점은 minority니까 훨씬 더 적은 개수의 객체들로 구성되어 있을 것이다. 2. 객체들은 노멀 범주 객제와 매우 다른 속성 값을 가지고 있을 것이다. => 그렇기에 isolate (고립)을 시키기 쉬울 것이다. (적은 split으로 분리가 가능할 것이다.) 랜덤 variable에 랜덤 value로 split을 해서 이상 값이 속하지 않은 곳은 고려하지 않음 -> 계속 랜덤하게 해서 split하고 버려서 이상 값을 고립 시키기 위해서 몇번의 split이 되는 지를 작성 랜덤에 랜덤을 하게 충분히 많은 횟수를 하게 된다면, .. 2023. 5. 19. autoencoder에 대해서 - (2) 코드 안녕하세요! 제리입니다. autoencoder를 fashion_mnist 데이터를 통해 tensorflow로 표현해보도록 하겠습니다. 참고는 이 유튜브를 참고했습니다. https://www.youtube.com/watch?v=0PqWUsKPZdQ 라이브러리 불러오기 import tensorflow as tf from tensorflow.keras.datasets import fashion_mnist from tensorflow.keras.models import Model from tensorflow.keras.layers import Dense, Flatten,Reshape from tensorflow.keras.losses import MeanSquaredError import numpy as np .. 2023. 5. 19. autoencoder에 대해서 - (1) 전체적인 흐름 안녕하세요! 제리입니다. 오늘은 AutoEncoder에 대해서 소개해볼까 합니다. 아래 설명은 이 유튜브를 참고해 작성하였습니다. https://www.youtube.com/watch?v=X8SBsVqmVdY AutoEncoder (AE) : 비지도 데이터 사용에 있어 인공신경망의 한 형태 Encoder : input data를 압축된 표현으로 encoding 작업을 함 Docoder : 인코딩 된 것을 다시 입력 데이터로 복원 ===> 입력 데이터만 활용하는 비지도 학습으로 입력과 복원 데이터의 차이를 최소화하는 방향임. https://www.youtube.com/watch?v=OmK_GQ40yko&t=6s 위 유튜브를 참고해서 작성했다는 점 참고 바랍니다. CNN과 RNN 모두 공통 목적은 x와 x^.. 2023. 5. 19. 이전 1 2 다음