층을 쌓는다는 시각적 비유가 정말 와닿아요. 레이어 개념이 포토샵 레이어랑 다르긴 하지만 묘하게 비슷한 느낌? 위로 쌓을수록 추상화 수준이 올라간다는 게 특히 흥미롭네요
층을 쌓는다는 개념이 그림으로 보니까 조금 이해됩니다. 아직 왜 이렇게 여러 층이 필요한지는 완전히 납득이 안 가지만 따라가보겠습니다
이 용어 표 캡처해뒀어요. 계속 헷갈리던 거 한번에 정리됐네요
용어 통일이 중요한데 실무에서도 팀마다 '레이어'라고 부르는 사람, '층'이라고 부르는 사람 섞여있어서 매번 혼란스럽거든요
용어 표 잘 정리됐네요. 저도 캡처해뒀어요
트랜스포머가 왜 등장했는지 흐름으로 설명해줘서 이해는 됐는데... 솔직히 이 레슨 오면서 내용이 점점 어려워지는 것 같아요 ㅠ 저만 이런 건 아니겠죠?
순환 신경망 병렬화 한계에서 트랜스포머 등장으로 이어지는 흐름은 납득이 됐는데, 위치 인코딩으로 순서 정보를 처리한다면 문장이 엄청 길어지면 위치 인코딩이 포화되거나 정보 손실이 생기지않나요?
CNN이 이미지 전용인 줄만 알았는데 텍스트에도 쓰인다는 게 의외였습니다. 레슨 범위가 생각보다 넓네요
선형 모델이 비선형 패턴을 표현 못한다는 게 시각적으로 보니까 바로 이해됩니다. 경제학에서도 비선형 관계를 다루려면 변수를 변환해야 하는데, 신경망이 그걸 자동으로해준다는 게 그 개념이랑 연결되는 것 같습니다
신경망이 갑자기 튀어나오는 느낌이었는데 앞에서 배운 것들이랑 연결된다는 설명 덕에 따라올 수있었어요. 이 연결 없었으면 진짜 막막했을 것 같고
활성화 함수 비교표를 보니까 ReLU가 제일 많이 쓰이는 것 같은데, 특별한 이유없으면 그냥 ReLU 쓰면 되는 건가요? 상황에 따라 골라야하는 건지