신경망에서 트랜스포머까지로 돌아가기

토론

신경망에서 트랜스포머까지에 달린 전체 댓글 · 질문

전체 11
창의적인 몽상가2026년 4월 14일 12:36

층을 쌓는다는 시각적 비유가 정말 와닿아요. 레이어 개념이 포토샵 레이어랑 다르긴 하지만 묘하게 비슷한 느낌? 위로 쌓을수록 추상화 수준이 올라간다는 게 특히 흥미롭네요

성실한 비버2026년 4월 3일 11:50

층을 쌓는다는 개념이 그림으로 보니까 조금 이해됩니다. 아직 왜 이렇게 여러 층이 필요한지는 완전히 납득이 안 가지만 따라가보겠습니다

빠릿한 치타2026년 3월 29일 12:30

이 용어 표 캡처해뒀어요. 계속 헷갈리던 거 한번에 정리됐네요

분석적인 과학자2026년 2월 9일 11:04

용어 통일이 중요한데 실무에서도 팀마다 '레이어'라고 부르는 사람, '층'이라고 부르는 사람 섞여있어서 매번 혼란스럽거든요

꼼꼼한 연구자2026년 2월 7일 14:13

용어 표 잘 정리됐네요. 저도 캡처해뒀어요

유쾌한 수달2026년 3월 23일 12:20

트랜스포머가 왜 등장했는지 흐름으로 설명해줘서 이해는 됐는데... 솔직히 이 레슨 오면서 내용이 점점 어려워지는 것 같아요 ㅠ 저만 이런 건 아니겠죠?

논리적인 탐험가2026년 2월 18일 13:17

순환 신경망 병렬화 한계에서 트랜스포머 등장으로 이어지는 흐름은 납득이 됐는데, 위치 인코딩으로 순서 정보를 처리한다면 문장이 엄청 길어지면 위치 인코딩이 포화되거나 정보 손실이 생기지않나요?

도전적인 개척자2026년 3월 3일 13:54

CNN이 이미지 전용인 줄만 알았는데 텍스트에도 쓰인다는 게 의외였습니다. 레슨 범위가 생각보다 넓네요

도전적인 개척자2026년 3월 3일 12:23

선형 모델이 비선형 패턴을 표현 못한다는 게 시각적으로 보니까 바로 이해됩니다. 경제학에서도 비선형 관계를 다루려면 변수를 변환해야 하는데, 신경망이 그걸 자동으로해준다는 게 그 개념이랑 연결되는 것 같습니다

논리적인 탐험가2026년 2월 18일 12:54

신경망이 갑자기 튀어나오는 느낌이었는데 앞에서 배운 것들이랑 연결된다는 설명 덕에 따라올 수있었어요. 이 연결 없었으면 진짜 막막했을 것 같고

꼼꼼한 연구자2026년 2월 7일 13:02

활성화 함수 비교표를 보니까 ReLU가 제일 많이 쓰이는 것 같은데, 특별한 이유없으면 그냥 ReLU 쓰면 되는 건가요? 상황에 따라 골라야하는 건지