AI Architecture 10. Padding과 Pooling의 하드웨어 이슈
지난 Conv 연산의 3가지 매핑에서 우리는 합성곱(Convolution) 연산을 하드웨어에 최적화하기…
지난 Conv 연산의 3가지 매핑에서 우리는 합성곱(Convolution) 연산을 하드웨어에 최적화하기…
지난 글에서 우리는 하드웨어가 CNN(Convolutional Neural Network)을 사랑하는 이유가 지역성(Locality)과…
지난 포스팅에서 우리는 MLP(Fully Connected Layer)가 하드웨어 관점에서 얼마나 비효율적인지…
지난 시간까지 우리는 하드웨어 비용을 줄이기 위해 데이터를 깎아내는 양자화(Quantization)…
지난 글에서 우리는 데이터 포맷(Number Format)의 차이가 하드웨어의 면적과 전력…
지난 글에서는 학습(Training)과 추론(Inference)의 차이를 통해, 추론 전용 NPU가 어떻게…