Skip to content
rtlearner 로고 파일

RTLearner

비전공자의 RTL 엔지니어 성장기

  • Home
  • Blog
  • About
rtlearner 로고 파일
RTLearner
비전공자의 RTL 엔지니어 성장기
  • AI & HW Fundamentals

    AI Architecture 9. Convolution 연산의 3가지 매핑: Direct vs Im2Col vs Winograd

    지난 글에서 우리는 하드웨어가 CNN(Convolutional Neural Network)을 사랑하는 이유가 지역성(Locality)과…

  • Kernel sliding
    AI & HW Fundamentals

    AI Architecture 8. CNN과 지역성(Locality)

    지난 포스팅에서 우리는 MLP(Fully Connected Layer)가 하드웨어 관점에서 얼마나 비효율적인지…

  • The Memory Wall
    AI & HW Fundamentals

    AI Architecture 7. MLP와 메모리 장벽(Memory Wall)

    지난 시간까지 우리는 하드웨어 비용을 줄이기 위해 데이터를 깎아내는 양자화(Quantization)…

  • Quantization
    AI & HW Fundamentals

    AI Architecture 6. INT8 양자화(Quantization) 기초

    지난 글에서 우리는 데이터 포맷(Number Format)의 차이가 하드웨어의 면적과 전력…

  • AI & HW Fundamentals

    AI Architecture 5. 데이터의 무게: FP32가 하드웨어 면적과 전력 소모에 미치는 영향

    지난 글에서는 학습(Training)과 추론(Inference)의 차이를 통해, 추론 전용 NPU가 어떻게…

  • AI & HW Fundamentals

    AI Architecture 4. 학습(Training) vs 추론(Inference)

    지난 글들에서 우리는 MAC 연산기와 메모리 계층, 그리고 병렬 처리(SIMD)가…

Page navigation

Previous PagePrevious 1 2 3 Next PageNext

Search

Category

  • RTL engineer
    • FPGA
    • Verilog
  • Semiconductor process
  • RRAM Research
  • AI Architecture
    • AI & HW Fundamentals
    • NPU design & Optimization

사이트 메뉴

  • Home
  • Blog
  • About

카테고리

  • RTL engineer
  • Semiconductor process

사이트 정보

  • 개인정보처리방침
  • 이용약관

Copyright © 2026 RTLearner.

Scroll to top
  • Home
  • Blog
  • About
Korean
English