메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
최민기 (서울과학기술대학교) 심원보 (서울과학기술대학교)
저널정보
대한전자공학회 대한전자공학회 학술대회 2022년도 대한전자공학회 하계종합학술대회 논문집
발행연도
2022.6
수록면
127 - 130 (4page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
Due to increasing demands for AI systems around the world, demand for AI accelerators is growing gradually. Processing-in-memory (PIM) is state-of-the-art technology for massive amount of calculation like MAC in AI systems. This paper discusses how to optimize PIM chip using with DNN+NeuroSim. Simulation results show that the synaptic array size and ADC bit precision must be adopted considering trade-offs between factors of a chip performance (e.g., inference accuracy, FPS, TOPS/W). Based on these results, we can discuss about balanced option when designing a PIM chip.

목차

Abstract
Ⅰ. 서론
Ⅱ. Array size와 bit precision 변경에 따른 칩 성능 변화
Ⅲ. 결론 및 향후 연구 방향
참고문헌

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2022-569-001555733