인문학
사회과학
자연과학
공학
의약학
농수해양학
예술체육학
복합학
지원사업
학술연구/단체지원/교육 등 연구자 활동을 지속하도록 DBpia가 지원하고 있어요.
커뮤니티
연구자들이 자신의 연구와 전문성을 널리 알리고, 새로운 협력의 기회를 만들 수 있는 네트워킹 공간이에요.
논문 기본 정보
- 자료유형
- 학술대회자료
- 저자정보
- 발행연도
- 2023.6
- 수록면
- 2,402 - 2,405 (4page)
이용수
초록· 키워드
All the current large-scale language models based on deep learning require significant computational power, thus, requiring multi-core processors to achieve fast execution. However, sequential code sections limit the linear performance gain by increasing cores. In this paper, we execute the LLaMA large-scale language model in a multi-core CPU environment and analyze its performance using VTune. We aim to investigate the performance scalability with varying the number of cores.
상세정보 수정요청해당 페이지 내 제목·저자·목차·페이지정보가 잘못된 경우 알려주세요!
목차
- Abstract
- Ⅰ. 서론
- Ⅱ. 배경
- Ⅲ. 실험 환경
- Ⅳ. 실험 결과
- Ⅴ. 결론
- 참고문헌