Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Regression
- Unsupervised Learning
- ML
- 인공지능
- 인공신경망
- ChatGPT
- GPT
- Supervised Learning
- LLM
- Machine Learning
- AI 트렌드
- 딥러닝
- 언어모델
- bingai
- prompt
- Scikitlearn
- feature scaling
- AI
- learning algorithms
- supervised ml
- 머신러닝
- llama
- 챗지피티
- neural network
- 프롬프트 엔지니어링
- Andrew Ng
- nlp
- feature engineering
- coursera
- Deep Learning
Archives
- Today
- Total
My Progress
GPU 본문
반응형
1. CPU와 GPU의 차이
1. 1 코어의 개수 차이
Number of Core in GPU is extremely larger than that of CPU.
1.2 성능의 차이
Perfomance of each core of CPU is much better than GPU.
2. GPU의 코어가 많아야 되는 이유
한 스크린에는 몇만개의 픽셀이 있다. 이 픽셀들의 RGB값을 계산을 하기 위해선 코어가 많은 GPU 훨씬 유리하다.
수학적 계산이 많이 필요한 딥러닝이라는 분야가 뜨면서 코어 개수가 많은 GPU의 중요성이 커졌다.
3. 컴퓨터가 고등사고가 가능한 이유와 그외
GPU와 CPU가 연동을 하여 메세지를 주고 받는 과정 덕분에 고등사고가 가능하다.
그외:
Nvidia의 CUDA가 제일 인기가 많은 이유
- Google의 Tensorflow가 GPU로 CUDA를 선택하였다.
출처:Fastcampus.co.kr
반응형
'Research' 카테고리의 다른 글
[NLP] Prompt Engineering / 프롬프트 엔지니어링 (0) | 2023.07.26 |
---|---|
[NLP] GPT-4 성능하락 관련 논문 요약 (1) | 2023.07.26 |
[NLP] 2023 Summer LLM/언어모델 시장 트렌드 (0) | 2023.07.26 |
[NLP] 언어모델에 대해서 (0) | 2023.07.26 |