일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
- 딥러닝
- probability
- 빅데이터
- 김양재
- data science
- Machine Learning
- c++
- WebGL
- 주일설교
- 통계
- Big Data
- 김양재 목사
- 데이터 과학
- Deep learning
- R
- Artificial Intelligence
- 인공지능
- nodeJS
- 빅 데이타
- No SQL
- 빅 데이터
- node.js
- MongoDB
- 김양재 목사님
- Statistics
- 빅데이타
- 몽고디비
- 확률
- 우리들교회
- openCV
- Today
- Total
목록병렬계산 (4)
Scientific Computing & Data Science
이 글은 ParallelR의 R for Deep Learning (II): Achieve High-Performance DNN with Parallel Acceleration을 번역한 것입니다. 이전 포스트, R 딥러닝: 인공신경망 바닥부터 구현하기에서 신경망의 핵심 구성요소와 R에서 이것을 바닥부터 구현하는 방법에 대하여 알아보았다. 이제 R에서 구현안 것에 대한 연산 성능과 효율, 특히 멀티코어 CPU와 NVIDIA GPU 아키텍쳐에 대한 병렬 알고리즘에 관하여 집중적으로 알아보도록 하겠다. 성능 프로파일이 글에서 성능 분석을 위해 작지만 큰 데이터세트인 MNIST를 활용할 것이다. MNIST는 머신러닝 분야에서 손으로 쓴 숫자의 분류에 대한 정확도를 측정하기 위해 자주 사용되며, Kaggle 대회에..
들어가기에 앞서...GPU(그래픽 처리 장치)는 최근 많은 계산이 요구되는 작업을 해야 하는 경우에 대해 더욱 인기를 얻고 있다. 이러한 장점에도, R에서의 GPU의 사용은 매우 제한되어 있었다. 불가능한 것이 아님에도 저수준 인터페이스 작업에 익숙하지 않은 프로그래머들에게 OpenCL이나 CUDA는 어렵다. 복잡한 GPGPU 코드를 추상화하는 R의 고수준 프로그래밍에 대한 바인딩을 생성하는 것은 R 유저들에게 GPU를 쉽게 활용할 수 있는 길을 열어준다. 이에 대한 핵심 아이디어를 제공하는 것이 gpuR 패키지이다. gpuR은 다음 세 가지 기발한 측면이 있다:'모든' GPU에 대해 적용이 가능하다.CUDA/OpenCL을 추상화하여 기존의 R 알고리즘에 쉽게 통합할 수 있다.객체가 GPU에서 지속 될 ..
이번 글에서는 R에서 병렬처리를 하는 방법에 대하여 소개하도록 한다.R-bloggers의 글, How-to go parallel in R - basics + tips의 내용을 최대한 참고하여 정리해 보았다. [목차]1. lapply에 대하여2. parallel 패키지3. foreach 패키지4. 디버깅5. 캐싱(Caching)6. 계산 부하 밸런싱7. 이미지 프로세싱 예제 1. lapply에 대하여R이 기본적으로 제공하는 함수들 중 가장 많이 사용되는 함수가 lapply일 것이다.이와 유사한 함수로 apply, sapply, tapply 등이 있는데 각자의 쓰임새가 있으며, 자신이 R유저라고 자신한다면 이 함수들이 어느 상황에 적절히 쓰이는지 이해하고 자유자재로 다룰 수 있어야 한다고 생각한다. 다음 코..
이번 글에서는 CUDA를 이용하여 열전달 시뮬레이션을 병렬로 계산하는 예제에 대하여 다루도록 하겠다. J. Sanders와 E. Kandrot의 CUDA by Example의 Chapter 7. Texture Memory 를 참고하여 재구성하였으며, 좀 더 심도있는 설명을 하기 위해 노력하였다. [실행환경] OS: Microsoft Windows 7 Professional 64 CUDA: 7.0 IDE: Microsoft Visual Studio 2012 Include: book.h, cpu_anim.h 1. Texture Memory Overview Texture memory는 constant memory와 마찬가지로 온-칩(on-chip)에 캐시(cache)된다. 따라서 오프-칩(off-chip) D..