이미지, 스피치, 센서 및 사물인터넷(IoT) 기술이 빠르게 발전해 개발팀은 향상된 성능 및 효율성을 제공하는 AI 솔루션을 모색하고 있다. 뿐만 아니라, 딥러닝 모델의 복잡성이 점차 증가하고 있어, 엔지니어에 부담은 커지고 있다.

매스웍스는 GPU 코더(GPU Coder)를 통해 매트랩(MATLAB)과 엔비디아(NVIDIA) 텐서RT(TensorRT)를 통합한다고 발표했다.

양사의 협력으로 엔지니어 및 과학자들은 데이터 센터, 임베디드 및 자동차 응용 프로그램 분야의 수요가 증가해 매트랩에서 보다 높은 성능 및 효율성을 갖춘 새로운 인공지능(AI) 및 딥러닝 모델을 개발할 수 있게 됐다.

매트랩은 딥러닝 모델을 신속하게 학습, 검증 및 배포 단계를 제공하며 엔지니어는 추가 프로그래밍 없이 GPU 리소스를 사용해 응용 프로그램 개발에 집중할 수 있다. 엔비디아 텐서RT와 GPU 코더의 통합은 매트랩에서 개발된 딥러닝 모델이 높은 처리량 및 낮은 지연 시간으로 엔비디아 GPU에서 실행된다. 텐서플로우(TensorFlow)와 비교해, 매트랩에서 생성된 쿠다(CUDA) 코드는 텐서RT와 결합돼 딥러닝 예측에 있어 5배 향상된 성능으로 알렉스넷(Alexnet)을 배포하고, 1.25배 향상된 성능으로 VGG-16을 배포할 수 있다.

매스웍스 데이비드 리치(David Rich) 이사는 “이번 매스웍스와 엔비디아의 기술 통합으로 개발팀은 매트랩 및 엔비디아 GPU를 이용해 딥러닝 모델을 학습시킴으로써 클라우드에서 데이터 센터 및 임베디드 디바이스에 이르는 모든 환경에 걸쳐 실시간 예측을 구현할 수 있을 것으로 기대된다”고 말했다.

이향선기자 hslee@nextdaily.co.kr

관련기사

저작권자 © 넥스트데일리 무단전재 및 재배포 금지