AWS

AWS Deep Learning AMIを用いたGPU環境構築の手順


press
AWS Deep Learning AMIを用いたGPU環境構築の手順

AWS Deep Learning AMIを用いたGPU環境構築の手順

今回はCUDAやcuDNN等の環境が予め構築されていて機械学習に適したインスタンスをかんたんに作成できるAWS Deep Learning AMIを利用してGPU環境を構築します。

今回構築する環境

インスタンスタイプ:g4dn.xlarge
OS:Ubuntu 18.04
AMI:Deep Learning AMI (Ubuntu 18.04) Version 53.0
CUDA:11.0

EC2にはp系とg系の二種類のGPUインスタンスがありますが、今回はGoogle Colaboratoryでも使われている機械学習推論向けGPUでもあるNVIDIA T4が4個搭載されたG4 インスタンスを利用します。

G4 インスタンスにはg4ad.xlargeとg4dn.xlargeの2種類がありadがARMでdnがNVIDIAのGPUとなっています。

※4dn.xlargeを選ばないとGPUがNVIDIAにならないので注意

NVIDIA GPU情報の確認

NVIDIAのGPUの情報は以下のコマンドで確認できます

nvidia-smi
NVIDIA GPUの情報

Tsla T4が搭載されているのが確認できました。


人気のタグ

Beautiful Soup black calender Channels charset ChromeDriver datetime Docker File Watcher flake8 gettext GitHub glob Google Colaboratory GPU Gunicorn i18n Matplotlib Nginx OpenCV pandas Pillow Pipenv PostgreSQL psycopg2 PyCharm PyCon pyenv random Redis ReportLab requests Selenium timedelta Ubuntu uWSGI venv


株式会社ファントムへのお問い合わせ

群馬県でPythonを使ったAIやソフトウェアを開発している株式会社ファントムが運営しています。




    Show Comments (0)

    Comments

    ,,,