AWS

AWS Deep Learning AMIを用いたGPU環境構築の手順


press
AWS Deep Learning AMIを用いたGPU環境構築の手順

AWS Deep Learning AMIを用いたGPU環境構築の手順

今回はCUDAやcuDNN等の環境が予め構築されていて機械学習に適したインスタンスをかんたんに作成できるAWS Deep Learning AMIを利用してGPU環境を構築します。

今回構築する環境

インスタンスタイプ:g4dn.xlarge
OS:Ubuntu 18.04
AMI:Deep Learning AMI (Ubuntu 18.04) Version 53.0
CUDA:11.0

EC2にはp系とg系の二種類のGPUインスタンスがありますが、今回はGoogle Colaboratoryでも使われている機械学習推論向けGPUでもあるNVIDIA T4が4個搭載されたG4 インスタンスを利用します。

G4 インスタンスにはg4ad.xlargeとg4dn.xlargeの2種類がありadがARMでdnがNVIDIAのGPUとなっています。

※4dn.xlargeを選ばないとGPUがNVIDIAにならないので注意

NVIDIA GPU情報の確認

NVIDIAのGPUの情報は以下のコマンドで確認できます

nvidia-smi
NVIDIA GPUの情報

Tsla T4が搭載されているのが確認できました。


人気のタグ

API Beautiful Soup black Channels charset ChromeDriver CodeCommit datetime Django REST framework Docker enumerate f-string gettext git GitHub glob Google Colaboratory i18n Internship Jupyter Matplotlib Nginx OpenCV pandas PIL Pillow PostgreSQL psycopg2 PyCharm PyCon pyenv PyTorch Redis Rembg ReportLab requests S3 Selenium Sentry slack tqdm uWSGI venv Vue.js youtube


株式会社ファントムへのお問い合わせ

群馬県でPythonを使ったAIやソフトウェアを開発している株式会社ファントムが運営しています。




    Show Comments (0)

    Comments

    Related Articles

    AWS

    AWS Cloud9にPython3.9をインストール

    AWS Cloud9にPython3.9をインストール AWSのCloud9(Ubuntu)にはデフォルトでPython 3.6.9がインストールされています。 openaiに必要なpandasのインストール opena […]

    Posted on by press
    AWS

    AWS LambdaとS3、SNSでファイルのアップロードを自動通知

    AWS LambdaとS3、SNSでファイルのアップロードを自動通知 AWS Lambdaは特定の条件を満たすときにサーバーレスでPython(他のプログラミング言語も)を実行できるサービスです。トリガーを検知したときや […]

    Posted on by press

    最新情報をお届けします!

    メーリングリストに登録するとファントムの最新情報をお届けします

    お客様のメールアドレスを共有することはありません