AWS

AWS Deep Learning AMIを用いたGPU環境構築の手順


press
AWS Deep Learning AMIを用いたGPU環境構築の手順

AWS Deep Learning AMIを用いたGPU環境構築の手順

今回はCUDAやcuDNN等の環境が予め構築されていて機械学習に適したインスタンスをかんたんに作成できるAWS Deep Learning AMIを利用してGPU環境を構築します。

今回構築する環境

インスタンスタイプ:g4dn.xlarge
OS:Ubuntu 18.04
AMI:Deep Learning AMI (Ubuntu 18.04) Version 53.0
CUDA:11.0

EC2にはp系とg系の二種類のGPUインスタンスがありますが、今回はGoogle Colaboratoryでも使われている機械学習推論向けGPUでもあるNVIDIA T4が4個搭載されたG4 インスタンスを利用します。

G4 インスタンスにはg4ad.xlargeとg4dn.xlargeの2種類がありadがARMでdnがNVIDIAのGPUとなっています。

※4dn.xlargeを選ばないとGPUがNVIDIAにならないので注意

NVIDIA GPU情報の確認

NVIDIAのGPUの情報は以下のコマンドで確認できます

nvidia-smi
NVIDIA GPUの情報

Tsla T4が搭載されているのが確認できました。


人気のタグ

Alembic API argparse Beautiful Soup black Channels charset CodeCommit datetime Django REST framework Docker enumerate f-string git GitHub glob Google Colaboratory i18n IAM Internship Jupyter Lambda Matplotlib Nginx OpenCV pandas PIL Pillow PostgreSQL PyCharm PyCon pyenv PyTorch Redis Rembg ReportLab requests S3 Sentry slack tqdm uWSGI venv Vue.js youtube


株式会社ファントムへのお問い合わせ

群馬県でPythonを使ったAIやソフトウェアを開発している株式会社ファントムが運営しています。




    Show Comments (0)

    Comments

    Related Articles

    AWS

    AWSで追加したユーザのMFAに1Passwordを設定

    AWSで追加したユーザのMFAに1Passwordを設定 AWSのコンソールにログインする際にMFA(Multi-Factor Authentication)という多要素認証を設定することで、メールアドレスとパスワードに […]

    Posted on by press
    AWS

    AWS LambdaとS3、SNSでファイルのアップロードを自動通知

    AWS LambdaとS3、SNSでファイルのアップロードを自動通知 AWS Lambdaは特定の条件を満たすときにサーバーレスでPython(他のプログラミング言語も)を実行できるサービスです。トリガーを検知したときや […]

    Posted on by press