Оглавление В предыдущей статье мы установили Theano, в этой займемся Keras. Клонируйте стабильный релиз Keras (1.0.5) на локальный компьютер из GitHub, используя следующие команды: $ cd /c/toolkits $ git clone https://github
В предыдущей статье мы установили Theano, в этой займемся Keras.
Клонируйте стабильный релиз Keras (1.0.5) на локальный компьютер из GitHub, используя следующие команды:
$ cd /c/toolkits
$ git clone https://github.com/fchollet/keras.git keras-1.0.5 --branch 1.0.5
Это должно было склонировать Keras 1.0.5 в c:\toolkits\keras-1.0.5:
Теперь установите его следующим образом:
$ cd /c/toolkits/keras-1.0.5
$ python setup.py install --record installed_files.txt
Список установленных файлов можно найти здесь.
Проверить установку Keras можно следующим образом:
$ conda list | grep -i keras
Мы можем обучить простой convnet (convolutional neural network) на наборе данных MNIST с помощью одного из примеров Keras. Файл называется mnist_cnn.py и его можно найти в папке примеров:
$ cd /c/toolkits/keras-1.0.5/examples
$ python mnist_cnn.py
Без cuDNN, каждая эпоха занимает около 21 с. Если вы установите TechPowerUp's GPU-Z, вы сможете отслеживать, насколько сильно загружен GPU. В данном случае (без cuDNN), мы видим загрузку GPU в 76%.
Теперь давайте установим cuDNN отсюда. Выберите cuDNN библиотеку для Windows 10 от 12 мая 2016 года:
Загруженный ZIP-файл содержит три каталога (bin, include, lib). Извлеките эти каталоги и скопируйте файлы, которые они содержат с одинаковыми именами папок в C:\toolkits\cuda-7.5.18.
Чтобы включить cuDNN, создайте новую системную переменную с именем THEANO_FLAGS_GPU_DNN и со следующим значением:
floatX=float32,device=gpu,optimizer_including=cudnn,lib.cnmem=0.8,dnn.conv.algo_bwd_filter=deterministic,dnn.conv.algo_bwd_data=deterministic,blas.ldflags=-LC:/toolkits/openblas-0.2.14-int32/bin -lopenblas
Выполните следующие команды:
$ THEANO_FLAGS=$THEANO_FLAGS_GPU_DNN
$ cd /c/toolkits/keras-1.0.5/examples
$ python mnist_cnn.py
Теперь, каждая эпоха занимает около 4 с, вместо 21 с, огромный прирост в скорости, с примерно таким же процентом использования GPU:
Вот, собственно, и все.