著名医師による解説が無料で読めます
すると翻訳の精度が向上します
グラフィックプロセシングユニット(GPU)は広く利用可能であり、過去10年間で科学的コンピューティングを加速するために大成功を収めています。ただし、これらの進歩は、スパイクニューラルネットワークのシミュレーションに関心のある研究者が利用できることが多いことが多く、必要な低レベルのコードを書くための技術的知識が不足しています。Pythonの高レベルモデル定義から効率的なCPUコードを生成するためのフレームワークを提供する人気のあるBrian Simulatorを使用する場合、低レベルのコードを作成する必要はありません。ここでは、GPUバックエンドでBrianシミュレーターを拡張するオープンソースソフトウェアであるBrian2Cudaを提示します。私たちの実装は、ニューロン状態の数値統合とGPUでのシナプスイベントの伝播のための効率的なコードを生成し、それらの非常に並行した算術能力を利用します。いくつかのモデルタイプのソフトウェアのパフォーマンスの改善をベンチマークし、ブライアンのCPUバックエンドと比較して最大3桁シミュレーションを加速できることがわかります。現在、Brian2Cudaは、任意のニューロンモデルやシナプスモデル、可塑性ルール、不均一な遅延など、GPUでのBrianの完全な機能セットをサポートする唯一のパッケージです。そのパフォーマンスを、より少ない機能を備えたBrianシミュレーターの別のGPUベースのバックエンドであるBrian2Gennと比較すると、Brian2Cudaが同等のスピードアップを提供し、通常は大規模なネットワークでは小さくて速くなることがあります。ブライアンシミュレーターの柔軟性をGPUのシミュレーション速度と組み合わせることにより、Brian2Cudaにより、研究者は最小限の労力でスピッキングニューラルネットワークを効率的にシミュレートすることができ、それによりGPUコンピューティングの進歩が神経科学者のより多くの視聴者が利用できるようにします。
グラフィックプロセシングユニット(GPU)は広く利用可能であり、過去10年間で科学的コンピューティングを加速するために大成功を収めています。ただし、これらの進歩は、スパイクニューラルネットワークのシミュレーションに関心のある研究者が利用できることが多いことが多く、必要な低レベルのコードを書くための技術的知識が不足しています。Pythonの高レベルモデル定義から効率的なCPUコードを生成するためのフレームワークを提供する人気のあるBrian Simulatorを使用する場合、低レベルのコードを作成する必要はありません。ここでは、GPUバックエンドでBrianシミュレーターを拡張するオープンソースソフトウェアであるBrian2Cudaを提示します。私たちの実装は、ニューロン状態の数値統合とGPUでのシナプスイベントの伝播のための効率的なコードを生成し、それらの非常に並行した算術能力を利用します。いくつかのモデルタイプのソフトウェアのパフォーマンスの改善をベンチマークし、ブライアンのCPUバックエンドと比較して最大3桁シミュレーションを加速できることがわかります。現在、Brian2Cudaは、任意のニューロンモデルやシナプスモデル、可塑性ルール、不均一な遅延など、GPUでのBrianの完全な機能セットをサポートする唯一のパッケージです。そのパフォーマンスを、より少ない機能を備えたBrianシミュレーターの別のGPUベースのバックエンドであるBrian2Gennと比較すると、Brian2Cudaが同等のスピードアップを提供し、通常は大規模なネットワークでは小さくて速くなることがあります。ブライアンシミュレーターの柔軟性をGPUのシミュレーション速度と組み合わせることにより、Brian2Cudaにより、研究者は最小限の労力でスピッキングニューラルネットワークを効率的にシミュレートすることができ、それによりGPUコンピューティングの進歩が神経科学者のより多くの視聴者が利用できるようにします。
Graphics processing units (GPUs) are widely available and have been used with great success to accelerate scientific computing in the last decade. These advances, however, are often not available to researchers interested in simulating spiking neural networks, but lacking the technical knowledge to write the necessary low-level code. Writing low-level code is not necessary when using the popular Brian simulator, which provides a framework to generate efficient CPU code from high-level model definitions in Python. Here, we present Brian2CUDA, an open-source software that extends the Brian simulator with a GPU backend. Our implementation generates efficient code for the numerical integration of neuronal states and for the propagation of synaptic events on GPUs, making use of their massively parallel arithmetic capabilities. We benchmark the performance improvements of our software for several model types and find that it can accelerate simulations by up to three orders of magnitude compared to Brian's CPU backend. Currently, Brian2CUDA is the only package that supports Brian's full feature set on GPUs, including arbitrary neuron and synapse models, plasticity rules, and heterogeneous delays. When comparing its performance with Brian2GeNN, another GPU-based backend for the Brian simulator with fewer features, we find that Brian2CUDA gives comparable speedups, while being typically slower for small and faster for large networks. By combining the flexibility of the Brian simulator with the simulation speed of GPUs, Brian2CUDA enables researchers to efficiently simulate spiking neural networks with minimal effort and thereby makes the advancements of GPU computing available to a larger audience of neuroscientists.
医師のための臨床サポートサービス
ヒポクラ x マイナビのご紹介
無料会員登録していただくと、さらに便利で効率的な検索が可能になります。