Open Source im professionellen Einsatz

Facebook gibt schnelle Deep-Learning-Module für Torch frei

20.01.2015

Facebook AI Research (FAIR) veröffentlicht einige schnelle Deep-Learning-Module für Torch, eine Entwicklungsumgebung für maschinelles Lernen und Sehen, unter einer Open-Source-Lizenz.

210

Deep-Learning-Algorithmen gehören zum maschinellen Lernen und Sehen und ganz allgemein zum Feld der Künstlichen Intelligenz (KI) und helfen zum Beispiel dabei, Gegenstände und Menschen auf Bildern automatisiert zu identifizieren. Torch ist eine Entwicklungsumgebung für entsprechende Software und unter anderem bei Google, Twitter, Nvidia, AMD und Intel im Einsatz.

Facebook AI Research (FAIR) hat nun einige Module für Torch veröffentlicht, die deutlich schneller arbeiten, als die standardmäßig angebotenen Torch-Module. Dazu gehören GPU-optimierte Module für Convolutional Neural Networks (CNN) sowie für Netzwerke, die in NLP-Anwendungen (Natural Language Processing) gebraucht werden.

Zur Release gehören auch eine Reihe von CUDA-Modulen, etwa Container, die das parallele Training auf mehreren GPUs erlauben, eine optimierte Lookup-Tabelle, ein hierarchisches Soft-Max-Modul oder ein deutlich schnellerer Temporal Convolution Layer.

Im Mittelpunkt sehen die Entwickler laut ihrer Ankündigung das Modul für Convolutional Networks, das FFT-basiert arbeitet und angepasste CUDA-Kernel verwendet, die auf Nvidias Cu-FFT-Bibliothek aufsetzen. Faltungen, so der deutsche Begriff für Convolutions, beanspruchen einen Großteil der Rechenzeit in CNNs. Der von Facebook optimierte Code laufe bis zu 23 mal schneller als der bislang frei verfügbare. Der Blogpost liefert weitere technische Details und Testergebnisse zum Thema, am Ende gibt es zudem einige Links zum Code auf Github.

Ähnliche Artikel

comments powered by Disqus

Stellenmarkt

Artikelserien und interessante Workshops aus dem Magazin können Sie hier als Bundle erwerben.