Поддерживать
www.wikidata.ru-ru.nina.az
U etogo termina sushestvuyut i drugie znacheniya sm Glubokoe obuchenie znacheniya Glubokoe obuchenie glubinnoe obuchenie angl Deep learning sovokupnost metodov mashinnogo obucheniya s uchitelem s chastichnym privlecheniem uchitelya bez uchitelya s podkrepleniem osnovannyh na obuchenii predstavleniyam angl feature representation learning a ne specializirovannyh algoritmah pod konkretnye zadachi Mnogie metody glubokogo obucheniya byli izvestny eshyo v 1980 e i dazhe ranee no rezultaty ne vpechatlyali poka prodvizheniya v teorii iskusstvennyh nejronnyh setej predobuchenie nejrosetej s pomoshyu specialnogo sluchaya nenapravlennoj graficheskoj modeli tak nazyvaemoj ogranichennoj mashiny Bolcmana i vychislitelnye moshnosti serediny 2000 h godov v tom chisle ispolzuyushie graficheskie uskoriteli programmiruemye polzovatelem ventilnye matricy i razlichnye formy nejronnyh processorov ne pozvolili sozdavat slozhnye tehnologicheskie arhitektury nejronnyh setej obladayushie dostatochnoj proizvoditelnostyu i pozvolyayushie reshat shirokij spektr zadach ne poddavavshihsya effektivnomu resheniyu ranee naprimer v kompyuternom zrenii mashinnom perevode raspoznavanii rechi prichyom kachestvo resheniya vo mnogih sluchayah teper sopostavimo a v nekotoryh prevoshodit effektivnost cheloveka IstoriyaNesmotrya na to chto termin glubokoe obuchenie poyavilsya v nauchnom soobshestve mashinnogo obucheniya tolko v 1986 godu posle raboty Riny Dehter pervyj obshij rabochij algoritm dlya glubokih mnogoslojnyh perceptronov pryamogo rasprostraneniya byl opublikovan v knige sovetskih uchyonyh Alekseya Grigorevicha Ivahnenko i Valentina Grigorevicha Lapy Kiberneticheskie predskazyvayushie ustrojstva eshyo v 1965 g Drugie glubokie arhitektury v osobennosti te kotorye specializiruyutsya na raspoznavanii obrazov berut svoyo nachalo s neokognitrona razrabotannogo angl v 1980 godu V 1989 godu Yanu Lekunu udalos ispolzovat algoritm obratnogo rasprostraneniya oshibki dlya obucheniya glubokih nejrosetej dlya resheniya zadachi raspoznavaniya rukopisnyh ZIP kodov Nesmotrya na uspeshnyj opyt dlya obucheniya modeli potrebovalos tri dnya chto sushestvenno ogranichivalo primenimost etogo metoda Nizkaya skorost obucheniya svyazana so mnogimi faktorami vklyuchaya problemu ischezayushih gradientov iz za bolshogo razbrosa znachenij obuchaemyh parametrov kotoruyu v 1991 godu analizirovali Jorgen Shmidhuber i Zepp Hohrajter Iz za etih problem nejronnye seti v 1990 h godah ustupili mesto metodu opornyh vektorov K 1991 godu takie sistemy ispolzovalis dlya raspoznavaniya izolirovannyh dvumernyh rukopisnyh cifr a raspoznavanie tryohmernyh obektov osushestvlyalos putyom sopostavleniya dvumernyh izobrazhenij s tryohmernoj obektnoj modelyu izgotovlennoj vruchnuyu V 1992 godu sozdana model dlya raspoznavaniya tryohmernyh obektov v zagromozhdyonnyh scenah V 1994 godu Andre de Karvalo vmeste s Majkom Fejrherstom i Devidom Bissetom opublikoval eksperimentalnye rezultaty mnogoslojnoj bulevoj nejronnoj seti takzhe izvestnoj kak nevesomaya nejronnaya set sostoyashaya iz trehurovnevogo samoorganizuyushegosya modulya nejronnoj seti dlya vydeleniya priznakov SOFT a zatem modul nejronnoj seti mnogourovnevoj klassifikacii GSN Kazhdyj modul proshel nezavisimoe drug ot druga obuchenie Kazhdyj sloj v module izvlekal obekty s rastushej slozhnostyu otnositelno predydushego sloya V 1995 godu Brendan Frej prodemonstriroval chto mozhno obuchit v techenie dvuh dnej set soderzhashuyu shest polnostyu soedinennyh sloev i neskolko soten skrytyh yunitov ispolzuya algoritm sna bodrstvovaniya razrabotannyj sovmestno s Piterom Dayanom i Hintonom Mnogie faktory sposobstvuyut nizkoj skorosti vklyuchaya problemu ischezayushego gradienta proanalizirovannuyu v 1991 godu Zeppom Hohrajterom Bolee prostye modeli kotorye ispolzuyut ruchnye raboty specifichnye dlya konkretnoj zadachi takie kak filtry Gabora i metod opornyh vektorov MOV byli populyarnym vyborom v 1990 h i 2000 h godah iz za vychislitelnyh zatrat iskusstvennoj nejronnoj seti INS angl ANN i otsutstviya ponimaniya togo kak mozg svyazyvaet svoi biologicheskie seti Kak poverhnostnoe tak i glubokoe obuchenie naprimer rekurrentnye seti INS izuchalas v techenie mnogih let Eti metody nikogda ne prevoshodili neodnorodnuyu smeshannuyu Gaussovu model i skrytuyu model Markova osnovannuyu na generativnyh modelyah rechi obuchennyh diskriminacionno Byli proanalizirovany klyuchevye trudnosti v tom chisle umenshenie gradienta i slabaya vremennaya korrelyacionnaya struktura v nejronnyh prognosticheskih modelyah Dopolnitelnymi trudnostyami byli otsutstvie obuchayushih dannyh i ogranichennaya vychislitelnaya moshnost Glubokoe obuchenie priobrelo populyarnost v seredine 2000 h godov kogda vsyo soshlos voedino kompyutery stali dostatochno moshnymi chtoby obuchat bolshie nejronnye seti vychisleniya nauchilis delegirovat graficheskim processoram chto uskorilo process obucheniya na poryadok nabory dannyh stali dostatochno obyomnymi chtoby obuchenie bolshih setej imelo smysl a v teorii iskusstvennyh nejronnyh setej proizoshlo ocherednoe prodvizhenie stati Hintona Osindero i Te a takzhe Bendzhio v kotoryh avtory pokazali chto mozhno effektivno predobuchat mnogoslojnuyu nejronnuyu set esli obuchat kazhdyj sloj otdelno pri pomoshi ogranichennoj mashiny Bolcmana a zatem doobuchat pri pomoshi metoda obratnogo rasprostraneniya oshibki Revolyuciya v glubokom obuchenii V 2012 godu komanda pod rukovodstvom Dzhordzha E Dalya vyigrala konkurs Merck Molecular Activity Challenge ispolzuya mnogozadachnye glubokie nejronnye seti dlya prognozirovaniya biomolekulyarnoj misheni odnogo preparata V 2014 godu gruppa Hohrejtera ispolzovala glubokoe obuchenie dlya vyyavleniya necelevyh i toksicheskih effektov himicheskih veshestv prisutstvuyushih v okruzhayushej srede v pitatelnyh veshestvah produktah domashnego obihoda i lekarstvah i vyigrala Tox21 Data Challenge ot Nacionalnogo instituta zdravoohraneniya SShA Upravleniya po sanitarnomu nadzoru za kachestvom pishevyh produktov i medikamentov i NCATS Konceptualnoe izobrazhenie glubokogo obucheniya v vide podmnozhestva mashinnogo obucheniya a mashinnogo obucheniya kak podmnozhestvo iskusstvennogo intellekta II Znachitelnoe razvitie v raspoznavanii izobrazhenij ili obektov oshushalos v period s 2011 po 2012 gody Hotya svertochnye nejronnye seti SNN obuchennye obratnomu rasprostraneniyu sushestvovali v techenie desyatiletij i GPU vnedryali nejronnye seti v techenie mnogih let vklyuchaya SNN bystrye realizacii SNN na GPU ispolzovali dlya razvitiya kompyuternogo zreniya V 2011 godu etot podhod vpervye pozvolil dobitsya sverhchelovecheskoj proizvoditelnosti v konkurse vizualnogo raspoznavaniya obrazov Takzhe v 2011 godu on vyigral konkurs rukopisnogo vvoda ICDAR a v mae 2012 goda konkurs segmentacii izobrazhenij ISBI Do 2011 goda SNN ne igrali osnovnoj roli na konferenciyah po kompyuternomu zreniyu no v iyune 2012 goda doklad Ciresana na vedushej konferencii CVPR pokazal kak maksimalnoe obedinenie SNN na GPU mozhet znachitelno uluchshit mnogie rezultaty benchmarkov V oktyabre 2012 g analogichnaya sistema byla razrabotana Krizhevskim kollektiv kotorogo vyigral krupnomasshtabnyj konkurs ImageNet so znachitelnym preimushestvom po sravneniyu s metodami poverhnostnogo mashinnogo obucheniya V noyabre 2012 goda komanda Ciresana takzhe vyigrala konkurs ICPR po analizu bolshih medicinskih izobrazhenij dlya vyyavleniya raka a v sleduyushem godu MICCAI Grand Challenge po toj zhe teme V 2013 i 2014 godah chastota oshibok v zadache ImageNet s ispolzovaniem glubokogo obucheniya byla eshyo snizhena vsledstvie analogichnoj tendencii v shirokomasshtabnom raspoznavanii rechi Stiven Volfram v ramkah proekta po identifikacii izobrazhenij opublikoval eti uluchsheniya Klassifikaciya izobrazhenij byla zatem rasshirena do bolee slozhnoj zadachi generacii opisanij podpisej dlya izobrazhenij chasto v vide kombinacii SNN i LSTM Nekotorye issledovateli schitayut chto pobeda ImageNet v oktyabre 2012 goda polozhila nachalo revolyucii glubokogo obucheniya kotoraya izmenila industriyu iskusstvennogo intellekta V marte 2019 goda Joshua Benzhio Dzheffri Hinton i Yann LeKun byli nagrazhdeny premiej Tyuringa za konceptualnye i inzhenernye proryvy kotorye sdelali glubokie nejronnye seti kriticheskim komponentom vychislenij Nejronnye setiIskusstvennye nejronnye seti INS eto vychislitelnye sistemy osnovannye na principah biologicheskih nejronnyh setej sostavlyayushih mozg zhivotnyh Takie sistemy uchatsya postepenno uluchshayut svoi sposobnosti vypolnyat zadachi kak pravilo bez programmirovaniya dlya resheniya konkretnyh zadach Naprimer pri raspoznavanii izobrazhenij koshek oni mogut nauchitsya raspoznavat izobrazheniya soderzhashie koshek analiziruya primery izobrazhenij kotorye byli vruchnuyu pomecheny kak koshka ili net koshki i ispolzuya rezultaty analiza dlya identifikacii koshek na drugih izobrazheniyah Naibolshee primenenie INS nashli v programmnyh prilozheniyah kotorye trudno vyrazit tradicionnym kompyuternym algoritmom ispolzuyushim programmirovanie na osnove pravil INS osnovany na nabore svyazannyh edinic nazyvaemyh iskusstvennymi nejronami analog biologicheskih nejronov v biologicheskom mozge Kazhdoe soedinenie sinaps mezhdu nejronami mozhet peredavat signal drugomu nejronu Prinimayushij postsinapticheskij nejron mozhet obrabatyvat signal signaly i zatem signalizirovat o podklyuchennyh k nemu nejronah Nejrony mogut imet sostoyanie obychno predstavlyaemoe dejstvitelnymi chislami obychno mezhdu 0 i 1 Nejrony i sinapsy mogut takzhe imet ves kotoryj izmenyaetsya v processe obucheniya chto mozhet uvelichivat ili umenshat silu signala kotoryj on posylaet dalee Kak pravilo nejrony organizovany v sloi Raznye sloi mogut vypolnyat razlichnye vidy preobrazovanij Signaly prohodyat ot pervogo vhodnogo do poslednego vyhodnogo sloya vozmozhno posle mnogokratnogo prohozhdeniya sloev Pervonachalnaya cel nejrosetevogo podhoda sostoyala v tom chtoby reshat zadachi tak zhe kak eto delaet chelovecheskij mozg So vremenem vnimanie sosredotochilos na podbore opredelyonnyh intellektualnyh sposobnostej chto privelo k otkloneniyam ot biologii takim kak obratnoe rasprostranenie ili peredache informacii v obratnom napravlenii i nastrojke seti dlya otrazheniya etoj informacii Nejronnye seti ispolzuyutsya dlya resheniya razlichnyh zadach vklyuchaya mashinnoe zrenie raspoznavanie rechi mashinnyj perevod filtraciyu v socialnyh setyah videoigry i medicinskuyu diagnostiku Nachinaya s 2017 goda nejronnye seti obychno imeyut ot neskolkih tysyach do neskolkih millionov edinic i milliony soedinenij Nesmotrya na to chto eto chislo na neskolko poryadkov menshe chem chislo nejronov v chelovecheskom mozge eti seti mogut vypolnyat mnozhestvo zadach na urovne prevyshayushem vozmozhnosti lyudej naprimer raspoznavanie lic igra v go Glubokie nejronnye seti Glubokaya nejronnaya set glubinnaya nejronnaya set GNS angl DNN Deep neural network eto iskusstvennaya nejronnaya set INS s neskolkimi sloyami mezhdu vhodnym i vyhodnym sloyami GNS nahodit korrektnyj metod matematicheskih preobrazovanij chtoby prevratit vhodnye dannye v vyhodnye nezavisimo ot linejnoj ili nelinejnoj korrelyacii Set prodvigaetsya po sloyam rasschityvaya veroyatnost kazhdogo vyhoda Naprimer GNS kotoraya obuchena raspoznavat porody sobak projdet po zadannomu izobrazheniyu i vychislit veroyatnost togo chto sobaka na izobrazhenii otnositsya k opredelyonnoj porode Polzovatel mozhet prosmotret rezultaty i vybrat veroyatnosti kotorye dolzhna otobrazhat set vyshe opredelyonnogo poroga naprimer i vernut v set predlozhennuyu metku Kazhdoe matematicheskoe preobrazovanie schitaetsya sloem a slozhnye GNS imeyut mnogo sloev otsyuda i nazvanie glubinnye ili glubokie seti GNS mogut modelirovat slozhnye nelinejnye otnosheniya Arhitektury GNS generiruyut kompozicionnye modeli v kotoryh obekt vyrazhaetsya v vide mnogourovnevoj kompozicii primitivov Dopolnitelnye urovni pozvolyayut sostavlyat elementy iz bolee nizkih urovnej potencialno modeliruya slozhnye dannye s menshim kolichestvom edinic chem melkaya set s analogichnymi pokazatelyami Glubokaya arhitektura vklyuchaet v sebya mnozhestvo variantov neskolkih osnovnyh podhodov Kazhdaya arhitektura nashla uspeh v opredelyonnyh oblastyah Ne vsegda vozmozhno sravnit proizvoditelnost neskolkih arhitektur esli oni ne byli oceneny na odnih i teh zhe naborah dannyh GNS kak pravilo predstavlyayut soboj seti s pryamoj svyazyu v kotoryh dannye peredayutsya ot vhodnogo urovnya k vyhodnomu urovnyu bez obratnoj svyazi Snachala GNS sozdaet kartu virtualnyh nejronov i naznachaet sluchajnye chislovye znacheniya ili vesa soedineniyam mezhdu nimi Vesa i vhodnye dannye umnozhayutsya i vozvrashayut vyhodnoj signal ot 0 do 1 Esli set ne tochno raspoznala konkretnyj shablon algoritm budet korrektirovat vesovye koefficienty do teh por poka ne opredelit koefficienty pravilno obrabatyvayushie dannye OpredeleniyaAlgoritmy mashinnogo obucheniya Glubokoe obuchenie harakterizuetsya kak klass algoritmov mashinnogo obucheniya kotoryj ispolzuet mnogoslojnuyu sistemu nelinejnyh filtrov dlya izvlecheniya priznakov s preobrazovaniyami Kazhdyj posleduyushij sloj poluchaet na vhode vyhodnye dannye predydushego sloya Sistema glubokogo obucheniya mozhet sochetat algoritmy obucheniya s uchitelem i bez uchitelya pri etom analiz obrazca predstavlyaet soboj obuchenie bez uchitelya a klassifikaciya obuchenie s uchitelem obladaet neskolkimi sloyami vyyavleniya priznakov ili parametrov predstavleniya dannyh obuchenie bez uchitelya Pri etom priznaki organizovany ierarhicheski priznaki bolee vysokogo urovnya yavlyayutsya proizvodnymi ot priznakov bolee nizkogo urovnya yavlyaetsya chastyu bolee shirokoj oblasti mashinnogo obucheniya izucheniya predstavlenij dannyh formiruet v processe obucheniya sloi na neskolkih urovnyah predstavlenij kotorye sootvetstvuyut razlichnym urovnyam abstrakcii sloi obrazuyut ierarhiyu ponyatij Vse opredeleniya konstatiruyut nalichie neskolkih sloev nelinejnoj obrabotki obuchenie s uchitelem ili bez uchitelya priznakov kazhdogo sloya formiruya ierarhiyu ot nizkogo do vysokogo urovnya Sostav konkretnyh nelinejnyh sloyov zavisit ot reshaemoj problemy Ispolzuyutsya kak skrytye sloi nejronnoj seti tak i sloi slozhnyh logicheskih preobrazovanij Sistema mozhet vklyuchat skrytye peremennye organizovannye poslojno v glubokih generativnyh modelyah takih kak uzly v glubokoj seti doveriya i glubokoj ogranichennoj mashine Bolcmana Algoritmy glubokogo obucheniya protivopostavleny algoritmam neglubokogo obucheniya po kolichestvu parametrizovannyh preobrazovanij s kotorymi stalkivaetsya signal rasprostranyayushijsya ot vhodnogo sloya k vyhodnomu sloyu gde parametrizovannym preobrazovaniem schitaetsya takoj blok obrabotki dannyh u kotorogo est obuchaemye parametry takie kak vesa ili porogi Cepochka preobrazovanij ot vhoda k vyhodu nazyvaetsya CAP putyom peredachi otvetstvennosti angl credit assignment path CAP CAP opisyvayut potencialnye prichinnye svyazi vdol seti ot vhoda k vyhodu pri etom put v raznyh vetvyah mozhet imet raznuyu dlinu Dlya nejronnoj seti pryamogo rasprostraneniya feedforward glubina CAP ne otlichaetsya ot glubiny seti i ravna kolichestvu skrytyh sloev plyus odin vyhodnoj sloj takzhe parametrizovan Dlya rekurrentnyh nejronnyh setej v kotoryh signal mozhet pereskakivat cherez sloi minuya promezhutochnye CAP iz za obratnoj svyazi potencialno neogranichen v dline Ne sushestvuet universalno soglasovannogo poroga glubiny deleniya neglubokogo obucheniya ot glubokogo obucheniya no obychno schitaetsya chto glubokoe obuchenie harakterizuetsya neskolkimi nelinejnymi sloyami CAP gt 2 Jorgen Shmidhuber vydelyaet takzhe ochen glubokoe obuchenie kogda CAP gt 10 SoderzhanieGlubokoe obuchenie eto algoritmy mashinnogo obucheniya dlya modelirovaniya vysokourovnevyh abstrakcij s primeneniem mnogochislennyh V pervuyu ochered k glubinnomu obucheniyu otnosyatsya sleduyushie metody i ih variacii Opredelyonnye sistemy obucheniya bez uchitelya takie kak ogranichennaya mashina Bolcmana dlya predvaritelnogo obucheniya avtokodirovshik glubokaya set doveriya generativno sostyazatelnaya set Opredelyonnye sistemy obucheniya s uchitelem takie kak svyortochnaya nejronnaya set kotoraya vyvela na novyj uroven tehnologii raspoznavaniya obrazov Rekurrentnye nejronnye seti pozvolyayushie obuchatsya na processah vo vremeni Rekursivnye nejronnye seti pozvolyayushie vklyuchat obratnuyu svyaz mezhdu elementami shemy i cepochkami Kombiniruya eti metody sozdayutsya slozhnye sistemy sootvetstvuyushie razlichnym zadacham iskusstvennogo intellekta Glubokoe obuchenie yavlyaetsya aprobirovannoj vyborkoj iz shirokogo semejstva metodov mashinnogo obucheniya dlya predstavlenij dannyh naibolee sootvetstvuyushih harakteru zadachi Izobrazhenie naprimer mozhet byt predstavleno mnogimi sposobami takimi kak vektor intensivnosti znachenij na piksel ili v bolee abstraktnoj forme kak mnozhestvo primitivov oblastej opredelyonnoj formy i t d Udachnye predstavleniya dannyh oblegchayut reshenie konkretnyh zadach naprimer raspoznavaniya lic i vyrazhenij lica V sistemah glubokogo obucheniya avtomatiziruet sam process vybora i nastrojki priznakov provodya angl bez uchitelya ili s chastichnym privlecheniem uchitelya ispolzuya dlya etogo effektivnye algoritmy i ierarhicheskoe angl Issledovaniya v etoj oblasti pozvolili usovershenstvovat modeli raboty s bolshimi obyomami nemarkirovannyh dannyh Nekotorye podhody voznikli v rezultate dostizhenij v oblasti nejronauk uspehov interpretacii obrabotki informacii postroeniya kommunikacionnyh modelej v nervnoj sisteme takih kak nejronnoe kodirovanie svyazannoe s opredeleniem otnosheniya mezhdu stimulom i nejronnymi reakciyami i vzaimosvyazi elektricheskoj aktivnosti mezhdu nejronami v golovnom mozge Sistemy glubokogo obucheniya nashli primenenie v takih oblastyah kak kompyuternoe zrenie raspoznavanie rechi obrabotka estestvennogo yazyka audioraspoznavanie bioinformatika gde dlya ryada zadach byli prodemonstrirovany sushestvenno luchshie rezultaty chem ranee Nesmotrya na uspehi ispolzovaniya glubinnogo obucheniya u nego vsyo zhe est fundamentalnoe ogranichenie modeli glubinnogo obucheniya ogranicheny v tom chto oni mogut predstavlyat i bolshinstvo programm nelzya vyrazit v vide nepreryvnogo geometricheskogo morfinga mnogoobraziya dannyh Ostalos odnako i skepticheskoe predstavlenie chto glubokoe obuchenie ne chto inoe kak modnoe slovo ili rebrending dlya nejronnyh setej Sm takzheSravnenie programm glubinnogo obucheniyaPrimechaniyaNa samom dele pervye glubokie seti poyavilis eshyo v seredine 1960 h seti v vide glubokih perceptronov byli opisany v rabotah sovetskih uchyonyh A G Ivahnenko i V G Lapy sm dalee razdel Istoriya Issledovatel nejronnyh setej Dzhon Denker John Denker v 1994 godu zametil Nejronnye seti eto vtoroj luchshij sposob sdelat prakticheski chto ugodno Ciresan Dan Meier U Schmidhuber J Multi column deep neural networks for image classification angl 2012 IEEE Conference on Computer Vision and Pattern Recognition journal 2012 June P 3642 3649 doi 10 1109 cvpr 2012 6248110 20 fevralya 2018 goda Rina Dechter 1986 Learning while searching in constraint satisfaction problems ot 19 aprelya 2016 na Wayback Machine University of California Computer Science Department Cognitive Systems Laboratory Ivahnenko A G Kiberneticheskie predskazyvayushie ustrojstva K Naukova dumka 1965 216 s ISBN 978 5 458 61159 6 Yann LeCun et al neopr Data obrasheniya 28 avgusta 2014 Arhivirovano iz originala 29 maya 2015 goda J Weng N Ahuja and T S Huang Cresceptron a self organizing neural network which grows adaptively Proc International Joint Conference on Neural Networks Baltimore Maryland vol I pp 576 581 June 1992 21 sentyabrya 2017 goda J Weng N Ahuja and T S Huang Learning recognition and segmentation of 3 D objects from 2 D images Proc 4th International Conf Computer Vision Berlin Germany pp 121 128 May 1993 21 sentyabrya 2017 goda J Weng N Ahuja and T S Huang Learning recognition and segmentation using the Cresceptron International Journal of Computer Vision vol 25 no 2 pp 105 139 Nov 1997 25 yanvarya 2021 goda de Carvalho Andre C L F Fairhurst Mike C Bisset David 1994 08 08 An integrated Boolean neural network for pattern classification Pattern Recognition Letters S 807 813 doi 10 1016 0167 8655 94 90009 4 25 avgusta 2019 goda Hinton Geoffrey E Dayan Peter Frey Brendan J Neal Radford The wake sleep algorithm for unsupervised neural networks Science 268 5214 1158 1161 1995 05 26 doi 10 1126 science 7761831 25 avgusta 2019 goda S Hochreiter Untersuchungen zu dynamischen neuronalen Netzen Diploma thesis Institut f Informatik Technische Univ Munich Advisor J Schmidhuber 1991 6 marta 2015 goda Hochreiter S et al Gradient flow in recurrent nets the difficulty of learning long term dependencies In Kolen John F Kremer Stefan C eds A Field Guide to Dynamical Recurrent Networks John Wiley amp Sons 15 January 2001 ISBN 978 0 7803 5369 5 19 avgusta 2020 goda Morgan Nelson Bourlard Herve Renals Steve Cohen Michael Franco Horacio Hybrid neural network hidden markov model systems for continuous speech recognition International Journal of Pattern Recognition and Artificial Intelligence 1993 08 01 07 4 899 916 ISSN 0218 0014 doi 10 1142 s0218001493000455 Robinson T A real time recurrent error propagation network word recognition system ICASSP Icassp 92 617 620 1992 ISBN 9780780305328 Waibel A Hanazawa T Hinton G Shikano K Lang K J Phoneme recognition using time delay neural networks IEEE Transactions on Acoustics Speech and Signal Processing 37 3 328 339 March 1989 ISSN 0096 3518 doi 10 1109 29 21701 hdl 10338 dmlcz 135496 Baker J Deng Li Glass Jim Khudanpur S Lee C H Morgan N O Shaughnessy D 2009 Research Developments and Directions in Speech Recognition and Understanding Part 1 IEEE Signal Processing Magazine 26 3 75 80 doi 10 1109 msp 2009 932166 Bengio Y Artificial Neural Networks and their Application to Speech Sequence Recognition McGill University Ph D thesis 1991 9 maya 2021 goda Deng L Hassanein K Elmasry M Analysis of correlation structure for a neural predictive model with applications to speech recognition Neural Networks 7 2 1994 S 331 339 doi 10 1016 0893 6080 94 90027 2 A Fast Learning Algorithm for Deep Belief Nets neopr Data obrasheniya 24 yanvarya 2018 23 dekabrya 2015 goda Bengio Yoshua 2012 Practical recommendations for gradient based training of deep architectures arXiv 1206 5533 Announcement of the winners of the Merck Molecular Activity Challenge neopr Data obrasheniya 27 noyabrya 2019 21 iyunya 2017 goda NCATS Announces Tox21 Data Challenge Winners neopr Data obrasheniya 27 noyabrya 2019 8 sentyabrya 2015 goda Ciresan Dan Giusti Alessandro Gambardella Luca M Schmidhuber Juergen Advances in Neural Information Processing Systems Curran Associates Inc 2012 S 2843 2851 9 avgusta 2017 goda Ciresan D Meier U Schmidhuber J Multi column deep neural networks for image classification IEEE Conference on Computer Vision and Pattern Recognition 2012 S 3642 3649 ISBN 978 1 4673 1228 8 doi 10 1109 cvpr 2012 6248110 arXiv 1202 2745 Krizhevsky Alex Sutskever Ilya Hinton Geoffry ImageNet Classification with Deep Convolutional Neural Networks NIPS 2012 Neural Information Processing Systems Lake Tahoe Nevada 2012 10 yanvarya 2017 goda Ciresan D Giusti A Gambardella L M Schmidhuber J Mitosis Detection in Breast Cancer Histology Images using Deep Neural Networks Proceedings MICCAI Lecture Notes in Computer Science 7908 Pt 2 411 418 2013 ISBN 978 3 642 38708 1 doi 10 1007 978 3 642 40763 5 51 PMID 24579167 The Wolfram Language Image Identification Project www imageidentify com Retrieved 2017 03 22 neopr Data obrasheniya 29 noyabrya 2019 22 iyulya 2020 goda Vinyals Oriol Toshev Alexander Bengio Samy Erhan Dumitru Show and Tell A Neural Image Caption Generator cs CV 2014 arXiv 1411 4555 Fang Hao Gupta Saurabh Iandola Forrest Srivastava Rupesh Deng Li Dollar Piotr Gao Jianfeng He Xiaodong Mitchell Margaret Platt John C Lawrence Zitnick C Zweig Geoffrey From Captions to Visual Concepts and Back cs CV 2014 arXiv https arxiv org abs 1411 4952 Kiros Ryan Salakhutdinov Ruslan Zemel Richard S Unifying Visual Semantic Embeddings with Multimodal Neural Language Models cs LG 2014 arXiv https arxiv org abs 1411 2539 Zhong Sheng hua Liu Yan Liu Yang Bilinear Deep Learning for Image Classification Proceedings of the 19th ACM International Conference on Multimedia MM 11 New York NY USA ACM 2011 S 343 352 ISBN 9781450306164 doi 10 1145 2072298 2072344 Why Deep Learning Is Suddenly Changing Your Life neopr Fortune 13 aprelya 2018 Data obrasheniya 30 noyabrya 2019 14 aprelya 2018 goda Silver David Huang Aja Maddison Chris J Guez Arthur Sifre Laurent Driessche George van den Schrittwieser Julian Antonoglou Ioannis Panneershelvam Veda Mastering the game of Go with deep neural networks and tree search Nature 529 7587 January 2016 ISSN 1476 4687 doi 10 1038 nature16961 Bibcode 2016Natur 529 484S PMID 26819042 Bengio Yoshua Learning Deep Architectures for AI Foundations and Trends in Machine Learning 2 1 1 127 2009 doi 10 1561 2200000006 4 marta 2016 goda Schmidhuber J Deep Learning in Neural Networks An Overview Neural Networks 61 85 117 2015 doi 10 1016 j neunet 2014 09 003 arXiv 1404 7828 PMID 25462637 Szegedy Christian Toshev Alexander Erhan Dumitru Deep neural networks for object detection Advances in Neural Information Processing Systems 2013 S 2553 2561 29 iyunya 2017 goda Hof Robert D Is Artificial Intelligence Finally Coming into Its Own MIT Technology Review Retrieved 2018 07 10 31 marta 2019 goda Deng L Yu D Deep Learning Methods and Applications neopr Foundations and Trends in Signal Processing 2014 T 7 3 4 S 1 199 doi 10 1561 2000000039 14 marta 2016 goda Bengio Yoshua Learning Deep Architectures for AI neopr Foundations and Trends in Machine Learning 2009 T 2 1 S 1 127 doi 10 1561 2200000006 4 marta 2016 goda neopr Data obrasheniya 24 noyabrya 2017 Arhivirovano iz originala 4 marta 2016 goda Schmidhuber J Deep Learning in Neural Networks An Overview neopr Neural Networks 2015 T 61 S 85 117 doi 10 1016 j neunet 2014 09 003 arXiv 1404 7828 PMID 25462637 Bengio Y Courville A Vincent P Representation Learning A Review and New Perspectives angl angl journal 2013 Vol 35 no 8 P 1798 1828 doi 10 1109 tpami 2013 50 arXiv 1206 5538 Bengio Yoshua LeCun Yann Hinton Geoffrey Deep Learning angl Nature 2015 Vol 521 P 436 444 doi 10 1038 nature14539 PMID 26017442 Glauner P 2015 Deep Convolutional Neural Networks for Smile Recognition MSc Thesis Imperial College London Department of Computing arXiv 1508 06535 Song Lee Neural Information Processing 2013 Olshausen B A Emergence of simple cell receptive field properties by learning a sparse code for natural images angl Nature journal 1996 Vol 381 no 6583 P 607 609 doi 10 1038 381607a0 Bibcode 1996Natur 381 607O PMID 8637596 Francois Chollet Chapter 9 Section 2 Deep Learning with Python Manning 2017 350 p ISBN 9781617294433 Collobert R April 2011 Deep Learning for Efficient Discriminative Parsing VideoLectures net Event occurs at 7min 45s 19 oktyabrya 2020 Data obrasheniya 14 dekabrya 2016 neopr Data obrasheniya 14 dekabrya 2016 Arhivirovano 19 oktyabrya 2020 goda Gomes Machine Learning Maestro Michael Jordan on the Delusions of Big Data and Other Huge Engineering EffortsLiteraturaGudfellou Ya Bendzhio I Kurvill A Glubokoe obuchenie Deep Learning M DMK Press 2017 652 s ISBN 978 5 97060 554 7 Nikolenko S Kadurin A Arhangelskaya E Glubokoe obuchenie SPb Piter 2018 480 s ISBN 978 5 496 02536 2 V drugom yazykovom razdele est bolee polnaya statya Deep learning angl Vy mozhete pomoch proektu rasshiriv tekushuyu statyu s pomoshyu perevoda
Вершина