EEPW首頁(yè) >>
主題列表 >>
深度學(xué)習
深度學(xué)習 文章 進(jìn)入深度學(xué)習技術(shù)社區
TFLite模型的開(kāi)盲盒體驗
- TFLite模型的開(kāi)盲盒體驗之flatbuffer格式介紹相信在嵌入式平臺上部署過(guò)神經(jīng)網(wǎng)絡(luò )模型的伙伴,都不會(huì )對TFLite格式陌生。TFLite是谷歌推出的一個(gè)輕量級推理庫,它的主要目標是在移動(dòng)端和嵌入式設備上部署深度學(xué)習模型。為了在這些設備上運行,需要將訓練好的TensorFlow模型轉換成一種特殊的格式,這就是TensorFlow Lite模型。轉換過(guò)程包括模型轉化、部署和優(yōu)化三個(gè)步驟,旨在提升運算速度并減少內存、顯存占用。具體來(lái)說(shuō),這其中最終要的就是以.TFLite為格式的模型文件,其主結構為一個(gè)M
- 關(guān)鍵字: TFLite 模型 推理庫 深度學(xué)習
Firefly DL小巧輕便,嵌入式深度學(xué)習加速部署
- 近年來(lái),機器視覺(jué)系統越來(lái)越多地基于可變條件進(jìn)行自動(dòng)化決策。開(kāi)發(fā)這些系統所需的時(shí)間和精力可能會(huì )讓人望而卻步。而深度學(xué)習的出現正在改變這一局面,并使自動(dòng)化決策觸手可及。開(kāi)源庫、Nvidia硬件和FLIR相機等資源正在幫助實(shí)現這一變化。走進(jìn)深度學(xué)習“一張圖片勝過(guò)千言萬(wàn)語(yǔ)”這句話(huà)在機器視覺(jué)領(lǐng)域里從未像今天這樣真實(shí)。機器視覺(jué)可以將數千甚至數百萬(wàn)行代碼用簡(jiǎn)單地經(jīng)過(guò)圖片和少量編碼訓練后的的神經(jīng)網(wǎng)絡(luò )所代替。深度學(xué)習是一種機器學(xué)習形式,它使用在輸入和輸出節點(diǎn)之間有許多“深層”層的神經(jīng)網(wǎng)絡(luò )。通過(guò)在大數據集上訓練網(wǎng)絡(luò ),可以創(chuàng )建
- 關(guān)鍵字: Firefly DL 深度學(xué)習 人工智能
基于深度學(xué)習的智能電網(wǎng)短期日負荷曲線(xiàn)預測系統設計與實(shí)現

- 短期電力負荷精準預測對發(fā)電容量與輸電方式的合理調度、確保電力系統安全、穩定運行起著(zhù)至關(guān)重要的作用。本文針對負荷數據基數大、難提取、負荷預測影響因素多等問(wèn)題,運用Mysql數據庫和Python爬蟲(chóng)技術(shù)構建了短期負荷曲線(xiàn)預測基礎數據平臺,提高了數據的存取效率;針對電力負荷的隨機波動(dòng)性,運用Pandas、關(guān)聯(lián)分析算法完成了缺失值處理和影響因素與用電負荷的相關(guān)性分析;為提高預測精度,探索使用了融合卷積神經(jīng)網(wǎng)絡(luò )、長(cháng)短期記憶網(wǎng)格和注意力機制的多元混合神經(jīng)網(wǎng)絡(luò )模型。
- 關(guān)鍵字: 202302 深度學(xué)習 短期負荷預測 卷積神經(jīng)網(wǎng)絡(luò ) 長(cháng)短期記憶網(wǎng)格 Flask
視覺(jué)慣性導航融合算法研究進(jìn)展

- 視覺(jué)慣性導航一直是無(wú)人駕駛與機器人領(lǐng)域重點(diǎn)、難點(diǎn)環(huán)節。首先介紹經(jīng)典算法框架,從基于最優(yōu)平滑算法和預積分理論兩個(gè)層面介紹經(jīng)典視覺(jué)慣性融合算法。然后介紹新型算法框架,主要在深度學(xué)習基礎上,從對整體框架學(xué)習的程度,將新型視覺(jué)慣性融合算法分為兩類(lèi),部分學(xué)習和整體學(xué)習,最后介紹了主流算法中關(guān)鍵技術(shù)與未來(lái)展望。
- 關(guān)鍵字: 202302 視覺(jué)慣性導航 優(yōu)化 耦合算法 深度學(xué)習
基于深度學(xué)習的跌倒檢測技術(shù)對比與分析*

- 基于意外跌倒是造成老年人受傷、失能及死亡的主要原因,對近年來(lái)關(guān)于深度學(xué)習的跌倒檢測研究進(jìn)行了介紹。根據跌倒檢測工作流程,從數據采集、數據處理、模型訓練及狀態(tài)識別幾個(gè)方面進(jìn)行了詳細介紹,并對已有的基于深度學(xué)習的跌倒檢測方法進(jìn)行分析與比較,為將來(lái)的應用研究提供參考,并對將來(lái)的發(fā)展方向提出一些思考。
- 關(guān)鍵字: 深度學(xué)習 跌倒檢測 卷積神經(jīng)網(wǎng)絡(luò ) 長(cháng)短期記憶網(wǎng)絡(luò ) 202212
一種改進(jìn)的可遷移深度學(xué)習模型*

- 摘 要:本文設計了一種改進(jìn)的可遷移深度學(xué)習模型。該模型能夠在離開(kāi)可靠的訓練環(huán)境(其中存在標簽)并被 置于純粹的無(wú)標簽數據的領(lǐng)域時(shí),輸出依然可以持續得到改善,這種訓練方式可以降低對監督學(xué)習的依賴(lài)程度。關(guān)鍵詞:可遷移;深度學(xué)習;無(wú)標簽*基金項目:湖南省教育廳科學(xué)研究課題“基于深度學(xué)習的智能無(wú)人機目標檢測算法研究”(20C0105);湖南省 自然科學(xué)基金項目《基于高光譜特征信息融合的油菜籽品質(zhì)參數反演與建?!罚?021JJ60093);校級培育項目 “基于深度學(xué)習的目標檢測算法研究”(22mypy15)1
- 關(guān)鍵字: 202210 可遷移 深度學(xué)習 無(wú)標簽
基于圖結構的圖像注意力網(wǎng)絡(luò )

- 摘要:雖然現已有許多關(guān)于圖像注意力機制的研究,但是現有的方法往往忽視了特征圖的全局空間結構和空 間注意力與通道注意力的聯(lián)系。所以本文提出了一種基于整個(gè)空間拓撲結構的注意機制,將特征圖映射成結點(diǎn) 與特征的形式,再借助圖卷積網(wǎng)絡(luò )的特性,得以從整個(gè)空間學(xué)習特征權重圖。其次空間注意力與通道注意力一 體化結構能夠更有效地學(xué)習特征權重。通過(guò)多個(gè)實(shí)驗測試表明,在圖像分類(lèi)和人臉識別任務(wù)中,展現了優(yōu)異的 性能和普遍適用性。關(guān)鍵詞:深度學(xué)習;注意力機制;圖像分類(lèi);人臉識別 隨著(zhù)計算機性能的提升,卷積神經(jīng)網(wǎng)絡(luò ) (co
- 關(guān)鍵字: 202207 深度學(xué)習 注意力機制 圖像分類(lèi) 人臉識別
直覺(jué)有害!Facbook最新研究:易于解釋的神經(jīng)元會(huì )誤導DNN的學(xué)習
- 編譯|蔣寶尚 關(guān)于A(yíng)I是什么,學(xué)界和業(yè)界已經(jīng)給出了非常多的定義,但是對于A(yíng)I理解,探討尚不足。換句話(huà)說(shuō),計算機科學(xué)家解釋深度神經(jīng)網(wǎng)絡(luò )(DNNs)的能力大大落后于我們利用其取得有用結果的能力?! ‘斍袄斫馍疃壬窠?jīng)網(wǎng)絡(luò )的常見(jiàn)做法是在單個(gè)神經(jīng)元特性上“折騰”。例如,激活識別貓圖像的神經(jīng)元,而關(guān)閉其他神經(jīng)元的“控制變量法”。這種方法的學(xué)術(shù)術(shù)語(yǔ)叫做“類(lèi)選擇性”?! ∮捎谥庇^(guān)和易理解,“類(lèi)選擇性”在學(xué)界廣泛應用。誠然,在訓練過(guò)程中,這類(lèi)可解釋的神經(jīng)元確實(shí)會(huì )“選擇性地”出現在各種不同任務(wù)網(wǎng)絡(luò )中。例如,預測產(chǎn)品評論
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò ) 深度學(xué)習
為什么深度學(xué)習如此容易被愚弄?AI研究員正努力修復神經(jīng)網(wǎng)絡(luò )缺陷
- 來(lái)源:nature 編譯:張大筆茹、小七 假設一輛自動(dòng)駕駛汽車(chē)看到停車(chē)標志時(shí)并沒(méi)有減速,而是加速駛入了繁忙的十字路口,從而導致了交通事故。事故報告顯示,停車(chē)標志的表面粘了四個(gè)小的矩形標志。這說(shuō)明一些微小擾動(dòng)就能愚弄車(chē)載人工智能(AI),使其將“停止”一詞誤讀為“限速45”?! ∧壳?,此類(lèi)事件還未發(fā)生,但是人為擾動(dòng)可能影響AI是非?,F實(shí)的。研究人員已經(jīng)展示了如何通過(guò)粘貼紙來(lái)欺騙AI系統誤讀停車(chē)標志,或者通過(guò)在眼鏡或帽子上粘貼印刷圖案來(lái)欺騙人臉識別系統,又或者通過(guò)在音頻中插入白噪聲使語(yǔ)音識別系統產(chǎn)生錯
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò ) 深度學(xué)習
DNNBrain:北師大團隊出品的用于映射深層神經(jīng)網(wǎng)絡(luò )到大腦的工具箱

- 導讀深度神經(jīng)網(wǎng)絡(luò )(DNN)通過(guò)端到端的深度學(xué)習策略在許多具有挑戰性的任務(wù)上達到了人類(lèi)水平的性能。深度學(xué)習產(chǎn)生了具有多層抽象層次的數據表示;然而,它沒(méi)有明確地提供任何關(guān)于DNNs內部運作的解釋?zhuān)瑩Q句話(huà)說(shuō)它的內部運作是一個(gè)黑盒子。深度神經(jīng)網(wǎng)絡(luò )的成功吸引了神經(jīng)科學(xué)家,他們不僅將DNN應用到生物神經(jīng)系統模型中,而且還采用了認知神經(jīng)科學(xué)的概念和方法來(lái)理解DNN的內部表示。盡管可以使用諸如PyTorch和TensorFlow之類(lèi)的通用深度學(xué)習框架來(lái)進(jìn)行此類(lèi)跨學(xué)科研究,但是使用這些框架通常需要高級編程專(zhuān)家和全面的數學(xué)知
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò ) 深度學(xué)習 腦機接口
CNN(卷積神經(jīng)網(wǎng)絡(luò ))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò ))、DNN(深度神經(jīng)網(wǎng)絡(luò ))的內部網(wǎng)絡(luò )結構的區別

- 先說(shuō)DNN,從結構上來(lái)說(shuō)他和傳統意義上的NN(神經(jīng)網(wǎng)絡(luò ))沒(méi)什么區別,但是神經(jīng)網(wǎng)絡(luò )發(fā)展時(shí)遇到了一些瓶頸問(wèn)題。一開(kāi)始的神經(jīng)元不能表示異或運算,科學(xué)家通過(guò)增加網(wǎng)絡(luò )層數,增加隱藏層可以表達。并發(fā)現神經(jīng)網(wǎng)絡(luò )的層數直接決定了它對現實(shí)的表達能力。但是隨著(zhù)層數的增加會(huì )出現局部函數越來(lái)越容易出現局部最優(yōu)解的現象,用數據訓練深層網(wǎng)絡(luò )有時(shí)候還不如淺層網(wǎng)絡(luò ),并會(huì )出現梯度消失的問(wèn)題。我們經(jīng)常使用sigmoid函數作為神經(jīng)元的輸入輸出函數,在BP反向傳播梯度時(shí),信號量為1的傳到下一層就變成0.25了,到最后面幾層基本無(wú)法達到調節參數
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò ) 深度學(xué)習 CNN RNN
深度神經(jīng)網(wǎng)絡(luò )(DNN)模型與前向傳播算法

- 深度神經(jīng)網(wǎng)絡(luò )(Deep Neural Networks,以下簡(jiǎn)稱(chēng)DNN)是深度學(xué)習的基礎,而要理解DNN,首先我們要理解DNN模型,下面我們就對DNN的模型與前向傳播算法做一個(gè)總結?! ?.從感知機到神經(jīng)網(wǎng)絡(luò ) 在感知機原理小結中,我們介紹過(guò)感知機的模型,它是一個(gè)有若干輸入和一個(gè)輸出的模型,如下圖: 輸出和輸入之間學(xué)習到一個(gè)線(xiàn)性關(guān)系,得到中間輸出結果: z=∑i=1mwixi+bz=∑i=1mwixi+b 接著(zhù)是一個(gè)神經(jīng)元激活函數: sign(z)={?11z<0z≥0sign(z)={
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò ) 深度學(xué)習
什么是DNN?它對AI發(fā)展意味著(zhù)什么

- 為了讓AI加速器在最短延遲內達到最佳精準度,特別是在自動(dòng)駕駛車(chē)中,TFLOP已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針,然而,有專(zhuān)家認為這種野蠻處理方式并不可持續…… 為了讓人工智能(AI)加速器在最短延遲內達到最佳精準度,特別是在自動(dòng)駕駛車(chē)(AV)中,TFLOP(兆次浮點(diǎn)運算)已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針。這場(chǎng)競賽的選手包括Nvidia的Xavier、Mobileye的EyeQ5、特斯拉(Tesla)的全自動(dòng)駕駛(FSD)計算機芯片,以及NXP-Kalray芯片。然而,有專(zhuān)家認為這種野蠻處理方式
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò ) 深度學(xué)習
深度學(xué)習干貨|基于Tensorflow深度神經(jīng)網(wǎng)絡(luò )(DNN)詳解

- 深度神經(jīng)網(wǎng)絡(luò )(Deep Neural Networks,簡(jiǎn)稱(chēng)DNN)是深度學(xué)習的基礎,想要學(xué)好深度學(xué)習,首先我們要理解DNN模型。DNN的基本結構神經(jīng)網(wǎng)絡(luò )是基于感知機的擴展,而DNN可以理解為有很多隱藏層的神經(jīng)網(wǎng)絡(luò )。多層神經(jīng)網(wǎng)絡(luò )和深度神經(jīng)網(wǎng)絡(luò )DNN其實(shí)也基本一樣,DNN也叫做多層感知機(MLP)。DNN按不同層的位置劃分,神經(jīng)網(wǎng)絡(luò )層可以分為三類(lèi),輸入層,隱藏層和輸出層,如下圖示例,一般來(lái)說(shuō)第一層是輸入層,最后一層是輸出層,而中間的層數都是隱藏層。網(wǎng)絡(luò )結構層與層之間是全連接的,也就是說(shuō),第i層的任意一個(gè)神經(jīng)
- 關(guān)鍵字: DNN 深度神經(jīng)網(wǎng)絡(luò ) 深度學(xué)習
深度學(xué)習介紹
您好,目前還沒(méi)有人創(chuàng )建詞條深度學(xué)習!
歡迎您創(chuàng )建該詞條,闡述對深度學(xué)習的理解,并與今后在此搜索深度學(xué)習的朋友們分享。 創(chuàng )建詞條
歡迎您創(chuàng )建該詞條,闡述對深度學(xué)習的理解,并與今后在此搜索深度學(xué)習的朋友們分享。 創(chuàng )建詞條
關(guān)于我們 -
廣告服務(wù) -
企業(yè)會(huì )員服務(wù) -
網(wǎng)站地圖 -
聯(lián)系我們 -
征稿 -
友情鏈接 -
手機EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權所有 北京東曉國際技術(shù)信息咨詢(xún)有限公司
京ICP備12027778號-2 北京市公安局備案:1101082052 京公網(wǎng)安備11010802012473
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權所有 北京東曉國際技術(shù)信息咨詢(xún)有限公司
