檢測到您已登錄華為云國際站賬號,為了您更好的體驗,建議您訪問國際站服務(wù)網(wǎng)站 http://m.cqfng.cn/intl/zh-cn
不再顯示此消息
好久沒寫文章了,簡單寫篇樣本分析的文章記錄下前幾天分析的一個樣本,這個樣本還是比較經(jīng)典的,做了些反分析的手段,也使用了一些比較流行免殺對抗技術(shù),能夠免殺一些殺軟;這篇文章我們主要看這個loader怎么做的,以及如何正常分析這樣的樣本和快速拿到c2;同時也分享一些奇奇怪怪的知識:如何提取樣本特征做威脅狩獵以及對樣本對抗的一些思考和想法;
新樣本后怎么添加自動學(xué)習(xí)的模型中?
1.4.2 混淆矩陣混淆矩陣(Confusion Matrix)是一個將分類問題按照真實情況與判別情況兩個維度進行歸類的矩陣,在二分類問題中,可以用一個2×2的矩陣表示。如圖1-32所示,TP表示實際為真預(yù)測為真,TN表示實際為假預(yù)測為假,F(xiàn)N表示實際為真預(yù)測為假,通俗講就是漏報
3.7 本章小結(jié)讀者通過本章可以掌握深度學(xué)習(xí)框架中的張量和計算圖的概念,目前主流的深度學(xué)習(xí)框架在底層設(shè)計上幾乎都是基于張量和計算圖的。本章具體介紹如何基于TensorFlow、Keras、PyTorch和MXNet來解決經(jīng)典的手寫數(shù)字識別的問題,詳細介紹了如何構(gòu)建前向計算過程和使
1.6 本章小結(jié)本章介紹了深度學(xué)習(xí)的訓(xùn)練過程,并結(jié)合一個實際的例子介紹了數(shù)據(jù)預(yù)處理、定義網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)、反向傳遞與優(yōu)化器的知識,重點介紹了鏈?zhǔn)椒▌t與梯度的使用。本章最后還結(jié)合具體例子介紹了幾個常見的衡量指標(biāo),包括混淆矩陣、準(zhǔn)確率、召回率、準(zhǔn)確度、F1-Score、ROC和AU
1.3.3 池化通過局部連接和參數(shù)共享后,我們針對1000×1000的圖像,使用卷積核大小為10×10,卷積步長為1,進行卷積操作,得到的隱藏層節(jié)點個數(shù)為1000×1000 = 106,計算量還是太大了。為了解決這個問題,首先回憶一下,我們之所以決定使用卷積后的特征是因為圖像具有
第1章深度學(xué)習(xí)基礎(chǔ)知識掌握好深度學(xué)習(xí)的基礎(chǔ)知識是理解對抗樣本的基本前提,本章將簡要介紹深度學(xué)習(xí)的背景知識,詳細介紹與對抗樣本相關(guān)的一些重要知識點。對抗樣本應(yīng)用最廣泛的領(lǐng)域是機器視覺,包括圖像分類、目標(biāo)識別、人臉比對等,所以本章還將重點介紹基于CNN的圖像分類。在實際項目中,如何衡
華為乾坤edr可以在哪個網(wǎng)頁提交可疑樣本呢?
做到又快又準(zhǔn)往往不是一件容易的事情。常用的方法有梯度下降算法,最小二乘法等和其他一些技巧(tricks)。 學(xué)習(xí)得到“最好”的函數(shù)后,需要在新樣本上進行測試,只有在新樣本上表現(xiàn)很好,才算是一個“好”的函數(shù)。參考資料:[1]Dongyang Li, Yan Wang, Bin Xu
與傳統(tǒng)的“大數(shù)據(jù)”機器學(xué)習(xí)問題不同,多組學(xué)的主要挑戰(zhàn)在于其小樣本、高維度的特質(zhì),即每個樣本都有深層數(shù)據(jù)。Sentieon在多組學(xué)數(shù)據(jù)的聯(lián)合分析應(yīng)用中同樣有著出色的表現(xiàn)。Sentieon 不斷將機器學(xué)習(xí)和AI 應(yīng)用到多組學(xué)分析中,以實現(xiàn)softPhar
一個是信號校正(見后面的shiftCor函數(shù))。其包括基于QC樣本進行信號校正的集成學(xué)習(xí)方法。比如:基于QC樣本的隨機森林校正(QC-based random forest correction, QC-RFSC);基于QC樣本的LOESS(locally weighted scatterplot
3.3 KerasKeras本質(zhì)上還算不上一個深度學(xué)習(xí)框架,它的底層還是要依賴TensorFlow這些深度學(xué)習(xí)框架,但是相對TensorFlow復(fù)雜的語法,Keras通過封裝,提供了一套非常簡潔的接口,讓熟悉Python開發(fā)的人可以快速上手。我們以解決經(jīng)典的手寫數(shù)字識別的問題為例
2.6 KerasKeras是一個高級別的Python神經(jīng)網(wǎng)絡(luò)框架,能在TensorFlow或者 Theano 上運行。Keras的作者、谷歌AI研究員Francois Chollet宣布了一條激動人心的消息,Keras將會成為第一個被添加到TensorFlow核心中的高級別框架
1.3.2 參數(shù)共享本質(zhì)上隱藏層的一個節(jié)點與輸入層一個節(jié)點的連接,對應(yīng)的就是一個連接參數(shù),大量的連接也就意味著大量的參數(shù)需要計算,僅依靠局部連接技術(shù)是無法進一步減少計算量的,于是人們又提出了參數(shù)共享。所謂的參數(shù)共享是基于這樣一個假設(shè),一部分圖像的統(tǒng)計特性與完整圖像的相同?;氐缴厦?/p>
檢索來獲得,這是一個有潛力的數(shù)據(jù)源來支持新種類的學(xué)習(xí)而不耗費任何的人工標(biāo)注。研究如何從基礎(chǔ)種類向新種類遷移信息,解決新種類訓(xùn)練圖片標(biāo)簽噪音的問題。我們方法的訓(xùn)練階段由兩部分組成:在基礎(chǔ)種類訓(xùn)練集上學(xué)習(xí)相似度網(wǎng)絡(luò);在新種類數(shù)據(jù)集上學(xué)習(xí)主分類器。相似度網(wǎng)絡(luò)的架構(gòu)如圖3所示,它輸入一批
理解常見回歸、分類、無監(jiān)督算法的基本原理,能夠動手搭建常見機器學(xué)習(xí)模型。
https://forum.butian.net/share/3817 書接上文,筆者發(fā)的一篇對某紅隊釣魚樣本分析的文章:《記一次(反虛擬+反監(jiān)測+域名前置)釣魚樣本分析及思考》 本文主要針對上文中樣本使用的shellcode展開分析,非常詳細的記錄了筆者分析該shellcode過程;以及對其使用的相關(guān)技術(shù)進行分析拆解;
在調(diào)試過程中,如果想要查看變量的值,直接將鼠標(biāo)放到變量上就將顯示變量的類型和值。 文章分類: 安全分享 文章關(guān)鍵詞: 惡意樣本, 惡意樣本 分析, 惡意樣本 行為, 惡意樣本分析, 惡意樣本分析手冊, 惡意樣本分析方法, 惡意樣本檢測 轉(zhuǎn)載請注明:“轉(zhuǎn)自綠盟科技博客”: 原文鏈接.
造代碼。將鼠標(biāo)懸停在“城市”變量上并單擊對話框中的“轉(zhuǎn)換”。 分類中使用了三個一個是城市一個是農(nóng)田一個是水域,因為分類比較簡單,所采集的樣本數(shù)量也比較少。 最后分類的結(jié)果 文中涉及一些方法,不懂的可以自己去文檔中參考 代碼: // This
了profile的樣本還是會被檢測到(這個需要大量測試,因為不同廠商的檢測點可能不盡相同,甚至對相同特征不同廠商的檢測點也可能不同,你煞費苦心調(diào)制的profile可能因為沒有做一個點,直接被秒了,如上文,拿幾年前Didier Stevens師傅寫的配置提取樣本都可以直接把這個be