五月婷婷丁香性爱|j久久一级免费片|久久美女福利视频|中文观看在线观看|加勒比四区三区二|亚洲裸女视频网站|超碰97AV在线69网站免费观看|有码在线免费视频|久久青青日本视频|亚洲国产AAAA

新聞動(dòng)態(tài)

28
04月 2023
2023-04-28
媒體算力網(wǎng)絡(luò)資源調(diào)度論文在 IEEE Transactions 旗艦期刊TPDS上發(fā)表

論文《Practical Cloud-Edge Scheduling for Large-Scale Crowdsourced Live Streaming》已被IEEE Transactions 旗艦期刊TPDS接收。本文針對(duì)云邊緣提供商提供的大規(guī)模眾包直播(CLS)服務(wù),探討了傳統(tǒng)智慧“就近服務(wù)”策略可能帶來(lái)的成本效率低下問(wèn)題。作者利用來(lái)自中國(guó)代表性云邊緣提供商華為云的實(shí)際服務(wù)數(shù)據(jù)進(jìn)行了大規(guī)模的測(cè)量分析,發(fā)現(xiàn)巨量頻道數(shù)量對(duì)云邊緣提供商的運(yùn)營(yíng)支出造成了極大的負(fù)擔(dān),而不平衡的觀(guān)眾分布使得邊緣節(jié)點(diǎn)承受了顯著的成本效率低下。

為了解決上述問(wèn)題,作者提出了一種名為AggCast的新型CLS調(diào)度框架,以?xún)?yōu)化云邊緣提供商的邊緣節(jié)點(diǎn)利用率。AggCast的核心思想是將最初分散在不同地區(qū)的一些觀(guān)眾聚合起來(lái),分配給少數(shù)預(yù)先選定的節(jié)點(diǎn),從而降低帶寬成本。特別地,通過(guò)集成從大規(guī)模測(cè)量中獲得的有用洞見(jiàn),AggCast不僅可以確保用戶(hù)體驗(yàn)質(zhì)量(QoS)不會(huì)受到降低,還能滿(mǎn)足CLS服務(wù)的系統(tǒng)要求。AggCast已進(jìn)行了A/B測(cè)試并完全部署。在線(xiàn)和基于蹤跡的實(shí)驗(yàn)表明,與最普遍的方法相比,AggCast節(jié)省了超過(guò)16.3%的源回程(BTS)帶寬成本,同時(shí)顯著提高了QoS(啟動(dòng)延遲,停滯頻率和停滯時(shí)間分別降低了12.3%,4.57%和3.91%)。

30
03月 2023
2023-03-30
基于CNN的JPEG解碼論文發(fā)表于IEEE Trans. Consum. Electron.

論文《JPEG Decoding With Nonlinear Inverse Transform Network and Progressive Recurrent Residual Network》提出了一種基于非線(xiàn)性逆變換網(wǎng)絡(luò)和漸進(jìn)遞歸殘差網(wǎng)絡(luò)的JPEG解碼方法(稱(chēng)為JDNet)。JDNet用一個(gè)模型重建不同質(zhì)量因子(QF)的JPEG圖像。在JDNet中,首先提出了基于CNN的逆變換網(wǎng)絡(luò)(iTNet)來(lái)學(xué)習(xí)DCT系數(shù)到其相應(yīng)原始像素的非線(xiàn)性映射,這與以前DCT網(wǎng)絡(luò)中的線(xiàn)性映射相反,iTNet可以減少逆DCT過(guò)程中的誤差傳播,獲得更準(zhǔn)確的重建信息。此外,iTNet可以與任何JPEG后處理方法結(jié)合使用,以提高其性能。其次,在設(shè)計(jì)的后處理網(wǎng)絡(luò)中,提出了漸進(jìn)遞歸殘差網(wǎng)絡(luò)(PRRN)用于局部特征提取,該網(wǎng)絡(luò)利用多尺度空間(LNLMS)中的局部和非局部相似性,進(jìn)一步提高解碼圖像質(zhì)量。實(shí)驗(yàn)結(jié)果表明,與JPEG、ARCNN、DnCNN和STRRN相比,JDNet在Live1數(shù)據(jù)集上的平均增益分別為1.88dB、0.63dB、0.35dB、0.24dB,在城市100數(shù)據(jù)集上的平均增益分別為2.61dB、1.11dB、0.69dB和0.29dB。BSD500數(shù)據(jù)集上分別為1.91dB、0.69dB、0.37dB和0.13dB。

26
02月 2023
2023-02-26
視頻超分辨率論文被國(guó)際頂會(huì)CVPR接收

媒體創(chuàng)新Lab與武漢大學(xué)合作的論文《Continuous Space-Time Video Super-Resolution Utilizing Long-Range Temporal Information》已在國(guó)際頂會(huì)Computer Vision and Pattern Recognition上發(fā)表。本文考慮視頻時(shí)空超分辨率(ST-VSR)任務(wù),即同時(shí)將源視頻超分到更高的幀率和分辨率。然而,大多數(shù)現(xiàn)有方案在訓(xùn)練階段要么固定時(shí)間和尺度,要么只接受預(yù)設(shè)的輸入幀數(shù)(例如兩個(gè)相鄰幀)無(wú)法利用時(shí)域上的更多信息。為了解決這些問(wèn)題,本文提出了一種連續(xù)ST-VSR(C-STVSR)方法,可以將給定視頻轉(zhuǎn)換為任何幀率和分辨率。為了實(shí)現(xiàn)任意時(shí)域插值,我們提出了前向變形引導(dǎo)幀合成模塊和光流引導(dǎo)上下文一致性損失函數(shù),以更好地逼近極端的運(yùn)動(dòng)信息并保留輸入幀和預(yù)測(cè)幀之間的相似結(jié)構(gòu)。此外,本文設(shè)計(jì)了一個(gè)內(nèi)存友好的級(jí)聯(lián)深度模塊來(lái)實(shí)現(xiàn)連續(xù)空間上采樣。同時(shí),通過(guò)對(duì)光流的復(fù)雜重組,使得從大跨度的相鄰幀信息傳播成為可能,從而得到更好的重建質(zhì)量。實(shí)驗(yàn)表明,與業(yè)界最先進(jìn)的方法相比,本文所提出的算法具有更好的靈活性,在各種數(shù)據(jù)集上測(cè)試均有更好的性能,在客觀(guān)評(píng)估和主觀(guān)視覺(jué)效果方面也都表現(xiàn)出色。