在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            博客專欄

            EEPW首頁(yè) > 博客 > AAAI 2022|AI頂會(huì)論文究竟關(guān)注什么?(1)

            AAAI 2022|AI頂會(huì)論文究竟關(guān)注什么?(1)

            發(fā)布人:MSRAsia 時(shí)間:2022-02-19 來(lái)源:工程師 發(fā)布文章

            編者按:AAAI 是由美國(guó)人工智能協(xié)會(huì)(Association for the Advance of Artificial Intelligence)主辦的人工智能領(lǐng)域頂級(jí)學(xué)術(shù)會(huì)議之一。今年的AAAI 大會(huì)將于2月22日-3月1日舉辦,微軟亞洲研究院共有十余篇論文入選,涵蓋概念漂移、平面布局自動(dòng)生成、假新聞檢測(cè)、視頻分割、跨語(yǔ)言預(yù)訓(xùn)練、文本摘要、注意力機(jī)制、連續(xù)深度神經(jīng)網(wǎng)絡(luò)、領(lǐng)域泛化、在線影響力最大化等等人工智能的多個(gè)領(lǐng)域。今天,我們?yōu)榇蠹揖x了其中的12篇進(jìn)行分享,并配有此前的論文分享直播視頻,希望可以幫助大家更深入地了解人工智能領(lǐng)域的前沿進(jìn)展!



            01

            基于數(shù)據(jù)分布生成的可預(yù)測(cè)概念漂移適應(yīng)
            圖片論文鏈接:https://arxiv.org/abs/2201.04038代碼鏈接:https://github.com/microsoft/qlib/tree/main/examples/benchmarks_dynamic/DDG-DA
            在時(shí)序數(shù)據(jù)中,由于環(huán)境的不穩(wěn)定性,數(shù)據(jù)分布常常會(huì)隨時(shí)間變化,且這種變化通常被認(rèn)為是難以預(yù)測(cè)的。這種現(xiàn)象被稱為概念漂移(Concept Drift),它會(huì)導(dǎo)致在歷史數(shù)據(jù)上訓(xùn)練的模型在概念漂移后性能下降。為了應(yīng)對(duì)這一問(wèn)題,此前的工作會(huì)檢測(cè)概念漂移是否發(fā)生,然后調(diào)整模型以適應(yīng)最近的數(shù)據(jù)分布。但是在很多實(shí)際場(chǎng)景中,環(huán)境的變化是有規(guī)律可預(yù)測(cè)的,即可預(yù)測(cè)的概念漂移(Predictable Concept Drift)。因此,可以對(duì)概念漂移的未來(lái)趨勢(shì)進(jìn)行建模,而不僅僅讓模型適應(yīng)最近的數(shù)據(jù)分布。
            微軟亞洲研究院的研究員們提出了一種新方法 DDG-DA 來(lái)預(yù)測(cè)數(shù)據(jù)分布未來(lái)的變化,然后利用預(yù)測(cè)的數(shù)據(jù)分布生成新的訓(xùn)練數(shù)據(jù)來(lái)學(xué)習(xí)模型以適應(yīng)概念漂移,最終提升模型性能。
            圖片圖1:DDG-DA 學(xué)習(xí)如何生成數(shù)據(jù)來(lái)最小化歷史數(shù)據(jù)分布和未來(lái)數(shù)據(jù)分布的差異 
            具體來(lái)說(shuō),如圖1所示,在時(shí)序數(shù)據(jù)中樣本隨時(shí)間產(chǎn)生,算法可以利用當(dāng)前時(shí)刻已經(jīng)產(chǎn)生的歷史樣本學(xué)習(xí)或調(diào)整模型用于未來(lái)一段時(shí)間的預(yù)測(cè)。由于歷史數(shù)據(jù)的分布和未來(lái)數(shù)據(jù)分布存在差異,這會(huì)影響所學(xué)模型的預(yù)測(cè)性能,DDG-DA 則致力于縮小這種分布差距。DDG-DA 會(huì)輸出歷史數(shù)據(jù)的采樣權(quán)重,基于該權(quán)重重新采樣生成數(shù)據(jù)集,該數(shù)據(jù)集的分布會(huì)作為未來(lái)一段時(shí)間分布的預(yù)測(cè)。同時(shí),研究員們還設(shè)計(jì)了一個(gè)和 KL-divergence 等價(jià)的分布距離函數(shù)來(lái)計(jì)算預(yù)測(cè)的分布和未來(lái)一段時(shí)間實(shí)際分布的距離。該距離函數(shù)具有可導(dǎo)的性質(zhì),因此可以利用它高效地學(xué)習(xí) DDG-DA 的參數(shù)來(lái)最小化它預(yù)測(cè)的分布誤差。在學(xué)習(xí)階段,DDG-DA 先在歷史時(shí)序數(shù)據(jù)上學(xué)習(xí)如何重采樣數(shù)據(jù);在預(yù)測(cè)階段,DDG-DA 會(huì)定期通過(guò)重采樣歷史數(shù)據(jù)生成訓(xùn)練數(shù)據(jù)集,在 DDG-DA 生成的數(shù)據(jù)集上訓(xùn)練的模型將能更好地適應(yīng)未來(lái)變化的數(shù)據(jù)分布/概念漂移。 
            如表1,研究員們?cè)诠蓛r(jià)、電力負(fù)荷和日照輻照度三個(gè)真實(shí)場(chǎng)景預(yù)測(cè)任務(wù)和多個(gè)模型上進(jìn)行了實(shí)驗(yàn)驗(yàn)證并且性能得到了顯著提升,在同類(lèi)方法中 DDG-DA 也取得了最佳性能。
            圖片表1:DDG-DA 和同類(lèi)方法在不同場(chǎng)景下的對(duì)比

            02

            平面布局的層次化生成式建模
            圖片論文鏈接:https://www.microsoft.com/en-us/research/publication/coarse-to-fine-generative-modeling-for-graphic-layouts/ 
            平面布局(graphic layout)在工作和生活中隨處可見(jiàn),如海報(bào)的布局、文檔的布局、移動(dòng)應(yīng)用用戶界面的布局等。設(shè)計(jì)一個(gè)美觀的平面布局不僅需要過(guò)硬的專業(yè)知識(shí)而且需要花費(fèi)大量的精力。為了輔助平面布局的設(shè)計(jì),平面布局的自動(dòng)生成(layout generation),即預(yù)測(cè)布局中各個(gè)元素的位置和大小,逐漸受到越來(lái)越多的關(guān)注。 
            現(xiàn)有的大多數(shù)模型會(huì)將平面布局抽象成一系列的元素,并直接預(yù)測(cè)每個(gè)元素的位置和大小。本文提出將平面布局切割為不同的“區(qū)域”(region),其中每個(gè)區(qū)域都可以看作是一個(gè)簡(jiǎn)單的布局且比整體布局包含更少的元素,并基于此設(shè)計(jì)了一種層次化的模型。 
            具體來(lái)說(shuō),研究員們將 VAE 中的****分解為兩個(gè)步驟:第一個(gè)步驟為預(yù)測(cè)區(qū)域。由于平面布局中沒(méi)有顯式的包含區(qū)域的劃分,本文設(shè)計(jì)了一種基于網(wǎng)格線的方法來(lái)抽取此步驟中的監(jiān)督信息。第二個(gè)步驟為基于生成的區(qū)域,預(yù)測(cè)區(qū)域中每個(gè)元素的具體位置和大小。為了使模型能夠?qū)^(qū)域中元素的預(yù)測(cè)問(wèn)題當(dāng)作一個(gè)簡(jiǎn)單的布局生成問(wèn)題,此步驟中的所有位置被轉(zhuǎn)成了對(duì)于區(qū)域的相對(duì)位置。

            圖片圖2:模型架構(gòu)
            大量的定性和定量實(shí)驗(yàn)證明,本文提出的方法優(yōu)于現(xiàn)有方法,其優(yōu)勢(shì)在復(fù)雜布局生成上尤為突出。表2比較了不同模型的 FID 值,圖3則比較了在不同復(fù)雜度的布局上各個(gè)模型的效果。更多定量和定性結(jié)果請(qǐng)參考論文。
            圖片表2:模型 FID 值比較
            圖片圖3:不同復(fù)雜度的布局上模型效果比較

            03

            基于推理的假新聞檢測(cè)
            圖片論文鏈接:https://arxiv.org/abs/2110.15064

            目前假新聞檢測(cè)方法以數(shù)據(jù)驅(qū)動(dòng)的方式進(jìn)行預(yù)測(cè),充分證明了利用大數(shù)據(jù)進(jìn)行假新聞檢測(cè)的有效性。然而,現(xiàn)在仍缺少?gòu)耐评淼慕嵌葋?lái)做假新聞檢測(cè)的研究。在心理學(xué)中,推理能力是指有意識(shí)地運(yùn)用邏輯探索真理的能力,通常被認(rèn)為是一種人類(lèi)獨(dú)有的能力。這種推理能力對(duì)提高假新聞檢測(cè)的可解釋性和準(zhǔn)確性至關(guān)重要。比如,如果能讓模型學(xué)會(huì)像人一樣有邏輯地把微小的線索組織起來(lái)(圖4),就能給假新聞檢測(cè)方法帶來(lái)強(qiáng)大的細(xì)粒度推理能力,從而提升準(zhǔn)確性。
            圖片圖4:判斷新聞?wù)婕俪3P枰?xì)推理的能力。雖然圖中四組證據(jù)看上去眾說(shuō)紛紜,但人類(lèi)可以通過(guò)諸如 "property" 等微妙線索將它們?cè)谶壿嬌下?lián)系起來(lái),從而對(duì)文章得出更可信的結(jié)論。

            圖片

            圖5:推理框架 FinerFact
            在本文中,微軟亞洲研究院的研究員們提出了一個(gè)通用的推理框架 FinerFact,用于對(duì)假新聞檢測(cè)進(jìn)行細(xì)粒度推理(圖5)。FinerFact 遵循人類(lèi)的信息處理模式,能夠更好地反映人類(lèi)的邏輯推理過(guò)程,增強(qiáng)了可解釋性。同時(shí),F(xiàn)inerFact 引入了一種基于 Mutual-Reinforcement 的方法來(lái)將線索進(jìn)行排序,這使研究員們能夠更好地了解哪些類(lèi)型的證據(jù)對(duì)識(shí)別假新聞更重要,并為融入人類(lèi)的知識(shí)經(jīng)驗(yàn)提供基礎(chǔ)。最后,F(xiàn)inerFact 引入了一個(gè)雙通道的 Kernel Graph Network 建模不同類(lèi)型線索之間的細(xì)微差異與影響。

            圖片

            表3:FinerFact 在 PolitiFact 和 GossipCop 數(shù)據(jù)集上的表現(xiàn) 
            大量實(shí)驗(yàn)表明,F(xiàn)inerFact 優(yōu)于目前最先進(jìn)的方法并能提供較強(qiáng)的可解釋性(如表3所示)。除了提高準(zhǔn)確性之外,F(xiàn)inerFact 還使人類(lèi)能夠理解其推理過(guò)程中的大部分內(nèi)容。在 Case Study 中,F(xiàn)inerFact 不僅成功地識(shí)別新聞為假,而且對(duì)重要的證據(jù)、細(xì)微線索以及每個(gè)觀點(diǎn)的預(yù)測(cè)分?jǐn)?shù)都進(jìn)行了詳細(xì)解釋(圖6)。
            圖片圖6:可視化 FinerFact 的推理過(guò)程:(a)Mutual Reinforcement Graph 中的 keyword 層,每個(gè) keyword 的顯著性表示為 keyword 的大??;(b) 在 Claim-Evidence Graph 進(jìn)行細(xì)粒度推理。每種顏色表示新聞證據(jù)中的一個(gè)主題。


            *博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



            關(guān)鍵詞: AI

            相關(guān)推薦

            技術(shù)專區(qū)

            關(guān)閉