src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Dataströmmens problem har studerats i stor utsträckning under de senaste åren, på grund av den stora enkelheten i insamlingen av strömdata. Typen av strömdata gör det nödvändigt att använda algoritmer som kräver endast en passage över data. I detta sammanhang har man nyligen föreslagit enskaliga streamanalysmetoder. Mycket strömdata är dock högdimensionellt till sin natur. Högdimensionella data är till sin natur mer komplexa när det gäller klusterering, klassificering och likhetssökning. Ny forskning diskuterar metoder för projicerad klusterbildning över högdimensionella datamängder. Denna metod är dock svår att generalisera till dataströmmar på grund av metodens komplexitet och den stora volymen av dataströmmarna. I detta dokument föreslår vi en ny, högdimensionell, projicerad dataströmsklustermetod, kallad HPStream. Metoden innehåller en blekning av klusterstrukturen och den projektionsbaserade klustermetoden. Den är gradvis uppdatable och är mycket skalbar på både antalet dimensioner och storleken på dataströmmarna, och den uppnår bättre klusterkvalitet jämfört med de tidigare ström klustermetoderna. Vår prestandastudie med både verkliga och syntetiska datauppsättningar visar hur effektiva och effektiva våra föreslagna ramverk och genomförandemetoder är. | HPStream Ref introducerar begreppet projicerad kluster till dataströmmar. | 14,314,033 | A Framework for Projected Clustering of High Dimensional Data Streams | {'venue': 'VLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,828 |
En effektiv strategi för energibesparing i trådlösa sensornätverk är att schemalägga vilointervaller för främmande noder medan de återstående noderna förblir aktiva för att tillhandahålla kontinuerlig service. För att sensornätverket ska fungera framgångsrikt måste de aktiva noderna upprätthålla både sensortäckning och nätverksanslutning. Dessutom måste nätverket kunna konfigurera sig till en möjlig nivå av täckning och konnektivitet för att kunna stödja olika tillämpningar och miljöer med olika krav. Denna artikel presenterar utformningen och analysen av nya protokoll som dynamiskt kan konfigurera ett nätverk för att uppnå garanterad grad av täckning och konnektivitet. Detta arbete skiljer sig från befintliga konnektivitets- eller täckningsunderhållsprotokoll på flera viktiga sätt. (1) Vi presenterar en täckning Configuration Protocol (CCP) som kan ge olika grader av täckning begärs av applikationer. Denna flexibilitet gör det möjligt för nätverket att självkonfigurera för ett brett spektrum av tillämpningar och (eventuellt dynamiska) miljöer. (2) Vi tillhandahåller en geometrisk analys av förhållandet mellan täckning och konnektivitet. Denna analys ger viktiga insikter för att behandla täckning och konnektivitet inom en enhetlig ram; i skarp kontrast till flera befintliga metoder som hanterar de två problemen isolerat. (3) Vi integrerar CCP med SPAN för att ge både täckning och konnektivitetsgarantier. (4) Vi föreslår en probabilistisk täckningsmodell och utvidgar den centrala motparten till att ge probabilistiska täckningsgarantier. Vi demonstrerar våra protokolls förmåga att ge garanterad täckning och konnektivitetskonfigurationer genom både geometrisk analys och omfattande simuleringar. | I dokument REF föreslås ett protokoll som kallas CCP och som kan konfigurera sig till en möjlig nivå av täckning och konnektivitet för att stödja olika tillämpningar och miljöer med olika krav. | 653,436 | Integrated coverage and connectivity configuration for energy conservation in sensor networks | {'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,829 |
I detta dokument tar vi itu med problemet med att bygga en differentialt privat synopsis för tvådimensionella dataset som geospatiala dataset. De nuvarande state-of-the-art metoder fungerar genom att utföra rekursiva binära partitionering av datadomänerna, och bygga en hierarki av partitioner. Vi visar att den viktigaste utmaningen i partitionsbaserade synopsismetoder ligger i att välja rätt partitionsgranularitet för att balansera brusfelet och det icke-uniformitetsfelet. Vi studerar den enhetliga-grid tillvägagångssätt, som tillämpar en liksidig rutnät av en viss storlek över datadomänen och sedan utfärdar oberoende räkna frågor på rutnätscellerna. Denna metod har inte fått någon uppmärksamhet i litteraturen, troligen på grund av att ingen bra metod för att välja en rutnätsstorlek var känd. Baserat på en analys av de två typerna av fel föreslår vi en metod för att välja rutnätsstorlek. Experimentella resultat validerar vår metod och visar att detta tillvägagångssätt fungerar såväl som, och ofta gånger bättre än, de senaste metoderna. Vi introducerar också en ny adaptiv metod. Den adaptiva rutnätsmetoden lägger ett grovkornigt rutnät över datasetet, och sedan ytterligare partitionerar varje cell enligt dess bullriga räkning. Båda nivåerna av partitioner används sedan för att besvara frågor över datasetet. Denna metod utnyttjar behovet av att ha finare granularitet partitionering över täta regioner och samtidigt grov partitionering över glesa regioner. Genom omfattande experiment på verkliga datauppsättningar visar vi att detta tillvägagångssätt konsekvent och avsevärt överträffar den enhetliga metoden och andra toppmoderna metoder. | Qardaji m.fl. REF presenterar ett adaptivt rutnät genom att lägga ett grovkornigt rutnät över datasetet, där varje cell sedan raffineras enligt dess bullriga räkningar för att svara på avståndsfrågor över utrymmet. | 9,401,337 | Differentially private grids for geospatial data | {'venue': '2013 IEEE 29th International Conference on Data Engineering (ICDE)', 'journal': '2013 IEEE 29th International Conference on Data Engineering (ICDE)', 'mag_field_of_study': ['Computer Science']} | 82,830 |
Abstract Machine learning förmåga att snabbt utvecklas till föränderliga och komplexa situationer har hjälpt det att bli ett grundläggande verktyg för datorsäkerhet. Att anpassningsförmåga också är en sårbarhet: angripare kan utnyttja maskininlärningssystem. Vi presenterar en taxonomi som identifierar och analyserar attacker mot maskininlärningssystem. Vi visar hur dessa klasser påverkar kostnaderna för angriparen och försvararen, och vi ger en formell struktur som definierar deras interaktion. Vi använder vårt ramverk för att kartlägga och analysera litteraturen från attacker mot maskininlärningssystem. Vi illustrerar också vår taxonomi genom att visa hur den kan styra attacker mot SpamBayes, ett populärt statistiskt skräppostfilter. Slutligen diskuterar vi hur vår taxonomi föreslår nya försvarslinjer. | Barreno m.fl. REF ger en bred översikt över attacker mot maskininlärningssystem. | 2,304,759 | The security of machine learning | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']} | 82,831 |
Detta papper presenterar en bootstrappningsprocess som lär sig språkligt rika extraktionsmönster för subjektiva (opinerade) uttryck. Högprecisionsklassare etikett oannoterade data för att automatiskt skapa en stor träningsset, som sedan ges till en extraktion mönster lärande algoritm. De lärda mönstren används sedan för att identifiera mer subjektiva meningar. Bootstrappningsprocessen lär sig många subjektiva mönster och ökar minnet samtidigt som den bibehåller hög precision. | I REF ] lär sig en bootstrappningsprocess språkligt rika extraktionsmönster för subjektiva uttryck. | 6,541,910 | Learning Extraction Patterns For Subjective Expressions | {'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,832 |
Datacenter har nyligen vunnit stor popularitet som en kostnadseffektiv plattform för att vara värd för storskaliga serviceapplikationer. Medan stora datacenter åtnjuter stordriftsfördelar genom att amortera initiala kapitalinvesteringar över ett stort antal maskiner, de ådrar sig också enorma energikostnader när det gäller eldistribution och kylning. Ett effektivt tillvägagångssätt för att spara energi i datacenter är att dynamiskt justera datacenterkapaciteten genom att stänga av oanvända maskiner. Detta problem med dynamisk kapacitetsförsörjning är dock känt för att vara utmanande, eftersom det kräver en noggrann förståelse av egenskaperna hos resursefterfrågan samt hänsyn till olika kostnadsfaktorer, inklusive förseningar i schemaläggningen av uppgifter, maskinkonfigureringskostnader och fluktuerande elpriser. I detta dokument tillhandahåller vi en kontroll-teoretisk lösning på problemet med dynamisk kapacitetsavsättning som minimerar den totala energikostnaden samtidigt som prestandamålet uppnås när det gäller förseningar i schemaläggningen. Specifikt, vi modellerar detta problem som en begränsad diskret-tid optimal kontroll problem, och använda Modell Predictive Control (MPC) för att hitta den optimala styrpolicyn. Genom omfattande analys och simulering med hjälp av verkliga arbetsbelastning spår från Googles compute clusters, visar vi att vårt föreslagna ramverk kan uppnå en betydande minskning av energikostnaderna, samtidigt som en acceptabel genomsnittlig tidsfördröjning för enskilda uppgifter bibehålls. | Till exempel Quanyan et al. REF ger en kontroll-teoretisk lösning till den dynamiska kapacitetsförsörjning problem som minimerar den totala energikostnaden. | 12,165,402 | Dynamic energy-aware capacity provisioning for cloud computing environments | {'venue': "ICAC '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,833 |
I den här artikeln studerar vi automatisk nyckelfrasgenerering. Även om konventionella metoder för denna uppgift visar lovande resultat, de bortser från korrelation mellan nyckelfraser, vilket resulterar i dubblering och täckning frågor. För att lösa dessa problem föreslår vi en ny sekvens-till-sekvens-arkitektur för nyckelfrasgenerering som heter CorrRNN, som fångar korrelation mellan flera nyckelfraser på två sätt. För det första använder vi en täckningsvektor för att ange om ordet i källdokumentet har sammanfattats av tidigare fraser för att förbättra täckningen för nyckelfraser. För det andra beaktas tidigare fraser för att eliminera dubbla fraser och förbättra konsekvensen i resultatet. Experimentella resultat visar att vår modell avsevärt överträffar den senaste metoden på referensdatauppsättningar både i fråga om noggrannhet och mångfald. | För att övervinna denna nackdel föreslog Ref ett Seq2Seq-nätverk med korrelationsbegränsningar för generering av nyckelfraser. | 52,070,657 | Keyphrase Generation with Correlation Constraints | {'venue': 'Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing', 'journal': 'Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing', 'mag_field_of_study': ['Computer Science']} | 82,834 |
Den massiva parallella arkitekturen gör det möjligt för grafikbearbetningsenheter (GPU) att öka prestandan för ett brett spektrum av applikationer. Inledningsvis använder GPU bara scratchpad minne som on-chip minne. Nyligen, för att bredda omfattningen av applikationer som kan påskyndas av GPU:er, har GPU-leverantörer använt caches i kombination med scratchpad minne som on-chip minne i de nya generationerna av GPU:er. Tyvärr, GPU caches står inför många prestandautmaningar som uppstår på grund av överdriven tråd strid för cache resurs. Cache bypassing, där minnesförfrågningar selektivt kan kringgå cache, är en lösning som kan bidra till att minska problemet med cacheresursinnehåll. I detta dokument föreslår vi samordnade statiska och dynamiska cache förbikopplingar för att förbättra applikationens prestanda. Vid kompileringstid identifierar vi de globala belastningar som indikerar starka preferenser för cachelagring eller förbikoppling genom profilering. För resten globala laster, har vår dynamiska cache förbikoppling flexibiliteten att cache bara en bråkdel av trådar. I CUDA-programmeringsmodellen är trådarna uppdelade i arbetsenheter som kallas trådblock. Vår dynamiska förbifartsteknik modulerar förhållandet mellan trådblock som cache eller bypass vid körtid. Vi väljer att modulera på trådblocksnivå för att undvika problem med minnesskillnader. Vår strategi kombinerar kompilerings-tidsanalys som bestämmer cache- eller bypassinställningarna för globala laster med run-time-hantering som justerar förhållandet mellan trådblock som cache eller bypass. Vår samordnade statiska och dynamiska cache förbifartsteknik uppnår upp till 2,28X (genomsnittlig 1,32X) prestandaupphastighet för en mängd olika GPU-applikationer. | Xie och Al. I REF föreslås en förbikopplingsmekanism på trådblocksnivån. | 4,986,648 | Coordinated static and dynamic cache bypassing for GPUs | {'venue': '2015 IEEE 21st International Symposium on High Performance Computer Architecture (HPCA)', 'journal': '2015 IEEE 21st International Symposium on High Performance Computer Architecture (HPCA)', 'mag_field_of_study': ['Computer Science']} | 82,835 |
Dubbelriktad vägspårning Metropolis ljustransport Fotonkartläggning Progressiv fotonkartläggning Figur 1: En glaslampa lyser upp en vägg och genererar ett komplext kaustikljusmönster på väggen. Denna typ av belysning är svår att simulera med Monte Carlo ray spårning metoder såsom spårspårning, dubbelriktad vägspårning, och Metropolis ljustransport. Den belysning som ses genom lampan är särskilt svår för dessa metoder. Fotonkartläggning är betydligt bättre på att fånga den kaustikbelysning som syns genom lampan, men den slutliga kvaliteten begränsas av det minne som finns tillgängligt för fotonkartan och det saknar den fina detaljen i belysningen. Progressiv fotonkartläggning ger en bild med betydligt mindre buller samtidigt som Monte Carlo strålspårningsmetoder och den slutliga kvaliteten begränsas inte av det tillgängliga minnet. Detta papper introducerar en enkel och robust progressiv global belysningsalgoritm baserad på fotonkartläggning. Progressiv fotonkartläggning är en multipassalgoritm där det första passet är strålspårning följt av ett antal fotonspårningspass. Varje fotonspårningspass resulterar i en alltmer exakt global belysningslösning som kan visualiseras för att ge progressiv feedback. Progressiv fotonkartläggning använder en ny utstrålningsskattning som konvergerar till rätt utstrålningsvärde då fler fotoner används. Det är inte nödvändigt att lagra hela fotonkartan, och till skillnad från standardfotonkartläggning är det möjligt att beräkna en global belysningslösning med önskad noggrannhet med en begränsad mängd minne. Jämfört med befintliga Monte Carlo ray tracking metoder progressiv foton kartläggning ger ett effektivt och robust alternativ i närvaro av komplexa ljustransport såsom kaustik och i synnerhet reflektioner av kaustik. | Ref. REF införde progressiv fotonkartläggning där den globala belysningslösningen blir alltmer exakt och kan visualiseras för att ge progressiv feedback. | 207,170,322 | Progressive photon mapping | {'venue': "SIGGRAPH Asia '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,836 |
Kameror med rullande jalusier blir allt vanligare när låg effekt, billiga CMOS-sensorer används oftare i kameror. Den rullande slutaren innebär att inte alla scanlines exponeras under samma tidsintervall. Effekterna av en rullande slutare är märkbara när antingen kameran eller föremål i scenen rör sig och kan leda till systematiska fördomar i projektion estimering. Vi utvecklar en allmän projektionsekvation för en rullande slutarkamera och visar hur den påverkas av olika typer av kamerarörelse. I fallet med fronto-parallell rörelse, visar vi hur den kameran kan modelleras som en X-belyst kamera. Vi utvecklar också ungefärliga projektionsekvationer för en icke-noll vinkelhastighet kring den optiska axeln och ungefärlig projektionsekvation för en konstant hastighetsskruvrörelse. Vi visar hur den rullande slutaren påverkar kamerans projektiva geometri och i sin tur strukturen-från-rörelse. | REF studerar RS-kamerornas projektiva geometri och beskriver även en kalibreringsteknik för uppskattning av avläsningsparametrarna. | 854,406 | Geometric Models of Rolling-Shutter Cameras | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,837 |
Abstract-Handheld-enheter har blivit tillräckligt kraftfulla att det är lätt att skapa, sprida och få tillgång till digitalt innehåll (t.ex. foton, videor) med hjälp av dem. Volymen av sådant innehåll ökar snabbt och det är viktigt att välja relevant innehåll ur varje användares perspektiv. I detta syfte kan varje användare köra en förtroendemodell - en programvaruagent som håller reda på vem som sprider innehåll som användaren finner relevant. Detta ombud gör detta genom att tilldela varje producent ett initialt förtroendevärde för en viss kategori (kontext). När det sedan tar emot nytt innehåll värderar agenten innehållet och uppdaterar därmed dess förtroendevärde för producenten i innehållskategorin. Ett problem med ett sådant tillvägagångssätt är dock att eftersom antalet innehållskategorier ökar, så kommer också antalet förtroendevärden att fastställas från början. Detta dokument fokuserar på hur man på ett effektivt sätt fastställer de ursprungliga förtroendevärdena. Den mest sofistikerade av de nuvarande lösningarna använder fördefinierade sammanhang ontologier, med hjälp av vilka initialt förtroende i ett givet sammanhang grundar sig på det som redan finns i liknande sammanhang. Men allmänt accepterade (och tidsinvarianta) ontologier förekommer sällan i praktiken. Av denna anledning föreslår vi en mekanism som kallas TRULLO (TRUst bootstraping by Latently Lifting cOntext) som tilldelar initiala förtroendevärden baserade endast på lokal information (om betyg på användarens tidigare erfarenheter) och som, som sådan, inte förlitar sig på rekommendationer från tredje part. Vi utvärderar effektiviteten hos TRULLO genom att simulera dess användning i en informell antik marknad. Vi utvärderar också beräkningskostnaden för en J2ME-implementering av TRULLO på en mobiltelefon. | Quercia m.fl. föreslå att använda en användares lokala information (om betyg på tidigare erfarenheter) för att uppskatta tillförlitligheten hos en post REF. | 11,827,226 | TRULLO - local trust bootstrapping for ubiquitous devices | {'venue': '2007 Fourth Annual International Conference on Mobile and Ubiquitous Systems: Networking & Services (MobiQuitous)', 'journal': '2007 Fourth Annual International Conference on Mobile and Ubiquitous Systems: Networking & Services (MobiQuitous)', 'mag_field_of_study': ['Computer Science']} | 82,838 |
Syftet med denna studie var att undersöka kvaliteten och användbarheten hos tre modeller för bedömning av programvara med öppen källkod: Open Business Readiness Rating (OpenBRR), Qualification and Selection of Open Source Software (QSOS) och QualiPSo OpenSource Maturity Model (OMM). I undersökningen identifierades de positiva och negativa aspekterna av var och en av dem. Modellerna användes för att bedöma två Free/Libre Open Source Software-projekt: Firefox och Chrome (krom). Studien bygger på en uppsättning kontrollerade experiment där deltagarna gjorde bedömningen med endast en modell vardera. Den modell som användes och projektet Free/Libre Open Source Software som bedömdes tilldelades slumpmässigt deltagarna. Experimentet genomfördes i en kontrollerad miljö med definierade uppgifter som skulle utföras inom ett givet tidsintervall. Resultaten visade att de tre modellerna gav jämförbara bedömningar för de två bedömda projekten. Den viktigaste slutsatsen var att alla de tre modellerna innehåller några frågor och förslag till svar som inte är tydliga för bedömarna, därför bör skrivas om eller förklaras bättre. De kritiska aspekterna av varje modell var: Funktionalitet och kvalitet för OpenBRR; Adoption, Administration/Monitoring, Copyright ägare, och Browser för QSOS ; och Kvalitet på testplanen, och den tekniska miljön för OMM. Deltagarna uppfattade kvaliteten och användbarheten hos de tre modellerna på jämförbar nivå. | REF har utvecklat en studie om kvaliteten och användbarheten hos tre FLOSS-bedömningsmodeller: OpenBRR, QSOS och Qualipso OpenSource Maturity Model (OMM). | 9,032,490 | Comparing OpenBRR, QSOS, and OMM Assessment Models | {'venue': 'OSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,839 |
Språkidentifiering är uppgiften att identifiera det språk som en viss handling är skriven på. I detta dokument beskrivs en detaljerad undersökning av vilka modeller som fungerar bäst under olika förhållanden, baserat på experiment i tre separata datauppsättningar och en rad tokeniseringsstrategier. Vi visar att uppgiften blir allt svårare när vi ökar antalet språk, minskar mängden utbildningsdata och minskar dokumentens längd. Vi visar också att det är möjligt att utföra språkidentifiering utan att behöva utföra explicit teckenkodning upptäckt. | Till exempel presenterade REF en detaljerad undersökning av vilka tillvägagångssätt som var bäst under varierande förhållanden, och fann att LD blev allt svårare när vi ökade antalet språk, minskade storleken på utbildningsdata och minskade dokumentlängden. | 10,845,076 | Language Identification: The Long and the Short of the Matter | {'venue': 'Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,840 |
Hur man skapar multi-vy bilder med realistiska utseende från endast en vy input är ett utmanande problem. I detta dokument angriper vi detta problem genom att föreslå en ny bildgenereringsmodell som kallas VariGANs, som kombinerar fördelarna med den variationsbaserade inferensen och Generative Adversarial Networks (GANs). Det genererar målbilden på ett grovt till fint sätt i stället för ett enda pass som lider av allvarliga artefakter. Den utför först variabla slutsatser för att modellera det globala utseendet på objektet (t.ex. form och färg) och producerar grova bilder av olika vyer. Konditionerad på de genererade grova bilder, utför den sedan motsatt inlärning för att fylla i detaljer som överensstämmer med inmatningen och generera de fina bilderna. Omfattande experiment utförda på två kläddataset, MVC och DeepFashion, har visat att de genererade bilderna med de föreslagna Varigans är mer rimliga än de som genereras av befintliga metoder, vilket ger mer konsekvent globalt utseende samt rikare och skarpare detaljer. | I multi-vy bildgenerering från en enda vy REF, en tillståndsbild (t.ex. Frontalvy) användes för att begränsa de genererade flera vyer i deras grov-till-fine ram. | 3,570,089 | Multi-View Image Generation from a Single-View | {'venue': "MM '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,841 |
För att delvis ta itu med människors oro över webbspårning, Google har skapat Ad Settings webbsida för att ge information om och ett visst val över de profiler Google skapar på användare. Vi presenterar AdFisher, ett automatiserat verktyg som undersöker hur användarens beteende, Googles annonser och annonsinställningar interagerar. AdFisher kan köra webbläsarbaserade experiment och analysera data med hjälp av maskininlärning och signifikans tester. Vårt verktyg använder en rigorös experimentell design och statistisk analys för att säkerställa den statistiska sundheten i våra resultat. Vi använder AdFisher för att upptäcka att annonsinställningarna var ogenomskinliga om vissa funktioner i en användares profil, att det ger vissa val på annonser, och att dessa val kan leda till till synes diskriminerande annonser. Framför allt fann vi att besökande webbsidor i samband med missbruk ändrade annonserna som visades men inte inställningssidan. Vi fann också att sätta kön för kvinnor resulterade i att få färre fall av en annons relaterad till högt betalda jobb än att sätta det till manliga. Vi kan inte avgöra vem som orsakade dessa fynd på grund av vår begränsade synlighet i annonsekosystemet, vilket inkluderar Google, annonsörer, webbplatser och användare. Dessa resultat kan dock utgöra utgångspunkten för fördjupade undersökningar antingen av företagen själva eller av regleringsorgan. | I synnerhet skapade REF ett automatiserat verktyg som analyserar online-reklam: det fungerar dynamiskt genom att kartlägga de annonser som produceras av Google. | 2,862,289 | Automated Experiments on Ad Privacy Settings | {'venue': None, 'journal': 'Proceedings on Privacy Enhancing Technologies', 'mag_field_of_study': ['Computer Science']} | 82,842 |
Kapaciteten hos ett neuralt nätverk för att absorbera information begränsas av dess antal parametrar. Villkorlig beräkning, där delar av nätet är aktiva per exempel, har i teorin föreslagits som ett sätt att dramatiskt öka modellkapaciteten utan en proportionell ökning av beräkningen. I praktiken finns det dock betydande utmaningar när det gäller algoritmer och prestanda. I detta arbete tar vi itu med dessa utmaningar och slutligen förverkliga löftet om villkorlig beräkning, uppnå mer än 1000x förbättringar i modellkapacitet med endast mindre förluster i beräkningseffektivitet på moderna GPU-kluster. Vi introducerar en Sparsely-Gated Mixing-of-Experts lager (MoE), bestående av upp till tusentals feed-forward undernätverk. Ett utbildat gating nätverk bestämmer en gles kombination av dessa experter att använda för varje exempel. Vi tillämpar MoE på uppgifter som språkmodellering och maskinöversättning, där modellkapacitet är avgörande för att absorbera de stora mängder kunskap som finns i träningskorporan. Vi presenterar modellarkitekturer där en MoE med upp till 137 miljarder parametrar appliceras konvolutionellt mellan staplade LSTM-lager. På stora språk modellering och maskinöversättning riktmärken, dessa modeller uppnå betydligt bättre resultat än state-of-the-art till lägre beräkningskostnader. | Mer nyligen, Shazeer et al. har undersökt kombinationen av villkorlig beräkning med Blandning av experter på språkmodellering och maskinöversättningsuppgifter REF. | 12,462,234 | Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,843 |
Detta dokument beskriver en konturlogik som täcker de flesta typiska objektorienterade språkkonstruktioner i närvaro av arv och undertypning. Logiken är baserad på en svagaste kalkyl för uppdrag och objektallokering som tar hänsyn till fältskuggning. Dynamiskt bundna metodsamtal hanteras med en variant av Hoare's regel om anpassning som behandlar den dynamiska fördelningen av objekt i objektorienterade program. Logiken bygger på ett påståendespråk som är nära anpassat till programplaneringsspråkets abstraktionsnivå. | I REF beskrivs en utvidgning till de typiska objektorienterade egenskaperna hos arv och undertypning. | 17,225,439 | A Proof Outline Logic for Object-Oriented Programming | {'venue': 'Theor. Comput. Sci.', 'journal': 'Theor. Comput. Sci.', 'mag_field_of_study': ['Computer Science']} | 82,844 |
Nästa generation (5G) cellulära nätverk förväntas stödjas av en omfattande infrastruktur med många gånger ökat antal celler per enhet område jämfört med idag. Den totala energiförbrukningen vid bastransceiverstationer (BTS) är en viktig fråga av både ekonomiska och miljömässiga skäl. I detta dokument föreslås ett optimeringsbaserat ramverk för energieffektiv global förvaltning av radioresurser i heterogena trådlösa nät. Särskilt, med stokastiska ankomster av kända priser avsedda för användare, den minsta uppsättning BTS aktiveras med gemensamt optimerad användarbindning och spektrumallokering för att stabilisera nätet. Den genomsnittliga fördröjningen minimeras därefter. Systemet kan genomföras med jämna mellanrum på en relativt långsam tidsskala för att anpassa sig till aggregerade trafikvariationer och genomsnittliga kanalförhållanden. Numeriska resultat visar att det föreslagna systemet avsevärt minskar energiförbrukningen och ökar tjänsternas kvalitet jämfört med befintliga system. | I REF föreslogs en ram för energieffektiv global förvaltning av radioresurser i heterogena trådlösa nät. | 8,736,662 | Energy-Efficient Cell Activation, User Association, and Spectrum Allocation in Heterogeneous Networks | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,845 |
Vi undersöker om en klassificeringsgivare kontinuerligt kan autentisera användare baserat på hur de interagerar med pekskärmen på en smarttelefon. Vi föreslår en uppsättning av 30 beteendemässiga touch funktioner som kan extraheras från rå pekskärm loggar och visa att olika användare befolkar olika subrymder av denna funktion utrymme. I ett systematiskt experiment utformat för att testa hur detta beteendemönster uppvisar konsekvens över tid samlade vi in touchdata från användare som interagerar med en smarttelefon med hjälp av grundläggande navigeringsmanövrer, dvs. upp-och-ned och vänster-höger rullning. Vi föreslår ett klassificeringsramverk som lär sig en användares beröringsbeteende under en inskrivningsfas och kan acceptera eller avvisa den nuvarande användaren genom att övervaka interaktion med pekskärmen. Klassificeringsgivaren uppnår en medianvärde för lika felfrekvens på 0% för autentisering inom sessionen, 2%-3% för behörighetskontroll mellan sessioner och under 4% när autentiseringstestet genomfördes en vecka efter inskrivningsfasen. Medan våra experimentella resultat diskvalificerar denna metod som en fristående autentiseringsmekanism för långsiktig autentisering, kan den genomföras som ett sätt att förlänga skärmlåsningstiden eller som en del av ett multimodalt biometriskt autentiseringssystem. | Frank och Al. REF undersökte 30 beteendemässiga touch-funktioner och erhöll en EER på 0% för autentisering inom sessionen, 2%-3% för behörighetskontroll mellan sessioner och under 4% när autentiseringstestet genomfördes en vecka efter inskrivningsfasen. | 17,558,010 | Touchalytics: On the Applicability of Touchscreen Input as a Behavioral Biometric for Continuous Authentication | {'venue': 'IEEE Transactions on Information Forensics and Security (Vol. 8, No. 1), pages 136-148, 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,846 |
Abstrakt. I detta dokument formaliserar vi begreppet ringsignaturer, vilket gör det möjligt att specificera en uppsättning möjliga signors utan att avslöja vilken medlem som faktiskt producerade signaturen. Till skillnad från gruppsignaturer har ringsignaturer inga gruppchefer, inga inställningsförfaranden, inga återkallelseförfaranden och ingen samordning: alla användare kan välja vilken uppsättning av möjliga signors som helst som inkluderar sig själv, och signera något meddelande genom att använda sin hemliga nyckel och de andras öppna nycklar, utan att få deras godkännande eller hjälp. Ringsignaturer ger ett elegant sätt att läcka auktoritativa hemligheter på ett anonymt sätt, att signera tillfällig e-post på ett sätt som endast kan verifieras av den avsedda mottagaren, och att lösa andra problem i multipartsberäkningar. Det viktigaste bidraget från detta papper är en ny konstruktion av sådana signaturer som är ovillkorligt signerambigerande, bevisligen säker i den slumpmässiga orakelmodellen, och exceptionellt effektiv: att lägga till varje ringmedlem ökar kostnaden för signering eller verifiering genom en enda modulär multiplikation och en enda symmetrisk kryptering. | Ringsignaturer presenterades först av Rivest et al. REF som ett sätt att läcka hemligheter anonymt. | 10,642,507 | How to leak a secret | {'venue': 'PROCEEDINGS OF THE 7TH INTERNATIONAL CONFERENCE ON THE THEORY AND APPLICATION OF CRYPTOLOGY AND INFORMATION SECURITY: ADVANCES IN CRYPTOLOGY', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,847 |
Abstract-Vi studerar en ny klass av mekanism design problem där resultaten begränsas av betalningarna. Denna grundläggande klass av mekanism design problem fångar många gemensamma ekonomiska situationer, och ändå har det inte studerats, till vår kunskap, i det förflutna. Vi fokuserar på upphandling auktioner där säljare har privata kostnader, och auktionsförrättaren syftar till att maximera en nyttofunktion på undergrupper av poster, under förutsättning att summan av de betalningar som tillhandahålls av mekanismen inte överstiger en viss budget. Standard mekanism design idéer såsom VCG-mekanismen och dess varianter är inte tillämpliga här. Vi visar att budgetbegränsningen för allmänna funktioner kan göra mekanismer godtyckligt dåliga när det gäller köparens nytta. Vårt huvudsakliga resultat visar dock att det för den viktiga klassen av submodulära funktioner är möjligt att uppnå ett begränsat approximationsförhållande. Bättre approximativa resultat erhålls för underklasser av de submodulära funktionerna. Vi utforskar utrymmet för budgetgenomförbara mekanismer inom andra områden och ger en karakterisering under mer begränsade villkor. | För symmetriska submodulära funktioner är en sanningsenlig mekanism med approximationsförhållande 2 känd, och detta förhållande är tight REF. | 11,916,656 | Budget Feasible Mechanisms | {'venue': '2010 IEEE 51st Annual Symposium on Foundations of Computer Science', 'journal': '2010 IEEE 51st Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,848 |
Abstrakt. Ett öppet problem presenteras om förekomsten av ren strategi Nash jämvikt (PNE) i nätverk trängsel spel med ett begränsat antal icke-identiska spelare, där strategin uppsättningen av varje spelare är insamling av alla vägar i ett givet nätverk som länkar spelarens ursprung och destination hörn, och trängsel ökar kostnaderna för kanter. Ett nätverk trängselspel där spelarna endast skiljer sig i sin ursprung-destination par är ett potentiellt spel, vilket innebär att, oavsett den exakta funktionella formen av kostnadsfunktioner, det har en PNE. En PNE finns inte nödvändigtvis om (i) beroendet av kostnaden för varje kant på antalet användare är spelare-och kantspecifika eller (ii) den (eventuellt, kant-specifika) kostnaden är densamma för alla spelare men det är en funktion (inte av antalet men) av den totala vikten av de spelare som använder kanten, med varje spelare jag har en annan vikt w i. I ett parallellt två-terminalnät, där ursprunget och destinationen är de enda hörn olika kanter har gemensamt, finns alltid en PNE även om spelarna skiljer sig i antingen sina kostnadsfunktioner eller vikter, men inte i båda. För allmänna tvåterminalnät är detta dock inte fallet. Problemet är att karakterisera klassen av alla två-terminal nätverk topologier för vilka förekomsten av en PNE garanteras även med spelare-specifika kostnader, och motsvarande klass för spelare-specifika vikter. Vissa framsteg när det gäller att lösa detta problem rapporteras. | Tvärtom, i vår modell leder ledaren fördelningen av resurser, och vi anser att ett spelarspecifikt vägt nätverk trängsel spel för vilka förekomsten av jämvikt inte är känd i allmänhet REF. | 14,112,149 | The equilibrium existence problem in finite network congestion games | {'venue': 'In Proc. of the 2nd Int. Workshop on Internet and Network Economics (WINE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,849 |
För objektdetektering har tvåstegsmetoden (t.ex. Snabbare R-CNN) uppnått högsta noggrannhet, medan enstegsmetoden (t.ex. SSD) har fördelen av hög effektivitet. För att ärva fördelarna med båda samtidigt övervinna sina nackdelar, i detta dokument, föreslår vi en ny engångsbaserad detektor, kallad RafineDet, som uppnår bättre noggrannhet än två steg metoder och bibehåller jämförbar effektivitet i ett steg metoder. Re-fineDet består av två sammankopplade moduler, nämligen ankarförfiningsmodulen och objektdetekteringsmodulen. Specifikt syftar den förra till att (1) filtrera bort negativa ankare för att minska sökytan för klassificeringen, och (2) grovt justera platser och storlekar för ankare för att ge bättre initiering för den efterföljande regressorn. Den senare modulen tar de raffinerade ankarna som indata från den förra för att ytterligare förbättra regressionsnoggrannheten och förutsäga flerklassetikett. Samtidigt utformar vi ett överföringsblock för att överföra funktionerna i förankringsmodulen för att förutsäga platser, storlekar och klassetiketter för objekt i objektdetekteringsmodulen. Den multitask förlustfunktion gör det möjligt för oss att träna hela nätverket på ett end-to-end sätt. Omfattande experiment på PASCAL VOC 2007, PASCAL VOC 2012, och MS COCO visar att RafineDet uppnår toppmodern detektionsnoggrannhet med hög effektivitet. Koden finns på https: // github.com/ sfzhang15/RefineDet. 1 Vid snabbare R-CNN tränas funktionerna (med undantag för delade funktioner) i det första steget (dvs. RPN) för binär klassificering (som ett objekt eller inte), medan funktionerna (med undantag av delade funktioner) i det andra steget (dvs. Fast R-CNN) tränas för klassificering i flera klasser (bakgrunds- eller objektklasser). | För att lösa problemet med obalansen mellan positiva och negativa prover föreslog Ref Ref förfining av ankaret (ARM) för att minska negativa provankare för att minska sökytan för klassificeringsmaskinen, och ungefär justera ankarets position och storlek för att ge bättre initialiseringsresultat för efterföljande regressioner. | 7,271,452 | Single-Shot Refinement Neural Network for Object Detection | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 82,850 |
Den offentliga nyckelkryptering med sökordssökning (PEKS) system nyligen föreslås av Boneh, Di Crescenzo, Ostrovsky, och Persico gör det möjligt att söka krypterade sökord utan att äventyra säkerheten för den ursprungliga data. I detta dokument tar vi upp tre viktiga frågor om ett PEKS-system, "uppfriskande nyckelord", "avveckling av säker kanal", och "behandling av flera nyckelord", som inte har beaktats i Boneh et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning.Det är papper. Vi hävdar att försiktighet måste iakttas när nyckelord används ofta i PEKS-systemet eftersom denna situation kan strida mot säkerheten i PEKS. Vi pekar sedan på ineffektiviteten i det ursprungliga PEKS-systemet på grund av användningen av den säkra kanalen. Vi löser detta problem genom att konstruera ett effektivt PEKS-system som tar bort säker kanal. Slutligen föreslår vi ett PEKS-system som krypterar flera nyckelord på ett effektivt sätt. | För att övervinna denna begränsning, Baek et al. REF föreslog ett nytt PEKS-system utan att kräva en säker kanal. | 9,648,220 | Public Key Encryption with Keyword Search Revisited | {'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science']} | 82,851 |
Vi analyserar stokastisk lutning nedstigning för att optimera icke-konvexa funktioner. I många fall för icke konvexa funktioner är målet att hitta ett rimligt lokalt minimum, och det främsta problemet är att gradient uppdateringar är instängda i sadeln punkter. I detta papper identifierar vi strikt sadelförmågor för icke-konvexa problem som möjliggör effektiv optimering. Med hjälp av denna egenskap visar vi att stokastisk lutning nedstigning konvergerar till ett lokalt minimum i ett polynom antal iterationer. Såvitt vi vet är detta det första arbetet som ger globala konvergensgarantier för stokastisk lutning nedstigning på icke konvexa funktioner med exponentiellt många lokala minima och sadelpunkter. Vår analys kan tillämpas på ortogonal tensor sönderdelning, som ofta används för att lära sig en rik klass av latenta variabla modeller. Vi föreslår en ny optimering formulering för tensor nedbrytning problem som har strikt sadel egendom. Som ett resultat får vi den första online-algoritmen för ortogonal tensor sönderdelning med global konvergensgaranti. | Ge och al. REF visade att stokastisk lutning nedstigning (SGD) kan hitta lokala minima av strikta sadelfunktioner i polynom tid. | 11,513,606 | Escaping From Saddle Points --- Online Stochastic Gradient for Tensor Decomposition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,852 |
Abstract-Vi presenterar en ny metod för att analysera tvådimensionell (2D) flödesfältdata baserat på idén om invarianta ögonblick. Momentinvarianter har traditionellt använts i datorseende applikationer, och vi har anpassat dem för interaktiv undersökning av flödesfältsdata. Den nya klass av momentinvarianter vi har utvecklat gör att vi kan extrahera och visualisera 2D flödesmönster, invariant under översättning, skalning och rotation. Med vårt tillvägagångssätt kan man studera godtyckliga flödesmönster genom att söka en given 2D flödesdatauppsättning för alla typer av mönster som anges av en användare. Vidare stöder vår strategi beräkning av ögonblick på flera skalor, vilket underlättar snabb mönsterextraktion och igenkänning. Detta kan göras för kritisk punktklassificering, men också för mönster med större komplexitet. Denna flerskaliga ögonblicksrepresentation är också värdefull för den jämförande visualiseringen av flödesfältsdata. De specifika nya bidragen av det presenterade verket är den matematiska härledningen av den nya klassen av momentinvarianter, deras analys av kritiska punktegenskaper, effektiv beräkning av en ny funktion rymdrepresentation, och baserat på detta utvecklingen av en snabb mönsterigenkänning algoritm för komplexa flödesstrukturer. | Schlemmer m.fl. REF utnyttjar momentinvarianter för att upptäcka 2D-flödesfunktioner som är invarianta under översättning, skalning och rotation. | 14,303,376 | Moment Invariants for the Analysis of 2D Flow Fields | {'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 82,853 |
Abstract-Co-saliency används för att upptäcka den gemensamma soliditeten på flera bilder, vilket är ett relativt underskattat område. I det här dokumentet introducerar vi en ny klusterbaserad algoritm för co-saliency detektion. Global överensstämmelse mellan de flera bilderna är implicit inlärd under klusterprocessen. Tre visuella tecken på uppmärksamhet: kontrast, rumslig och motsvarande, utformas för att effektivt mäta klustrets betydelse. De slutliga sam-salienskartorna genereras genom att man sammanställer en-bilds-saliensen och multiimage-saliensen. Fördelen med vår metod är mestadels bottom-up utan tung inlärning, och har egenskapen att vara enkel, allmän, effektiv och effektiv. Kvantitativa och kvalitativa experiment resulterar i en mängd olika referensdatauppsättningar som visar fördelarna med den föreslagna metoden jämfört med de konkurrerande samvärdesmetoderna. Vår metod på en enda bild överträffar också de flesta toppmoderna detektionsmetoder. Dessutom tillämpar vi co-salicy-metoden på fyra visionsapplikationer: co-segmentation, robust bildavstånd, svagt övervakad inlärning och förgrundsdetektering av video, som visar den potentiella användningen av co-salicy-kartan. | Fu m.fl. REF introducerar en klusterbaserad algoritm med kontraster, rumsliga och motsvarande signaler. | 579,650 | Cluster-Based Co-Saliency Detection | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 82,854 |
I detta dokument föreslår vi en återkommande ram för gemensamt oövervakat lärande av djupa representationer och bildkluster. I vårt ramverk, på varandra följande operationer i en kluster algoritm uttrycks som steg i en återkommande process, staplas ovanpå representationer ut av en Convolutional Neural Network (CNN). Under utbildningen uppdateras bildkluster och representationer gemensamt: bildkluster utförs i det framåtgående passet, medan representationsinlärning i det bakåtpasset. Vår centrala idé bakom denna ram är att goda representationer är till nytta för bildkluster och klusterresultat ger övervakningssignaler till representationsinlärning. Genom att integrera två processer i en enda modell med en enhetlig viktad triplet förlust funktion och optimera den endto-end, kan vi få inte bara mer kraftfulla representationer, men också mer exakta bildkluster. Omfattande experiment visar att vår metod överträffar den senaste tekniken på bildkluster över en mängd olika bilddatauppsättningar. Dessutom generaliserar de lärda framställningarna väl när de överförs till andra uppgifter. Källkoden kan laddas ner från https: // github.com/ jwyang/ joint- unövervakad- learning. | JULE REF, baserad på ett återkommande ramverk och iterativt kluster med hjälp av agglomerativ kluster algoritm. | 8,105,340 | Joint Unsupervised Learning of Deep Representations and Image Clusters | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 82,855 |
Abstract Differentiering av maligna och benigna pulmonella knölar är av avgörande klinisk betydelse. Texture funktioner av pulmonella knutor i CT-bilder återspeglar en kraftfull karaktär av malignitet utöver geometri-relaterade åtgärder. Denna studie jämförde först tre välkända typer av tvådimensionella (2D) texturfunktioner (Haralick, Gabor, och lokala binära mönster eller lokala binära mönster) på CADx lungknutor med hjälp av den största offentliga databasen som grundades av Lung Image Database Consortium och Image Database Resource Initiative och undersökte sedan förlängning från 2D till tredimensionell (3D) utrymme. Kvantitativa jämförelsemått gjordes av den väletablerade klassificeringsmaskinen för vektorer (SVM), arean under mottagarens karakteristiska kurvor (AUC) och p-värdena från hypotes t-tester. Medan de tre funktionstyperna visade ungefär 90 % differentieringsgrad, uppnådde Haralick-funktionerna det högsta AUC-värdet på 92,70 % vid en tillräcklig bildskivas tjocklek, där en tunnare eller tjockare tjocklek försämrar prestandan på grund av överdrivet bildljud eller förlust av axiella detaljer. Vinst observerades vid beräkning av 2D-funktioner på alla bildskivor jämfört med den enskilt största biten. Den 3D förlängning visade potentiella vinst när ett optimalt antal riktningar kan hittas. Alla observationer från denna systematiska undersökning av de tre funktionstyperna kan leda till slutsatsen att Haralick-funktionstypen är ett bättre val, användningen av hela 3D-data är fördelaktigt och en lämplig avvägning mellan bildtjocklek och buller önskas för en optimal CADx-prestanda. Dessa slutsatser ger en riktlinje för ytterligare forskning om lungknutan differentiering med hjälp av datortomografi. | Föreslå en studie baserad på texturanalys, Han et al. REF extraherade 2D texturfunktioner som Haralick, Gabor och lokala binära mönster (LBP) och utökade dem till 3D. | 34,301,403 | Texture Feature Analysis for Computer-Aided Diagnosis on Pulmonary Nodules | {'venue': 'Journal of Digital Imaging', 'journal': 'Journal of Digital Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 82,856 |
En trädensemblemetod, kallad tidsserieskog (TSF), föreslås för tidsserieklassificering. TSF använder en kombination av entropivinst och ett avståndsmått, kallat Entrance (entropi och avstånd), för att utvärdera uppdelningarna. Experimentella studier visar att entrévinsten förbättrar noggrannheten hos TSF. TSF tar slumpmässigt prover funktioner vid varje trädknuta och har beräkningsmässig komplexitet linjär i tidsseriens längd, och kan byggas med hjälp av parallella datortekniker. Den tidsmässiga viktkurvan föreslås fånga de tidsmässiga egenskaper som är användbara för klassificering. Experimentella studier visar att TSF med hjälp av enkla funktioner som medelvärde, standardavvikelse och lutning är beräkningseffektivt och överträffar starka konkurrenter såsom en-glänsande-grann-klassificerare med dynamisk tidsförvrängning. | REF använde några enkla att beräkna funktioner som medelvärde, standardavvikelse och lutning tidsvikt kurvor för att styra tidsseriens klassificering. | 17,169,677 | A Time Series Forest for Classification and Feature Extraction | {'venue': 'Information Sciences 239: 142-153 (2013)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,857 |
Differentiell integritet är en kryptografiskt motiverad definition av integritet som har fått stor uppmärksamhet under de senaste åren. Differentiellt privata lösningar genomdriva integritet genom att lägga slumpmässiga buller till en funktion som beräknas över data, och utmaningen vid utformningen av sådana algoritmer är att kontrollera det ökade bruset för att optimera integritetsnoggrannhet-prov storlek kompromiss. Detta arbete studerar olika privata statistiska skattningar, och visar övre och nedre gränser för konvergenstalen för differentierade privata approximationer till statistiska skattningar. Våra resultat avslöjar en formell koppling mellan differentiell integritet och begreppet bruttofelkänslighet (GES) i robust statistik, genom att visa att konvergensgraden för varje differentierad privat approximation till en estimator som är korrekt över en stor klass av distributioner måste växa med GES av estimatorn. Vi tillhandahåller sedan en övre gräns för konvergenskvoten för en differentierad privat approximation till en estimator med begränsat intervall och avgränsad GES. Vi visar att det avgränsade intervallet villkor är nödvändigt om vi vill säkerställa en strikt form av differential integritet. | På liknande sätt drog REF en kvantitativ koppling mellan robust statistik och differentiell integritet genom att tillhandahålla begränsad urvalskonvergens för olika privata insticksstatistiska skattningar när det gäller känsligheten för bruttofel, ett gemensamt mått på robusthet. | 9,525,432 | Convergence Rates for Differentially Private Statistical Estimation | {'venue': 'Proceedings of the ... International Conference on Machine Learning. International Conference on Machine Learning', 'journal': 'Proceedings of the ... International Conference on Machine Learning. International Conference on Machine Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']} | 82,858 |
Medan egocentriska video blir allt populärare, är det mycket svårt att bläddra. I detta dokument presenterar vi en kompakt 3D Convolutional Neural Network (CNN) arkitektur för långsiktig aktivitetsigenkänning i egocentriska videor. Genom att känna igen långsiktiga aktiviteter kan vi temporärt segmentera (index) långa och ostrukturerade egocentriska videor. Befintliga metoder för denna uppgift är baserade på handjusterade funktioner som härrör från synliga objekt, plats för händer, samt optiskt flöde. Med tanke på en gles optisk flödesvolym som ingång klassificerar vårt CNN kamerabärarens aktivitet. Vi får en klassificeringsnoggrannhet på 89 procent, vilket överträffar dagens toppmoderna nivå med 19 procent. Ytterligare utvärdering görs på en utökad egocentrisk videodatauppsättning, som klassificerar dubbelt så många kategorier som nuvarande toppmoderna. Dessutom kan vårt CNN känna igen om en video är egocentrisk eller inte med 99,2% noggrannhet, upp med 24% från nuvarande state-of-the-art. För att bättre förstå vad nätverket faktiskt lär sig föreslår vi en ny visualisering av CNN-kärnor som flödesfält. | Poleg m.fl. REF föreslog en kompakt 3D Convolutional Neural Network (3DCNN) arkitektur för långsiktig aktivitetsigenkänning i egocentriska videor och utvidgade den till egocentrisk videosegmentering. | 678,822 | Compact CNN for Indexing Egocentric Videos | {'venue': "IEEE WACV'16, March 2016, pp. 1-9", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,859 |
En mängd biologiska data överförs och utbyts i överväldigande volymer på World Wide Web. Att snabbt fånga, utnyttja och integrera informationen på Internet för att upptäcka värdefull biologisk kunskap är en av de mest kritiska frågorna inom bioinformatik. Många system för informationsintegration har föreslagits för integrering av biologiska data. Dessa system är vanligtvis beroende av ett mellanprogramskikt som kallas wrappers för att få tillgång till uppkopplade informationskällor. Wrapper konstruktion för webbdatakällor är ofta speciellt handkodad för att tillgodose skillnaderna mellan varje webbplats. Programmering av ett webbomslag kräver dock omfattande programmeringsfärdigheter och är tidskrävande och svårt att underhålla. Detta dokument ger en lösning för snabbt bygga mjukvaruagenter som kan fungera som webbomslag för biologisk information integration. Vi definierar ett XML-baserat språk som kallas WNDL, som ger en representation av en webbläsning session. Ett WNDL-skript beskriver hur man lokaliserar data, extraherar data och kombinerar data. Genom att utföra olika WNDL-skript kan användaren automatisera praktiskt taget alla typer av webbläsningssessioner. Vi beskriver även IEPAD, en dataextraktor baserad på mönsterupptäcktstekniker. IEPAD gör det möjligt för våra programvaruagenter att automatiskt upptäcka utvinningsreglerna för att extrahera innehållet i en strukturellt formaterad webbsida. Med en programmering-för-exempel författarverktyg, en användare kan generera en komplett webbomslag agent genom att bläddra i målet webbplatser. Vi byggde en mängd olika biologiska tillämpningar för att visa genomförbarheten av vår strategi. Programvaran finns tillgänglig på http://chunnan.iis.sinica.edu.tw/software.html eller genom att kontakta författarna. | REF föreslår att du använder omkonfigurerbara webbomslagsagenter för användaren för att representera webbläsningssessionen. | 6,352,215 | Reconfigurable Web Wrapper Agents for Biological Information Integration | {'venue': 'J. Assoc. Inf. Sci. Technol.', 'journal': 'J. Assoc. Inf. Sci. Technol.', 'mag_field_of_study': ['Computer Science']} | 82,860 |
Samverkansfiltrering (CF) är ett framgångsrikt tillvägagångssätt som ofta används av många recommender-system. Konventionella CF-baserade metoder använder de betyg som ges till objekt av användarna som den enda informationskällan för att lära sig att ge rekommendationer. Betygen är dock ofta mycket glesa i många tillämpningar, vilket leder till att CF-baserade metoder minskar avsevärt i sin rekommendationsprestanda. För att ta itu med detta gleshetsproblem, kan extra information såsom objektinnehåll information användas. Samarbetande ämne regression (CTR) är en tilltalande ny metod med denna metod som tätt par de två komponenter som lär sig från två olika informationskällor. Men den latenta representation som CTR lärt sig kanske inte är särskilt effektiv när hjälpinformationen är mycket sparsam. För att ta itu med detta problem generaliserar vi de senaste framstegen i fråga om djup inlärning från i.i.d. indata till non- i. i. d. (CF-baserad) input och föreslå i detta dokument en hierarkisk Bayesian modell som kallas samarbete djupinlärning (CDL), som gemensamt utför djup representation lärande för innehållsinformation och samarbetsfiltrering för betyg (feedback) matris. Omfattande experiment på tre verkliga dataset från olika domäner visar att CDL kan avsevärt förbättra den senaste tekniken. | Inom ramen för rekommendationssystem, Collaborative Deep Learning (CDL) REF är en mycket populär hybrid rekommendationer modell. | 4,833,213 | Collaborative Deep Learning for Recommender Systems | {'venue': "KDD '15", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,861 |
ervasiva datormiljöer ökar människans tänkande och aktivitet med digital information, bearbetning och analys, vilket ger en observerad värld som förbättras av beteendesammanhanget hos dess användare. Ett spektrum av heterogena beräknings- och kommunikationsutrustningar syftar till att öka användarnas produktivitet och underlätta vardagssysslor. Trots förekomsten av sådana anordningar finns det dock ingen lämplig programvaruinfrastruktur för att utveckla tillämpningar för allmänt förekommande datamiljöer eller bostadsutrymmen. För att ta itu med denna brist utvecklade vi Gaia, ett metaoperativt system 1 (detaljerat i sidofältet "The Gaia Operating System") byggt som en distribuerad infrastruktur för mellanprogram som samordnar programvaruenheter och heterogena nätverksenheter som finns i ett fysiskt utrymme. Gaia är utformad för att stödja utveckling och utförande av bärbara applikationer för aktiva utrymmen 2 -programmerbara allmänt förekommande datormiljöer där användare interagerar med flera enheter och tjänster samtidigt. Gaia exporterar tjänster för att fråga, få tillgång till och använda befintliga resurser och sammanhang, och tillhandahåller en ram för att utveckla användarcentrerade, resursmedvetna, multienheter, sammanhangskänsliga och mobila applikationer. Genom att utvidga koncepten för traditionella operativsystem till allestädes närvarande datorutrymmen kan vi förenkla rymdhantering och applikationsutveckling. Gaias huvudsakliga bidrag är inte dess individuella tjänster utan snarare den funktionalitet som den tillhandahåller som ett resultat av interaktionen mellan dessa tjänster. Denna interaktion låter användare och utvecklare abstrakt allmänt förekommande datormiljöer som en enda reaktiv och programmerbar enhet i stället för en samling heterogena enskilda enheter. I den här artikeln presenterar vi en översikt över Gaiaarkitekturen, med fokus på hela systemet snarare än enskilda tjänster. Ett fysiskt utrymme, illustrerat i figur 1a, är en geografisk region med begränsade och väldefinierade fysiska gränser som innehåller fysiska objekt, heterogena nätverksenheter och användare som utför en rad aktiviteter. Ett aktivt utrymme, som visas i figur 1b, är ett fysiskt utrymme som samordnas av en lyhörd kontextbaserad programvaruinfrastruktur som ökar mobila användares förmåga att interagera med och konfigurera sina fysiska och digitala miljöer sömlöst. Aktiva utrymmen måste stödja utveckling och utförande av användarcentrerade mobila applikationer. I aktiva utrymmen associerar sessioner användardata och applikationer med användare. Detta gör det möjligt för användare att röra sig över aktiva utrymmen och ha sina data och applikationer alltid tillgängliga. När en användare går in i ett aktivt utrymme kartläggs användarens sessioner dynamiskt till de aktiva utrymmesresurserna. Användare kan definiera olika sessioner och kan aktivera och stänga av dem vid behov. Vi hänvisar till insamlingen av sessioner i samband med en användare som användarens virtuella utrymme. Den virtuella användaren Gaia-metaoperativsystemet utökar räckvidden för traditionella operativsystem för att hantera allmänt förekommande datormiljöer och bostadsutrymmen som integrerade programmerbara miljöer. | Gaia REF är en ram för att bygga sammanhangsmedvetna applikationer. | 553,269 | A Middleware Infrastructure for Active Spaces | {'venue': 'IEEE Pervasive Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,862 |
Abstrakt. I detta dokument behandlas två frågor inom kryptografi. Kryptografi säkra mot minnesattacker. En särskilt förödande sidokanalsattack mot kryptosystem, kallad "minnesattacken", föreslogs nyligen. I denna attack kan en betydande del av bitarna i en hemlig nyckel i en kryptografisk algoritm mätas av en motståndare om den hemliga nyckeln någonsin lagras i en del av minnet som kan nås även efter att strömmen har stängts av under en kort tid. En sådan attack har visat sig helt äventyra säkerheten för olika kryptosystem som används, inklusive RSA cryptosystem och AES. Vi visar att Regevs krypteringssystem med öppen nyckel (STOC 2005) och det identitetsbaserade krypteringssystemet Gentry, Peikert och Vaikuntanathan (STOC 2008) är anmärkningsvärt robusta mot minnesattacker där motståndaren kan mäta en stor del av bitarna i den hemliga nyckeln, eller mer allmänt, kan beräkna en godtycklig funktion av den hemliga nyckeln med begränsad utdatalängd. Detta görs utan att öka storleken på den hemliga nyckeln, och utan att införa någon komplikation av den naturliga kryptering och dekryptering rutiner. Samtidiga Hardcore Bits. Vi säger att ett block av bitar av x är samtidigt hård kärna för en enkelriktad funktion f (x), om det ges f (x) de kan inte skiljas från en slumpmässig sträng av samma längd. Även om någon kandidat enkelriktad funktion kan visas för att dölja en hardcore bit och även ett logaritmiskt antal samtidigt hardcore bitar, det finns få exempel på enkelriktade eller fälla funktioner för vilka ett linjärt antal av inmatningsbitar har bevisats samtidigt hardcore; de som är kända relaterar den samtidiga säkerheten till svårigheten att factoring heltal. Vi visar att för en lattice-baserad (injective) fällan funktion som är en variant av funktion som föreslagits tidigare av Gentry, Peikert och Vaikuntanathan, en N - o (N ) antal inmatningsbitar är samtidigt hardcore, där N är den totala längden på indata. Dessa två resultat är beroende av liknande bevistekniker. | Speciellt visade deras "kalla kängor" attacker att en betydande del av bitarna av en kryptografisk nyckel kan återvinnas om nyckeln någonsin lagras i minnet, varav ramen modellerades av Akavia, Goldwasser och Vaikuntanatan REF. | 15,661,022 | Simultaneous hardcore bits and cryptography against memory attacks | {'venue': 'IN TCC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,863 |
I detta dokument utvärderar vi kvaliteten på aktiveringsskikten i ett konvolutionellt neuralt nätverk (CNN) för generering av objektförslag. Vi skapar hypoteser i ett skjutfönster över olika aktiveringslager och visar att de slutliga konvolutionella skikten kan hitta objektet av intresse med hög recall men dålig lokalisering på grund av grovheten i funktionskartorna. Istället kan de första skikten av nätverket bättre lokalisera objektet av intresse men med en minskad återkallelse. Baserat på denna observation utformar vi en metod för att föreslå objekt platser som bygger på CNN funktioner och som kombinerar det bästa av båda världarna. Vi bygger en omvänd kaskad som går från finalen till de första konvolutionsskikten i CNN, väljer ut de mest lovande objektplatserna och förfinar sina lådor på ett grovt till fint sätt. Metoden är effektiv, eftersom i) den använder samma egenskaper som extraheras för detektion, ii) den aggregerar funktioner med hjälp av integrerade bilder, och iii) den undviker en tät utvärdering av förslagen på grund av omvänt grov-till-fin kaskad. Metoden är också korrekt; den överträffar de flesta av de tidigare föreslagna objektförslagen tillvägagångssätt och när den kopplas in i en CNN-baserad detektor producerar state-of-theart detektion prestanda. | DeepProposal REF jakter på förslagen på ett skjutbart fönster genom att använda CNN funktioner från finalen till början skikt och utbilda en kaskad av linjära klassificeringar för att få de högsta poängsatta fönster. | 1,493,941 | DeepProposal: Hunting Objects by Cascading Deep Convolutional Layers | {'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 82,864 |
Vi föreslår en end-to-end, domänoberoende neural encoder-aligner-dekoder modell för selektiv generering, d.v.s. den gemensamma uppgiften för innehållsval och ytförverkligande. Vår modell kodar först en fullständig uppsättning överbestämda databas händelser poster via en LSTM-baserade återkommande neurala nätverk, sedan använder en ny grov-till-fine-justerare för att identifiera den lilla delmängd av framträdande poster att prata om, och slutligen använder en dekoder för att generera fri-form beskrivningar av de anpassade, utvalda poster. Vår modell uppnår de bästa urvals- och generationsresultat som rapporterats hittills (med 59% relativ förbättring i generering) på riktmärket WEATHER-GOV dataset, trots att inga specialiserade funktioner eller språkliga resurser används. Med hjälp av en förbättrad k-nearest granne stråle filter hjälper ytterligare. Vi utför också en serie av ablationer och visualiseringar för att belysa bidragen från våra nyckelmodellkomponenter. Slutligen utvärderar vi hur allmängiltig vår modell är på ROBOCUP dataset, och får resultat som är konkurrenskraftiga med eller bättre än toppmoderna, trots att de är kraftigt datasvältade. | I REF föreslogs ett ramverk för encoder-aligner-dekoder för att generera vädersändning. | 1,354,459 | What to talk about and how? Selective Generation using LSTMs with Coarse-to-Fine Alignment | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,865 |
Abstrakt. Koncepten Autonomic and Organic Computing (AC/OC) lovar att göra moderna datorsystem säkrare och enklare att hantera. I detta dokument utökar vi den observations-/kontrollarkitektur som vanligtvis används i AC/OC-system mot ett nytt målområdeinbyggt realtidssystem. Som ett resultat av detta presenterar vi en tvåskiktad ledningsarkitektur. Vi diskuterar aspekter av intern kommunikation och utformar en kommunikationsmodell. Slutligen presenterar vi ett generiskt klassificeringssystem för ledningsarkitekturens övre skikt. | I REF beskrivs en kontrollarkitektur för inbyggda realtidssystem. | 7,830,593 | A Two-Layered Management Architecture for Building Adaptive Real-Time Systems | {'venue': 'SEUS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,866 |
Abstract-Fuzzy c-means (FCM) algoritmer med rumsliga begränsningar (FCM_S) har visat sig vara effektiva för bildsegmentering. De har dock fortfarande följande nackdelar: 1) Även om införandet av lokal rumslig information till motsvarande objektiva funktioner ökar deras okänslighet för buller i viss utsträckning, de fortfarande saknar tillräcklig robusthet för buller och avvikelser, särskilt i avsaknad av tidigare kunskap om buller; 2) I deras objektiva funktioner finns det en avgörande parameter α som används för att balansera robusthet mot buller och effektivitet för att bevara detaljerna i bilden, det väljs i allmänhet genom erfarenhet; 3) Tiden för segmentering av en bild är beroende av bildstorleken, och därmed desto större bildstorlek, desto mer segmenteringstid. I detta dokument, genom att införliva lokal rumslig och grå information tillsammans, ett nytt snabbt och robust FCM-ramverk för bildsegmentering, dvs. Snabb Generalized Fuzzy c-means kluster algoritmer (FGFCM), föreslås. FGFCM kan minska nackdelarna med FCM_S och samtidigt förbättra klusterprestandan. Dessutom innehåller FGFCM inte bara många befintliga algoritmer, såsom snabba FCM och förbättrade FCM som sina specialfall, utan kan också härleda andra nya algoritmer som FGFCM_S1 och FGFCM_S2 som föreslås i resten av detta dokument. De viktigaste egenskaperna hos FGFCM är: 1) att använda en ny faktor S ij som en lokal (både rumslig och grå) likhetsåtgärd som syftar till att garantera både bullerimmunitet och detaljbevarande för bilden, och under tiden ta bort den empiriskt justerade parametern α; 2) snabb klusterbildning eller segmentering bild, segmenteringstiden är endast beroende av antalet grå nivåer q snarare än storleken N (>>q) av bilden, och följaktligen dess beräknings komplexitet minskas från O (NcI 1 ) till O (qcI 2 ), där c är antalet kluster, I 1 och I 2 (<I 1, generellt) är antalet iterationer respektive i standard FCM och vår föreslagna snabb segmenteringsmetod. Experimenten på de syntetiska och verkliga bilderna visar att FGFCM-algoritmen är effektiv och effektiv. | För att ytterligare påskynda konvergensen, Cai et al. REF föreslog snabb generaliserad FCM (FGFCM) för bildsegmentering. | 207,320,572 | Fast and robust fuzzy c-means clustering algorithms incorporating local information for image segmentation | {'venue': 'Pattern Recognition', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,867 |
Målet med detta arbete är att ge användare som är nedsänkta i en multiplattformsmiljö möjlighet att interagera med en applikation samtidigt som de fritt förflyttar sig från en enhet till en annan. Vi beskriver den lösning som vi har utvecklat för en tjänst för att stödja plattformsmedveten runtimemigrering för webbapplikationer. Detta gör det möjligt för användare att interagera med ett program för att ändra enhet och fortsätta sin interaktion från samma punkt. Tjänsten utför övergången av programmet med hänsyn till dess drifttid och anpassa applikationsgränssnittet till egenskaperna hos målplattformarna. Tjänsten är optimerad för applikationer som utvecklats genom en modellbaserad strategi på flera nivåer. Intelligensen hos adaptiva gränssnitt finns i migreringsservern, som anpassar data som samlas in i körtid från deras ursprungliga format till det format som bäst passar funktionerna i målplattformen. Vi anger också hur det är möjligt att förlänga detta resultat för att stödja partiell migration och synergistisk åtkomst, genom vilken en del av användargränssnittet hålls på en enhet under körtiden och den återstående delen flyttas till en annan med olika egenskaper. | Forskargruppen inom Ref presenterar ett modellbaserat tillvägagångssätt som stöder total och partiell migration av användargränssnitt. | 449,589 | Flexible interface migration | {'venue': "IUI '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,868 |
Abstract-Tillkomsten av 5G nätverksteknik har ökat förväntningarna från mobila enheter, genom att mer sofistikerade, beräkningsintensiva applikationer förväntas levereras på den mobila enheten som själva blir mindre och snyggare. Detta bygger på ett behov av att avlasta beräkningsintensiva delar av applikationerna till ett resursstarkt moln. Parallellt, i den trådlösa nätverksvärlden, har trenden skiftat till multi-radio (i motsats till multi-channel) aktiverat kommunikation. I detta dokument ger vi en omfattande beräkning offloading lösning som använder flera radiolänkar tillgängliga för tillhörande dataöverföring, optimalt. Våra bidrag inkluderar: en heltäckande modell för energiförbrukningen ur den mobila enhetens perspektiv; formuleringen av det gemensamma optimeringsproblemet för att minimera den energi som förbrukas samt fördela den tillhörande dataöverföringen optimalt genom tillgängliga radiolänkar och en iterativ algoritm som konvergerar till en lokalt optimal lösning. Simuleringar på en HTC-telefon, kör en 14-komponent program och använder Amazon EC2 som moln, visar att den lösning som erhålls genom iterativ algoritm förbrukar endast 3% mer energi än den optimala lösningen (finns via uttömmande sökning). | Författarna i REF, modellerade de mobila enheternas energiförbrukning. | 16,251,220 | Cloud Offloading for Multi-Radio Enabled Mobile Devices | {'venue': '2015 IEEE International Conference on Communications (ICC)', 'journal': '2015 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']} | 82,869 |
Abstract-RSS-baserad enhetsfri lokalisering (DFL) övervakar förändringar i den mottagna signalstyrkan (RSS) mätt med ett nätverk av statiska trådlösa noder för att lokalisera människor utan att kräva dem att bära eller bära någon elektronisk enhet. Nuvarande modeller utgår från att det rumsliga impact-området, dvs. det område där en person påverkar en länks RSS, har konstant storlek. Detta dokument visar att det rumsliga effektområdet varierar avsevärt för varje länk. Data från omfattande experiment används för att härleda en flerskalig rumslig viktmodell som är en funktion av blekningsnivån, d.v.s. skillnaden mellan förutsagd och uppmätt RSS, och i riktning mot RSS-förändring. Dessutom föreslås en mätmodell som ger en sannolikhet för att en person lokaliserar inuti den härledda rumsliga modellen för varje given RSS-mätning. Ett realtidsradiotomografiskt bildsystem beskrivs som använder kanalmångfald och de presenterade modellerna. Experiment i en öppen inomhusmiljö, i en typisk enrumslägenhet och i ett genomgående scenario utförs för att bestämma noggrannheten i systemet. Vi visar att det nya systemet kan lokalisera och spåra en person med hög noggrannhet (≤ 0,30 m) i alla miljöer, utan att behöva ändra modellparametrarna. | För att förbättra noggrannheten föreslås en flerskalig rumslig viktmodell i Kaltiokallio et al., REF där olika rumsliga vikter tilldelas varje länk baserat på blekningsnivån. | 10,595,388 | A Multi-Scale Spatial Model for RSS-based Device-Free Localization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,870 |
Abstract-A sensor nätverk lokalisering problem är att bestämma positioner sensorn noder i ett nätverk ges ofullständig och felaktig parvis avstånd mätningar. Sådana avståndsdata kan förvärvas av en sensornod genom att kommunicera med sina grannar. Vi beskriver en allmän semidefinit programmering (SDP)-baserad metod för att lösa grafen realisera problem, av vilka sensorn nätverk localization problem är ett specialfall. Vi undersöker hur denna metod fungerar på problem med bullriga avståndsdata. Felgränser härleds från SDP- formuleringen. Källorna till skattningsfel i SDP-formuleringen identifieras. SDP-lösningen har vanligtvis en högre rang än det underliggande fysiska utrymmet som, när den projiceras på det lägre dimensionsutrymmet, i allmänhet resulterar i höga skattningsfel. Vi beskriver två förbättringar för att lindra en sådan svårighet. För det första föreslår vi en legaliseringsterm i den objektiva funktionen som kan bidra till att minska SDP-lösningens rang. För det andra använder vi de punkter som uppskattas från SDP-lösningen som den ursprungliga iteraten för en gradientavslappningsmetod för att ytterligare förfina de uppskattade punkterna. En lägre gräns som erhålls från det optimala SDP objektiva värdet kan användas för att kontrollera lösningens kvalitet. Experimentella resultat presenteras för att validera våra metoder och visa att de överträffar befintliga SDP-metoder. Note to Practitioners-Wireless sensor nätverk består av ett stort antal billiga trådlösa sensorer utplacerade i ett geografiskt område med möjlighet att kommunicera med sina grannar inom ett begränsat radioområde. Trådlösa sensornätverk blir allt mer tillämpliga på en rad olika övervakningstillämpningar i civila och militära scenarier, såsom biologisk mångfald och geografisk övervakning, smarta hem, industriell kontroll, övervakning och trafikövervakning. Det är ofta mycket användbart i tillämpningar av sensornätverk för att veta var sensorerna finns. Globala positioneringssystem lider av många nackdelar i detta scenario, såsom höga kostnader, line-of-sight frågor, etc. Därför finns det ett behov av att utveckla robusta och effektiva algoritmer som kan uppskatta eller "lokalisera" sensorpositioner i ett nätverk genom att endast använda de ömsesidiga avståndsåtgärder (mottagen signalstyrka, ankomsttid) som de trådlösa sensorerna får från sina grannar. Detta dokument beskriver en algoritm som löser problemet med lokalisering av sensornätverk med hjälp av avancerade optimeringstekniker. Vi studerar också effekten av att använda mycket bullriga mätningar och föreslår Manuscript mottagen 24 maj 2005; reviderad 9 november 2005. Detta arbete stöddes delvis av Institutet för matematisk vetenskap vid Singapores nationella universitet. Detta dokument rekommenderades för publicering av Associate Editor Y. Ding och Editor P. Ferreira efter utvärdering av granskarnas kommentarer. P. Biswas, T.-C. Liang, och Y. Ye är vid Institutionen för elektroteknik, Stanford University, Stanford, CA 94305-4026 USA (e-post: [email protected]; [email protected]). K.-C. Toh är verksam vid institutionen för matematik, Singapores nationella universitet, Singapore 117543, Singapore (e-post: [email protected]). Detta beslut träder i kraft den tjugonde dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. | De har också föreslagit två tekniker för att förbättra noggrannheten i SDP-lösningen REF. | 12,615,669 | Semidefinite Programming Approaches for Sensor Network Localization With Noisy Distance Measurements | {'venue': 'IEEE Transactions on Automation Science and Engineering', 'journal': 'IEEE Transactions on Automation Science and Engineering', 'mag_field_of_study': ['Computer Science']} | 82,871 |
Målet med graf klustring är att dela hörn i en stor graf i olika kluster baserat på olika kriterier såsom vertex anslutning eller grannskap likhet. Grafklusterteknik är mycket användbar för att upptäcka tätt sammankopplade grupper i en stor graf. Många befintliga grafklustringsmetoder fokuserar främst på den topologiska strukturen för klustring, men ignorerar till stor del de vertexegenskaper som ofta är heterogena. I detta dokument föreslår vi en ny grafklusteralgoritm, SA-Cluster, baserad på både strukturella och attributliknande genom ett enhetligt avståndsmått. Vår metod partitionerar en stor graf associerad med attribut i k kluster så att varje kluster innehåller en tätt ansluten subgraf med homogena attributvärden. En effektiv metod föreslås för att automatiskt lära sig graden av bidrag av strukturell likhet och attribut likhet. Teoretisk analys tillhandahålls för att visa att SA-Cluster konvergerar. Omfattande experimentella resultat visar effektiviteten av SA-Cluster genom jämförelse med den state-of-the-art graf klustering och summering metoder. | Zhou m.fl. REF-modellera problemet med community detecting som grafklustring, och kombinera strukturella och attribut likheter genom en enhetlig avståndsmått. | 1,061,056 | Graph Clustering Based on Structural/Attribute Similarities | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 82,872 |
Abstrakt. I detta dokument föreslår vi två mekanismer för att upptäcka maskhål i trådlösa sensornätverk. De föreslagna mekanismerna bygger på hypotestester och ger probabilistiska resultat. Den första mekanismen, som kallas Neighbor Number Test (NNT), upptäcker ökningen av antalet grannar till sensorerna, vilket beror på de nya länkar som skapats av maskhålet i nätverket. Den andra mekanismen, kallad All Distances Test (ADT), upptäcker minskningen av längden på de kortaste vägarna mellan alla par av sensorer, vilket beror på genvägslänkar som skapats av maskhålet i nätverket. Båda mekanismerna antar att sensorerna skickar sin grannlista till basstationen, och det är basstationen som kör algoritmerna på nätverksgrafen som rekonstrueras från den mottagna granninformationen. Vi beskriver dessa mekanismer och undersöker deras prestanda genom simulering. | Buttyán m.fl. REF upptäcker förändringar i längderna på de kortaste vägarna i nätverket för att identifiera maskhål. | 8,949,358 | Statistical wormhole detection in sensor networks | {'venue': 'In ESAS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,873 |
Vi presenterar ett nytt platsigenkänningssystem som anpassar den senaste tekniken för objektförslag för att identifiera potentiella landmärken inom en bild. Det föreslagna systemet använder konvolutionella nätverksfunktioner som robusta landmärkesdeskriptorer för att känna igen platser trots allvarliga syn- och tillståndsförändringar, utan att kräva någon miljöspecifik utbildning. De färgade rutorna i bilderna ovan visar ConvNet landmärken som korrekt har matchats mellan två betydligt olika synvinklar av en scen, vilket möjliggör platsigenkänning under dessa utmanande förhållanden. Abstract-Place-erkännandet har länge varit ett ofullständigt löst problem eftersom alla tillvägagångssätt innebär betydande kompromisser. Nuvarande metoder tar upp många men aldrig alla av de kritiska utmaningarna med platsigenkänning -viewpoint-invariance, tillståndsinvarians och minimering av utbildningskrav. Här presenterar vi en strategi som anpassar den senaste tekniken för förslag till objekt för att identifiera potentiella landmärken inom en bild för platsigenkänning. Vi använder den häpnadsväckande kraften i konvolutionella neurala nätverksfunktioner för att identifiera matchande banbrytande förslag mellan bilder för att utföra platsigenkänning över extrema utseende och perspektiv variationer. Vårt system kräver ingen form av utbildning, alla komponenter är generiska nog att användas off-the-shälf. Vi presenterar en rad utmanande experiment i varierande perspektiv och miljöförhållanden. Vi visar överlägsen prestanda jämfört med nuvarande hjärtteknik. Genom att bygga vidare på befintliga och allmänt använda ramar för erkännande ger detta tillvägagångssätt dessutom ett mycket kompatibelt system för platsigenkänning med möjlighet till enkel integrering av andra tekniker såsom objektdetektering och semantisk scentolkning. Visuell platsigenkänningsforskning har dominerats av sofistikerade lokala funktionsbaserade tekniker som SIFT och SURF keypoints, handgjorda globala bilddeskriptorer som GIST och bag-of-words tillvägagångssätt. Men eftersom robotar arbetar under längre tidsperioder i verkliga miljöer har problemet med förändrade miljöförhållanden kommit i förgrunden, där konventionella igenkänningsmetoder misslyckas. För att ta itu med detta problem, ett antal tekniker har antagits -matchande bildsekvenser [27, 29, 33, 28], skapa skugga-invarianta bilder [6, 43, 25, 24], lära sig framträdande bild regioner [26] eller lärande timliga modeller som tillåter förutsägelse av förekommande förändringar [31]. Den senaste forskningen har också visat hur generiska djupinlärning-baserade funktioner som utbildats för objektigenkänning framgångsrikt kan tillämpas inom området platsigenkänning [41, 3]. Alla nuvarande strategier har dock infört minst en betydande prestanda eller användbarhet kompromiss, oavsett om det är en brist på invarians till kamera synpunkt förändringar [27, 28], omfattande miljöspecifika utbildningskrav [26], eller bristen på utseende ändrar robusthet [7]. För att visuell platsigenkänning ska vara verkligt robust måste den samtidigt ta itu med tre kritiska utmaningar: 1) tillståndsinvariant, 2) perspektivinvariant och 3) allmängiltighet (inga miljöspecifika utbildningskrav). I detta dokument presenterar vi ett enhetligt tillvägagångssätt som tar itu med alla dessa tre utmaningar. Vi använder en toppmodern metod för objektförslag för att upptäcka potentiella landmärken i bilderna. Ett konvolutionsnätverk (ConvNet) används sedan för att extrahera allmänna funktioner för vart och ett av dessa banbrytande förslag. Vi visar att ConvNet funktioner är robusta för både utseende och perspektiv förändring; de första två kritiska utmaningar. Vi betonar också att banbrytande förslag kräver ingen utbildning och ConvNet är förskolad på ImageNet, en generisk bilddatabas; den tredje kritiska utmaningen. Genom att utföra experiment på ett antal dataset visar vi att vårt system är utbildningsfritt genom att ingen uppgiftsspecifik eller ens platsspecifik utbildning krävs. Vi betonar också att endast enstaka bilder krävs för matchning och att systemet inte kräver bildsekvenser. Vi demonstrerar det allmänna i vårt system på ett antal befintliga dataset och introducerar nya utmanande platsigenkänningsdataset, samtidigt som vi jämför med de senaste metoderna. De nya bidragen i detta dokument är: 1) Ett platsigenkänningssystem som är robust för syn- och utseendevariation, som inte kräver någon miljöspecifik utbildning, och 2) Införandet av nya utmanande datauppsättningar som uppvisar extrem syn- och utseendevariation. Tidningen går vidare enligt följande. Avsnitt II ger en kort översikt över relaterat arbete. Metoden beskrivs i detalj i avsnitt III följt av en översikt över de fyra försöksgrupperna. Vi presenterar resultaten i avsnitt V innan vi avslutar med en diskussion och beskriver det framtida arbetet. Fokus för forskning på plats erkännande har nyligen gått från att känna igen scener utan betydande utseende förändringar till mer utmanande, men också mer realistiska föränderliga miljöer. Place Recognition: Metoder som tar itu med platsen igenkänning problem spänna från matchande sekvenser av bilder [27, 17, 40, 33, 29], omvandla bilder för att bli invariant mot vanliga scen förändringar såsom skuggor [6, 43, 25, 24, 21], lära sig hur miljöer förändras över tid och förutsäga dessa förändringar i bildutrymme [30, 21, 31], partikelfilterbaserade metoder som bygger upp plats igenkänning hypoteser över tid [23, 39, 22], eller bygga en karta över erfarenheter som täcker olika utseenden av en plats över tid [5]. Att lära sig hur miljöns utseende förändras kräver i allmänhet träningsdata med kända ramkorrespondenser. [17] Bygger en databas över observerade funktioner under en dag och natt. [30, 31] presenterar ett tillvägagångssätt som lär sig systematiska scenförändringar för att förbättra prestandan på ett säsongsbetonat förändringsdataset. [26] lär sig framträdande regioner i bilder av samma plats med olika miljöförhållanden. Utöver begränsningen av krav på utbildningsdata är generaliteten för dessa metoder för närvarande också okänd; dessa metoder har endast visat sig fungera i samma miljö och på samma eller mycket liknande typer av miljöförändringar som de som förekommer i utbildningsdataseten. Även om punktfunktionsbaserade metoder visade sig vara robusta mot synförändringar [7, 8, 38], till författarnas kunskap, har betydande förändringar i både syn- och miljöförhållanden inte tagits upp i litteraturen. Vi visar att robusthet mot variation i båda fallen kan hanteras utan platsspecifik utbildning. Funktionsbaserade metoder: SIFT [20], SURF [1] och ett antal efterföljande funktionsdetektorer har visat sig uppvisa en betydande grad av invarians men endast en begränsad grad av tillståndsinvarians (belysning, atmosfäriska förhållanden, skuggor, säsonger). Perceptuell förändring lika drastisk som den som illustreras i bild. 1 har visat sig vara utmanande för konventionella funktionsdetektorer [27, 44] och medan FAB-MAP [7] är robust med avseende på synförändringar, är det känt att misslyckas i förhållanden med allvarliga förändringar utseende [29, 31, 13]. Dessutom hävdade [11, 34] att FAB-MAP inte generaliserar väl till nya miljöer utan att lära sig ett nytt platsspecifikt ordförråd. [26] visar att patchar och regionbaserade metoder inom en bild kan uppvisa samma robusthet som helbildstekniker samtidigt som viss robusthet bibehålls för att skala variation, och därmed uppnå några av fördelarna med både punkt- och helbildsfunktioner. Det krävdes dock omfattande platsspecifik utbildning. I denna forskning utökar vi fördelarna med regionbaserade metoder för att ta itu med både syn- och miljöförändringar utan krav på platsspecifik utbildning. En gemensamhet mellan alla dessa metoder är att de förlitar sig på en fast uppsättning handgjorda traditionella funktioner eller arbetar på rå pixelnivå. En ny trend när det gäller datorseende, och särskilt när det gäller igenkänning och upptäckt av föremål, är att utnyttja inlärda funktioner med hjälp av djupa konvolutionella nätverk (ConvNets). Det mest framträdande exemplet på denna trend är den årliga ImageNet Large Scale Visual Recognition Challenge där under de senaste två åren många av deltagarna har använt ConvNet funktioner [36]. Flera forskargrupper har visat att ConvNets överträffar klassiska metoder för objektklassificering eller detektering som bygger på handgjorda funktioner [19, 37, 10, 12, 35]. Tillgången till förutbildade nätverksmodeller gör det enkelt att experimentera med sådana metoder för olika uppgifter: programvarupaketen Overfeat [37] och Decaf [10] eller dess efterföljare Caffe [16] tillhandahåller liknande nätverksarkitekturer som var förtränade på ImageNet ILSVRC-datauppsättningen [36]. Nyligen genomförda studier har visat att toppmoderna prestanda på plats kan uppnås med nätverk utbildade med hjälp av generiska data: [41] visade att ConvNet funktioner som representerar hela bilden överträffar nuvarande metoder för att ändra miljöförhållanden. Helbildsdrag lider emellertid av känslighet för en förändring av synsättet. Vi visar att genom att kombinera kraften i ConvNets och regionbaserade funktioner snarare än att använda helbildsrepresentationer, kan en stor grad av robusthet mot synförändringar uppnås. Följaktligen bygger vi i denna forskning på de bäst presterande aspekterna av state of the art; erkännande prestanda ConvNet tillvägagångssätt [41], och robustheten i regionbaserade metoder för att se förändring [26]. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. FÖRSLAG TILL SYSTEM I detta avsnitt beskriver vi de fem nyckelkomponenterna i vårt föreslagna platsigenkänningssystem: 1) banbrytande förslagsextraktion från den aktuella bilden 2) beräkning av en ConvNet-funktion för varje förslag 3) projektion av funktionerna i ett lägre dimensionsutrymme 4) beräkning av en matchningspoäng för varje tidigare sedd bild 5) beräkning av den bästa matchningen Bild. 2 illustrerar vårt system. Tillvägagångssättet har flera egenskaper som skiljer det från tidigare arbete: • Systemet kräver ingen uppgiftsspecifik eller platsspecifik utbildning. Den använder en off-the-shälf förtränad con- | Sunderhauf m.fl. REF löser problemet med platsigenkänning, användning av betydande regioner och konvolutionella egenskaper hos lokala objekt. | 5,437,340 | Place Recognition with ConvNet Landmarks: Viewpoint-Robust, Condition-Robust, Training-Free | {'venue': 'Robotics: Science and Systems', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 82,874 |
Att förstå 3D-världen är ett grundläggande problem i datorseendet. Att lära sig en bra representation av 3D-objekt är dock fortfarande ett öppet problem på grund av datans höga dimensionalitet och många faktorer som påverkar variationen. I detta arbete undersöker vi uppgiften av singel-vy 3D objektrekonstruktion ur en lärande agent perspektiv. Vi formulerar inlärningsprocessen som en interaktion mellan 3D- och 2D-representationer och föreslår en kodare-dekoder nätverk med en ny projektionsförlust definieras av perspektivet omvandling. Ännu viktigare, projiceringsförlusten möjliggör oövervakad inlärning med 2D observation utan explicit 3D övervakning. Vi demonstrerar modellens förmåga att generera 3D-volym från en enda 2D-bild med tre uppsättningar experiment: (1) lärande från enklassobjekt; (2) lärande från flerklassobjekt och (3) testning på nya objektklasser. Resultat visar överlägsen prestanda och bättre generalisering förmåga för 3D-objekt rekonstruktion när projektionsförlusten är inblandad. | Obesudlad volymetrisk 3D-objektrekonstruktion från en enda vy av Perspective Transformer Nets har visats i REF. | 1,608,002 | Perspective Transformer Nets: Learning Single-View 3D Object Reconstruction without 3D Supervision | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,875 |
Identifiering och karakterisering av cancersubtyper är viktiga forskningsområden som bygger på den integrerade analysen av flera heterogena genomiska dataset. Eftersom det inte finns några verktyg som stöder denna process, görs mycket av detta arbete med ad-hoc-skript och statiska diagram, vilket är ineffektivt och begränsar visuell undersökning av data. För att ta itu med detta har vi utvecklat StratomeX, ett integrativt visualiseringsverktyg som gör det möjligt för utredare att utforska relationer av kandidatsubtyper över flera genomiska datatyper såsom genuttryck, DNA-metylering, eller kopiera nummerdata. StratomeX representerar dataset som kolumner och undertyper som tegelstenar i dessa kolumner. Ribbor mellan kolumnerna ansluter tegelstenar för att visa subtypsrelationer mellan datauppsättningar. Borr-down funktioner möjliggör detaljerad utforskning. StratomeX ger insikter i de funktionella och kliniska konsekvenserna av kandidatsubtyper genom att använda små multiplar, vilket gör det möjligt för prövarna att bedöma subtypernas effekt på molekylära vägar eller utfall såsom patientens överlevnad. Eftersom konfigurationen av visningsparametrar i en sådan multi-dataset, multi-view scenario är komplext, föreslår vi en meta visualisering och konfigurationsgränssnitt för dataset beroenden och data-view relationer. StratomeX är utvecklat i nära samarbete med domänexperter. Vi beskriver fallstudier som illustrerar hur utredare använde verktyget för att utforska subtyper i stora datauppsättningar och visar hur de effektivt replikerade fynd från litteraturen och fick nya insikter i datan. | Ett framträdande integrativt visualiseringsverktyg, StratomeX REF, föreslogs mot visualisering och utforskning av subtyper i en population som lider av cancer med hjälp av TCGA-data. | 16,614,989 | StratomeX: Visual Analysis of Large-Scale Heterogeneous Genomics Data for Cancer Subtype Characterization | {'venue': 'Computer graphics forum : journal of the European Association for Computer Graphics', 'journal': 'Computer graphics forum : journal of the European Association for Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 82,876 |
Abstrakt. Moderna semantiska segmenteringsramar kombinerar vanligtvis lågnivå- och högnivåfunktioner från förträngda konvolutionsmodeller för att öka prestandan. I detta dokument påpekar vi först att en enkel sammanslagning av funktioner på låg nivå och hög nivå skulle kunna vara mindre effektiv på grund av klyftan i semantiska nivåer och rumslig upplösning. Vi anser att införandet av semantisk information i lågnivåfunktioner och högupplösta detaljer i högnivåfunktioner är mer effektivt för den senare fusionen. Utifrån denna iakttagelse föreslår vi en ny ram, ExFuse, för att överbrygga klyftan mellan låg- och högnivåfunktioner och därmed avsevärt förbättra segmenteringskvaliteten med 4,0 procent totalt. Dessutom utvärderar vi vår strategi för den utmanande PASCAL VOC 2012-segmenteringsriktmärket och uppnår 87,9% i genomsnitt IoU, vilket överträffar de tidigare toppmoderna resultaten. | Exfuse Ref föreslår ett nytt ramverk för att överbrygga klyftan mellan lågnivå- och högnivåfunktioner och därmed förbättra segmenteringskvaliteten. | 4,773,582 | ExFuse: Enhancing Feature Fusion for Semantic Segmentation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,877 |
Abstract-Recent framsteg i automatiserad funktionell testning av grafiska användargränssnitt (GUI) förlitar sig på härledda grafmodeller som approximerar alla möjliga sekvenser av händelser som kan utföras på det grafiska gränssnittet, och sedan använda graferna för att generera testfall (eventssekvenser) som uppnår ett specificerat täckningsmål. Eftersom dessa modeller endast är approximationer av de faktiska händelseflödena, kan de genererade testfallen drabbas av problem med ogenomförbarhet, dvs. vissa händelser kanske inte är tillgängliga för genomförande som får testfallet att avslutas i förtid. I detta dokument utvecklar vi en metod för att automatiskt reparera GUI-testsviter, vilket genererar nya testfall som är genomförbara. Vi använder en genetisk algoritm för att utveckla nya testfall som ökar vår testsvits täckning samtidigt som ogenomförbara sekvenser undviks. Vi experimenterar med denna algoritm på en uppsättning syntetiska program som innehåller olika typer av begränsningar och för testsekvenser av varierande längder. Våra resultat tyder på att vi kan generera nya testfall för att täcka större delen av den möjliga täckningen och att den genetiska algoritmen överträffar en slumpmässig algoritm som försöker uppnå samma mål i nästan alla fall. | Huang m.fl. REF använde en genetisk algoritm för att utveckla nya testfall för att öka testsvitens täckning och samtidigt undvika ogenomförbara sekvenser. | 15,856,072 | Repairing GUI Test Suites Using a Genetic Algorithm | {'venue': '2010 Third International Conference on Software Testing, Verification and Validation', 'journal': '2010 Third International Conference on Software Testing, Verification and Validation', 'mag_field_of_study': ['Computer Science']} | 82,878 |
Vi presenterar komponent- och kopplingsvyer (C&C), som anger komponenternas och kopplingsmodellernas strukturella egenskaper på ett uttrycksfullt och intuitivt sätt. C&C-vyer ger möjlighet att avlägsna direkt hierarki, direkt anslutning, hamnnamn och typer, och kan därmed korsa de traditionella gränserna för den genomförandeorienterade hierarkiska nedbrytningen av system och delsystem, och återspeglar den partiella kunskap som finns tillgänglig för olika intressenter som är involverade i ett systems utformning. Som en primär tillämpning för C&C-vyer undersöker vi syntesproblemet: med tanke på en specifikation av C&C-vyer, bestående av obligatoriska, alternativa och negativa vyer, konstruera en konkret tillfredsställande C&C-modell, om en sådan finns. Vi visar att problemet är NP-hårdt och löser det, i en begränsad omfattning, med hjälp av en minskning till SAT, via legering. Vi utökar också det grundläggande problemet med stöd för bibliotekskomponenter, specifikationsmönster och arkitektoniska stilar. Resultatet av syntesen kan användas för vidare undersökning, simulering och förfining av C&C-modellen eller, som den fullständiga, slutliga modellen själv, för direkt generering av koder. Ett prototypverktyg och en utvärdering över fyra exempelsystem med flera specifikationer visar lovande resultat och föreslår intressanta framtida forskningsinriktningar mot en omfattande utvecklingsmiljö för strukturen hos komponent- och kopplingskonstruktioner. | Maoz m.fl. REF använde komponent- och kontaktvyer (C & C-vyer) för att undersöka det arkitektoniska syntesproblemet och utvidgade ytterligare detta grundläggande problem med stöd för arkitektoniska stilar. | 881,272 | Synthesis of Component and Connector Models from Crosscutting Structural Views | {'venue': "Joint Meeting of the European Software Engineering Conference and the ACM SIGSOFT Symposium on the Foundations of Software Engineering (ESEC/FSE'13), Eds.: B. Meyer, L. Baresi, M. Mezini, pages 444-454, ACM New York, 2013", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Engineering']} | 82,879 |
Motiverade av det senaste arbetet med Renegar [21] presenterar vi nya beräkningsmetoder och tillhörande beräkningsgarantier för att lösa problem med konvex optimering med hjälp av första ordningens metoder. Vårt problem av intresse är den allmänna konvex optimering problem f * = min x.Q f (x), där vi antar kunskap om en strikt nedre gräns f slb < f *. [Indeed, f slb är naturligt känt när optimera många förlustfunktioner i statistik och maskininlärning (minst-kvartor, logistisk förlust, exponentiell förlust, total variationsförlust, etc.) liksom i Renegars transformerade version av standardkonikoptimeringsproblemet [21], i alla dessa fall har man f slb = 0 < f *.] Vi inför en ny funktionell åtgärd som kallas tillväxtkonstanten G för f (·), som mäter hur snabbt nivåerna av f (·) växer i förhållande till funktionsvärdet, och som spelar en grundläggande roll i komplexitetsanalysen. När f (·) är icke-smooth, presenterar vi nya beräkningsgarantier för Subgradient Descent Method och för utjämningsmetoder, som kan förbättra befintliga beräkningsgarantier på flera sätt, särskilt när den initiala iterat x 0 är långt ifrån den optimala lösningen uppsättning. När f (·) är smidig, presenterar vi ett system för periodisk omstart av Accelerated Gradient Method som också kan förbättra befintliga beräkningsgarantier när x 0 är långt ifrån den optimala lösningen uppsättning, och i närvaro av ytterligare struktur presenterar vi ett system med parametriskt ökad utjämning som ytterligare förbättrar tillhörande beräkningsgarantier. 1 Problemförklaring och översikt över resultat Motiverad av det senaste arbetet med Renegar [21] presenterar vi nya beräkningsmetoder och tillhörande beräkningsgarantier för att lösa konvexa optimeringsproblem med hjälp av första ordningens metoder. Vårt problem av intresse är följande optimeringsproblem: | På senare tid föreslog REF en ny SG-metod genom att anta att en strikt nedre gräns för f *, betecknad av f slb, är känd och f uppfyller ett tillväxttillstånd, w − w * 2 ≤ G · (f (w) − f slb ), där w * är den optimala lösningen närmast w och G är en tillväxthastighet konstant beroende på f slb. | 17,469,145 | New Computational Guarantees for Solving Convex Optimization Problems with First Order Methods, via a Function Growth Condition Measure | {'venue': None, 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,880 |
Abstract-Fault-tolerant schemaläggning spelar en viktig roll för att förbättra systemets tillförlitlighet kluster. Även om omfattande feltoleranta schemaläggningsalgoritmer har föreslagits för realtidsuppgifter i parallella och distribuerade system, har tjänstekvalitetskrav (QoS) för uppgifter inte beaktats. Detta dokument presenterar en feltolerant schemaläggningsalgoritm som kallas QAFT som kan tolerera en nods permanenta misslyckanden på en gång för realtidsuppgifter med QoS behov på heterogena kluster. För att förbättra systemets flexibilitet, tillförlitlighet, schemaläggning och resursutnyttjande strävar QAFT efter att antingen föra fram starttiden för primära kopior och fördröja starttiden för säkerhetskopior för att hjälpa säkerhetskopior att anta det passiva exekveringsschemat, eller att minska den samtidiga exekveringstiden för primära kopior och säkerhetskopior av en uppgift så mycket som möjligt för att förbättra resursutnyttjandet. QAFT kan anpassa QoS-nivån för uppgifter och system för utförande av säkerhetskopior för att uppnå hög systemflexibilitet. Dessutom använder vi den överlappande tekniken med säkerhetskopior. Den senaste starttiden för säkerhetskopior och deras begränsningar analyseras och diskuteras. Vi utför omfattande experiment för att jämföra vår QAFT med två befintliga system-NOQAFT och DYFARS. Experimentella resultat visar att QAFT avsevärt förbättrar schemaläggningskvaliteten hos NOQAFT och DYFARS. | Zhu m.fl. REF föreslog feltolerant schemaläggningsalgoritm för heterogena kluster. | 14,786,037 | QoS-Aware Fault-Tolerant Scheduling for Real-Time Tasks on Heterogeneous Clusters | {'venue': 'IEEE Transactions on Computers', 'journal': 'IEEE Transactions on Computers', 'mag_field_of_study': ['Computer Science']} | 82,881 |
Salient objektdetektion har nyligen bevittnat betydande framsteg på grund av kraftfulla funktioner extraheras med hjälp av djupa konvolutionella neurala nätverk (CNN). Befintliga CNN-baserade metoder fungerar dock på patchnivå istället för pixelnivå. Resultatet är vanligtvis suddigt, särskilt nära gränsen för framträdande objekt. Dessutom behandlas bildlappar som oberoende prover även när de överlappar varandra, vilket ger upphov till betydande redundans i beräkning och lagring. I detta dokument föreslår vi ett heltäckande nätverk av djupa kontraster för att övervinna de ovan nämnda begränsningarna. Vårt djupa nätverk består av två kompletterande komponenter, en pixel-nivå helt konvolutionell ström och en segmentvis rumslig pooling ström. Den första strömmen producerar direkt en solid karta med pixelnivå noggrannhet från en ingångsbild. Den andra strömmen extraherar segmentmässigt har mycket effektivt, och bättre modeller Saliency diskontinuities längs objektgränser. Slutligen kan en fullt ansluten CRF-modell eventuellt införlivas för att förbättra den rumsliga sammanhållningen och konturlokaliseringen i de sammanslagna resultaten från dessa två strömmar. Experimentella resultat visar att vår djupa modell avsevärt förbättrar den senaste tekniken. | Li och Yu Ref föreslog ett end-to-end djup kontrast nätverk med två strömmar för att förbättra framträdande objekt gräns detektering. | 6,116,678 | Deep Contrast Learning for Salient Object Detection | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 82,882 |
Vi tar itu med problemet med kreditbetyget, där man i stället för att bara bestämma om en granskning är "tummare upp" eller "tummare ner", som i tidigare känsloanalysarbete, måste avgöra en författares utvärdering med avseende på en flerpunktsskala (t.ex. en till fem "stjärnor"). Denna uppgift representerar en intressant twist på standard textkategorisering i flera klasser eftersom det finns flera olika grader av likhet mellan klassetiketter; till exempel är "tre stjärnor" intuitivt närmare "fyra stjärnor" än "en stjärna". Vi utvärderar först människans prestation vid uppgiften. Sedan tillämpar vi en metaalgoritm, baserad på en metrisk märkning formulering av problemet, som ändrar en given och -ary klassificerings utdata i ett uttryckligt försök att se till att liknande objekt får liknande etiketter. Vi visar att meta-algoritmen kan ge betydande förbättringar över både flera klasser och regressionsversioner av SVMs när vi använder en ny likhetsåtgärd som är lämplig för problemet. | Pang REF tillämpade en metrisk märkningsmetod för uppgiften. | 3,264,224 | Seeing Stars: Exploiting Class Relationships For Sentiment Categorization With Respect To Rating Scales | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,883 |
I detta dokument föreslår vi en ny neural nätverksmodell som kallas RNN EncoderDecoder som består av två återkommande neurala nätverk (RNN). En RNN kodar en sekvens av symboler till en vektorrepresentation med fast längd, och den andra avkodar representationen till en annan sekvens av symboler. Den föreslagna modellens kodare och avkodare tränas gemensamt för att maximera den villkorliga sannolikheten för en målsekvens med en källsekvens. Prestandan hos ett statistiskt maskinöversättningssystem har empiriskt visat sig förbättras genom att använda de villkorliga sannolikheterna för parfraser som beräknas av RNN Encoder-Decoder som ytterligare en funktion i den befintliga log-lineära modellen. Kvalitativt visar vi att den föreslagna modellen lär sig en semantiskt och syntaktiskt meningsfull representation av språkliga fraser. | RNN Encoder-Decoder REF arkitekturer använder olika inledande dolda tillstånd initialisering i kodaren och dekoder RNN. | 5,590,763 | Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,884 |
Exakt förutsägelse kund churn med hjälp av storskalig tidsserie data är ett vanligt problem som står inför många affärsområden. Skapandet av modellfunktioner över olika tidsfönster för utbildning och testning kan vara särskilt utmanande på grund av tidsbundna frågor som är gemensamma för tidsseriedata. I detta papper kommer vi att undersöka tillämpningen av extrem lutning öka (XGBoost) på en kund dataset med en bred variation av tidsfunktioner för att skapa en mycket korrekt kund churn modell. I synnerhet beskriver vi en effektiv metod för hantering av tidskänslig funktionsteknik. Den föreslagna modellen lämnades in i WSDM Cup 2018 Churn Challenge och nådde första plats av 575 lag. | I REF kunden churn förutsägs med hjälp av extrem lutning öka algoritm (XGBoost). | 3,652,127 | Predicting Customer Churn: Extreme Gradient Boosting with Temporal Data | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,885 |
Betydande insatser görs för närvarande i applikationsintegreringen, vilket gör det möjligt för olika företags affärsprocesser att interagera och bilda komplexa flerpartsprocesser. Webbtjänststandarder, baserade på WSDL (Web Service Definition Language), har antagits som process-till-process kommunikationsparadigm. Den konceptuella modellen för tillämpningar som använder webbtjänster har dock ännu inte tagits upp. Interaktion med webbtjänster anges ofta på nivån för källkoden, vilket innebär att gränssnitten för webbtjänsten är begravda i en programmatisk specifikation. I denna artikel hävdar vi att webbtjänster bör betraktas som förstklassiga medborgare i specifikationen av webbapplikationer. Således, service-aktiverade webbapplikationer bör dra nytta av den höga nivå modellering och automatisk kodgenerering teknik som länge har förespråkats för webbapplikation design och genomförande. I detta syfte utökar vi en deklarativ modell för att specificera dataintensiva webbapplikationer i två riktningar: (i) modellering på hög nivå av webbtjänster och deras interaktioner med de webbapplikationer som använder dem, och (ii) modellering och specifikation av webbapplikationer som implementerar nya, komplexa webbtjänster. Vårt tillvägagångssätt är helt implementerat i ett CASE-verktyg som möjliggör modellering på hög nivå och automatisk installation av serviceaktiverade webbapplikationer. | Manolescu m.fl. REF beskriver en modelldriven design- och distributionsprocess för att integrera webbtjänster med webbapplikationer som har ett fördefinierat användargränssnitt. | 13,086,549 | Model-driven design and deployment of service-enabled web applications | {'venue': 'TOIT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,886 |
Abstrakt. Webbtjänster utgör det mest framträdande momentet i det tjänsteorienterade datorparadigmet. På senare tid har dock företrädare för annan datateknik, såsom peer-to-peer (p2p), också valt det tjänsteorienterade tillvägagångssättet och avslöjat funktionalitet som tjänster. På så sätt skulle det serviceinriktade samhället kunna få stort stöd, om dessa heterogena tjänster integrerades och bestod. En nyckel för att uppnå denna integration är inrättandet av en enhetlig strategi för tjänsteupptäckt. I detta dokument beskriver vi vissa funktioner i ett enhetligt sökspråk och fokuserar på dess tillhörande motor, som används för att upptäcka webb- och p2p-tjänster på ett enhetligt sätt. Vi exemplifierar hur vår enhetliga strategi tillämpas i fallet med webb- och p2p-tjänst upptäckt i UDDI respektive JXTA, respektive. Dessutom visar vi hur vår sökmotor kan bearbeta heterogena tjänsteannonser och därmed utnyttja de annonserade syntaktiska, semantiska och servicekvalitetsegenskaperna under matchmaking. | I REF föreslår författarna USQL, ett XML-baserat språk för att representera syntaktiska, semantiska och kvalitet på sökkriterier för tjänster. | 2,432,744 | Discovering Web Services and JXTA Peer-to-Peer Services in a Unified Manner | {'venue': 'ICSOFT (1)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,887 |
Abstrakt. I detta dokument presenterar vi det ontologibaserade frågesvarssystemet Pythia. Den konstruerar kompositionellt betydelse representationer med hjälp av ett ordförråd som är anpassat till ordförrådet i en given ontologi. Genom att göra detta bygger den på en djup språklig analys, som gör det möjligt att konstruera formella frågor även för komplexa naturliga språkfrågor (t.ex. Kvantifiering och superlativ. | Pythia REF är ett frågesvarssystem som använder djup språklig analys. | 17,248,944 | Pythia: Compositional Meaning Construction for Ontology-Based Question Answering on the Semantic Web | {'venue': 'NLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,888 |
Spänningsskalning är en av de mest effektiva mekanismerna för att förbättra mikroprocessorernas energieffektivitet. Processorer kan dock inte fungera tillförlitligt under en minsta spänning, Vccmin, eftersom hårdvarustrukturer kan misslyckas. Cellfel i stora minnesmatriser (t.ex. cache) avgör normalt Vccmin för hela processorn. Vi observerar att de flesta cachelinjer uppvisar noll eller ett fel vid låga spänningar. Men, några rader, särskilt i stora cache, uppvisar multi-bit misslyckanden och öka Vccmin. Tidigare lösningar antingen avsevärt minska cachekapaciteten för att möjliggöra enhetlig felkorrigering över alla linjer, eller avsevärt öka latens och bandbredd overheads vid amortering av kostnaden för felkorrigering koder (ECC) över stora linjer. I detta dokument föreslår vi en ny cachearkitektur som använder variabel-styrka felkorrigerande koder (VS-ECC). I det vanliga fallet använder linjer med noll eller ett fel ett enkelt och snabbt ECC. Ett litet antal linjer med multi-bit fel använder en stark multi-bit ECC som kräver lite extra område och latens. Vi presenterar en ny dynamisk cachekarakteriseringsmekanism för att bestämma vilka linjer som kommer att uppvisa multi-bit misslyckanden. I synnerhet använder vi multi-bit korrigering för att skydda en bråkdel av cache efter byte till låg spänning, medan dynamiskt testa återstående linjer för multi-bit fel. Jämfört med tidigare förslag om multi-bit-korrigering, minskar VS-ECC avsevärt kraft och energi, undviker betydande minskningar av cachekapacitet, ådrar sig liten yta overhead, och undviker stora ökningar i latens och bandbredd. | VS-ECC Ref föreslår variabla felkorrigeringskoder för bättre prestanda och energieffektivitet. | 1,122,411 | Energy-efficient cache design using variable-strength error-correcting codes | {'venue': '2011 38th Annual International Symposium on Computer Architecture (ISCA)', 'journal': '2011 38th Annual International Symposium on Computer Architecture (ISCA)', 'mag_field_of_study': ['Computer Science']} | 82,889 |
Vi föreslår lokal distributions mjukhet (LDS), en ny uppfattning om smidighet för statistisk modell som kan användas som en legalisering term för att främja smidigheten i modellen distribution. Vi namngav LDS-baserad legalisering som virtuell kontradiktorisk utbildning (moms). LDS för en modell vid en inmatningspunkt definieras som den KL-divergensbaserade robustheten hos modellens distribution mot lokala störningar runt datapunkten. Mervärdesskatt liknar kontradiktorisk utbildning, men skiljer sig åt genom att den avgör den kontradiktoriska riktningen enbart från modelldistributionen utan att använda etikettinformationen, vilket gör den tillämplig på halvövervakat lärande. Beräkningskostnaden för mervärdesskatt är relativt låg. För neurala nätverk, den ungefärliga gradienten av LDS kan beräknas med högst tre par av framåt och bakåt förökningar. När vi tillämpade vår teknik på övervakad och halvövervakad inlärning för MNIST-datauppsättningen, överträffade den alla andra träningsmetoder än den nuvarande tekniken, som bygger på en mycket avancerad generativ modell. Vi tillämpade också vår metod på SVHN och NORB, och bekräftade vår metods överlägsna prestanda jämfört med den moderna halvövervakade metod som tillämpas på dessa datauppsättningar. | REF föreslår spridningsutjämning utbildningsstrategi för försvar i både övervakad och halvövervakad inlärningsmiljö. | 9,398,766 | Distributional Smoothing with Virtual Adversarial Training | {'venue': 'ICLR 2016', 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,890 |
Vi föreslår en svagt övervakad strategi som tar bild-sentence par som ingång och lär sig att visuellt mala (dvs lokalisera) godtyckliga språkliga fraser, i form av rumslig uppmärksamhet masker. Modellen är särskilt tränad med bilder och tillhörande bildtexter på bildnivå, utan några explicita region-till-fras-korrespondensanteckningar. I detta syfte introducerar vi en end-to-end modell som lär sig visuella grundläggningar av fraser med två typer av noggrant utformade förlustfunktioner. Förutom den vanliga diskriminativa förlusten, som tvingar fram att bilden regioner och fraser konsekvent kodas, föreslår vi en ny strukturell förlust som använder sig av parse trädstrukturer som orsakas av meningarna. I synnerhet säkerställer vi komplementaritet bland de uppmärksamhetsmasker som motsvarar syskonnominella fraser, och sammansättningen av uppmärksamhet masker bland barn och föräldrar fraser, enligt definitionen i meningen parse träd. Vi validerar effektiviteten i vår strategi för Microsoft COCO och Visual Genome dataset. | Xiao m.fl. REF utför svagt övervakad pixelnivå jordning med en rumslig uppmärksamhet mask som genereras från den hierarkiska strukturen av parseträdet från frasfrågan. | 9,190,307 | Weakly-Supervised Visual Grounding of Phrases with Linguistic Structures | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 82,891 |
Nuvarande state-of-the-art djupinlärningssystem för visuell objektigenkänning och detektion använder rent övervakad utbildning med legalisering såsom avhopp för att undvika överutrustning. Prestandan beror kritiskt på mängden märkta exempel, och i nuvarande praxis antas etiketterna vara entydiga och korrekta. Detta antagande håller dock ofta inte, t.ex. Vid upptäckt kan objekt i bilden inte lokaliseras, och i allmänhet kan märkningen vara subjektiv. I detta arbete föreslår vi ett generiskt sätt att hantera bullriga och ofullständiga märkningar genom att öka prognosmålet med ett begrepp om konsekvens. Vi anser att en förutsägelse är konsekvent om samma förutsägelse görs ges liknande begrepp, där begreppet likhet är mellan djupa nätverksfunktioner som beräknas från indata. I experiment visar vi att vårt tillvägagångssätt ger betydande robusthet för att märka buller på flera datauppsättningar. På MNIST handskrivna siffror visar vi att vår modell är robust för att märka korruption. På Toronto Face Database, visar vi att vår modell hanterar väl fallet med subjektiva etiketter i känsloigenkänning, uppnå state-of-t heart resultat, och kan också dra nytta av omärkta ansiktsbilder utan någon ändring av vår metod. På ILSVRC2014 detekteringsutmaningsdata visar vi att vår strategi sträcker sig till mycket djupa nätverk, högupplösta bilder och strukturerade utgångar, och resulterar i förbättrad skalbar detektering. | En bootstrap teknik föreslås för att minska påverkan av korrumperade etiketter genom att öka förutsägelsen mål med ett begrepp om konsekvens REF. | 2,181,703 | Training Deep Neural Networks on Noisy Labels with Bootstrapping | {'venue': 'ICLR 2015', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 82,892 |
Verifierbar beräkning gör det möjligt för en beräkningssvag klient att "outsourca" beräkningen av en funktion F på olika ingångar x 1,..., x k till en eller flera arbetstagare. Arbetarna returnerar resultatet av funktionsutvärderingen, t.ex. y i = F(x i ), samt ett bevis på att beräkningen av F utfördes korrekt på det givna värdet x i. Kontrollen av beviset bör kräva betydligt mindre beräkningsansträngning än beräkning F(x i ) från grunden. Vi presenterar ett protokoll som gör det möjligt för arbetstagaren att returnera en beräknings-ljud, icke-interaktivt bevis som kan verifieras i O(m) tid, där m är bit-längden av utdata från F. Protokollet kräver en engångs förbehandling skede av klienten som tar O ( ska C) tid, där C är den minsta Booleska kretsen dator F. Vårt schema ger också input och output integritet för kunden, vilket innebär att arbetstagarna inte lär sig någon information om x i eller y i värden. | Gennaro m.fl. REF definierar formellt kontrollerbar databehandling som en teknik som gör det möjligt för en beräkningssvag kund att verifiera resultatets korrekthet vid utkontrakterad beräkning. | 9,475,913 | Non-interactive verifiable computing: Outsourcing computation to untrusted workers | {'venue': 'In CRYPTO', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,893 |
Abstract-Wound läkningsfrekvens, förblir en intressant och viktig fråga, där moderna bildtekniker har ännu inte gett ett definitivt svar. För att styra bättre terapeutiska ingrepp krävs en bättre förståelse av de grundläggande mekanismer som driver vävnadsreparationer. Sårläkningshastigheten kvantifieras främst av hastigheten av förändringen av sårets yta. Syftet med denna studie var att fastställa en standardiserad och objektiv teknik för att bedöma utvecklingen av sårläkning i foten genom texturanalys. Metoderna för förbehandling, segmentering och texturanalys tillsammans med visuell experts utvärdering användes för att bedöma sårläkningsprocessen. Totalt 40 digitala bilder från tio olika försökspersoner med matskador togs var tredje dag, i 12 dagar, av en billig digitalkamera under varierande ljusförhållanden. Bilderna normaliserades och såren segmenterades automatiskt med hjälp av en orms segmenteringssystem. Från de segmenterade sår 15 olika texturegenskaper och 4 olika geometriska egenskaper extraherades för att identifiera funktioner som kvantifierar hastigheten av sårläkning. Vi hittade texturegenskaper som kan tyda på utvecklingen av sårläkningsprocessen. Mer specifikt, vissa textur funktioner ökar (medel, kontrast), medan vissa andra textur funktioner minskar (entropi, summan av kvadrat varians, summa medelvärde, summa varians) med progression av sår läkningsprocessen. Vissa av dessa egenskaper befanns vara betydligt annorlunda i en viss tidpunkt och detta kunde användas för att indikera graden av sårläkning. Inga signifikanta skillnader konstaterades för alla geometriska åtgärder. Resultaten av denna studie tyder på att vissa textur funktioner kan användas för att övervaka sårläkningsprocessen, vilket minskar arbetsbelastningen för experter, ge standardisering, minska kostnader, och förbättra kvaliteten för patienter. Enkelheten i metoden tyder också på att det kan vara ett värdefullt verktyg i klinisk sårbedömning. Framtida arbete kommer att innehålla ytterligare textur och geometriska funktioner för att bedöma sårläkningsprocessen för att kunna användas i den verkliga kliniska praxisen. | För det andra fångas de flesta av CW-bilderna med hjälp av en vanlig kamera med varierande ljusförhållanden, vilket påverkar sårbildernas kvalitet REF. | 3,946 | Evaluation of wound healing process based on texture analysis | {'venue': '2012 IEEE 12th International Conference on Bioinformatics & Bioengineering (BIBE)', 'journal': '2012 IEEE 12th International Conference on Bioinformatics & Bioengineering (BIBE)', 'mag_field_of_study': ['Computer Science']} | 82,894 |
I det här dokumentet tar vi upp problemet med att upptäcka ansikte med flera vyer. Även om det har gjorts betydande forskning om detta problem, kräver nuvarande toppmoderna metoder för denna uppgift en anteckning av ansiktsmarkeringar, t.ex. TSM [25], eller annotering av ansikte utgör [28, 22]. De kräver också utbildning dussintals modeller för att helt fånga ansikten i alla riktningar, t.ex. 22 modeller i HeadHunter metod [22]. I detta dokument föreslår vi Deep Dense Face Detector (DDFD), en metod som inte kräver pose / markmark annotation och kan upptäcka ansikten i ett brett spektrum av orienteringar med hjälp av en enda modell baserad på djupa konvolutionella neurala nätverk. Den föreslagna metoden har minimal komplexitet; till skillnad från andra metoder för att upptäcka föremål på senare tid [9] kräver den inte ytterligare komponenter såsom segmentering, regression av avgränsade rutor eller klassificering av SVM. Dessutom analyserade vi poäng av den föreslagna ansiktsdetektorn för ansikten i olika riktningar och fann att 1) den föreslagna metoden kan detektera ansikten från olika vinklar och kan hantera ocklusion i viss utsträckning, 2) det verkar finnas ett samband mellan fördelning av positiva exempel i träningssetet och poäng av den föreslagna ansiktsdetektorn. Det sistnämnda tyder på att den föreslagna metodens prestanda kan förbättras ytterligare genom att använda bättre provtagningsstrategier och mer sofistikerade metoder för dataförstärkning. Utvärderingar av populära referensdata för ansiktsdetektering visar att vår en modell av ansiktsdetektoralgoritm har liknande eller bättre prestanda jämfört med tidigare metoder, som är mer komplexa och kräver noteringar av antingen olika poser eller ansiktsmarkeringar. | Dessa metoder kan detektera ansikten i flera riktningar och poser, t.ex. Hoppa över det. | 3,339,441 | Multi-view Face Detection Using Deep Convolutional Neural Networks | {'venue': "ICMR '15", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,895 |
Relevans Återkoppling har visat sig vara mycket effektiv för att förbättra hämtningsnoggrannheten. Ett svårt men viktigt problem i alla relevanta återkopplingsmetoder är hur man optimalt balanserar den ursprungliga fråge- och återkopplingsinformationen. I de nuvarande återkopplingsmetoderna är balansparametern vanligtvis inställd på ett fast värde för alla frågor och samlingar. Men på grund av skillnaden i frågor och feedback-dokument, denna balans parameter bör optimeras för varje fråga och varje uppsättning feedback-dokument. I detta dokument presenterar vi en inlärningsstrategi för att på ett anpassningsbart sätt förutsäga den optimala balanskoefficienten för varje fråga och varje samling. Vi föreslår tre heuristiker för att karakterisera balansen mellan fråge- och feedbackinformation. Med dessa tre heuristiker som färdplan utforskar vi ett antal funktioner och kombinerar dem med en regressionsstrategi för att förutsäga balanskoefficienten. Våra experiment visar att den föreslagna adaptiva relevansåterkopplingen är mer robust och effektiv än den vanliga fasta koefficienten. | Lv och Zhai REF påpekar att balansparametern för återkoppling till den ursprungliga frågan är statisk, dvs inte adaptive för varje fråga. | 11,716,650 | Adaptive relevance feedback in information retrieval | {'venue': 'CIKM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,896 |
I detta dokument presenterar vi ett nytt tillvägagångssätt för att identifiera argumentativa diskursstrukturer i övertygande essäer. Argumentationens struktur består av flera komponenter (dvs. fordringar och lokaler) som är kopplade till argumenterande relationer. Vi betraktar denna uppgift i två på varandra följande steg. För det första identifierar vi argumentens beståndsdelar med hjälp av klassificering i flera klasser. För det andra klassificerar vi ett par argumentkomponenter som antingen stöd eller icke-stöd för att identifiera strukturen av argumenterande diskurs. För båda uppgifterna utvärderar vi flera klassificeringar och föreslår nya funktionsuppsättningar inklusive strukturella, lexiska, syntaktiska och kontextuella funktioner. I våra experiment får vi en makro F1-poäng på 0,726 för att identifiera argumentkomponenter och 0,722 för argumentativa relationer. | I vårt arbete följer vi REF och använder de förutsagda etiketterna på argumentkomponenter som funktioner under argumentativ relationsbrytning. | 71,907 | Identifying Argumentative Discourse Structures in Persuasive Essays | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,897 |
Entity Linking (EL) och Word Sense Disambiguation (WSD) båda behandlar språkets lexikala tvetydighet. Men medan de två uppgifterna är ganska lika, skiljer de sig åt i ett grundläggande avseende: i EL kan det textmässiga omnämnandet kopplas till en namngiven enhet som kan eller kanske inte innehåller det exakta omnämnandet, medan det i WSD finns en perfekt matchning mellan ordformen (bättre, dess lemma) och en lämplig ordsinne. I detta dokument presenterar vi Babelfy, en enhetlig grafbaserad metod för EL och WSD baserad på en lös identifiering av kandidatbetydelser i kombination med en tätare subgrafheuristisk som väljer semantiska tolkningar med hög överensstämmelse. Våra experiment visar toppmoderna resultat på båda uppgifterna på 6 olika datauppsättningar, inklusive en flerspråkig inställning. Babelfy är online på http://babelfy.org | En enhetlig graf-baserad metod för enhet länkning och ord sense disambigation med Babel-Net presenteras i REF. | 7,851,632 | Entity Linking meets Word Sense Disambiguation: a Unified Approach | {'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']} | 82,898 |
Abstrakt. I detta dokument utforskar vi en ny väg för att spara ström i sensornätverk baserat på förutsägbar rörlighet för observatören (eller datasänkan). Förutsägbar rörlighet är en bra modell för kollektivtrafikfordon (bussar, skyttelbussar och tåg), som kan fungera som mobila observatörer i stora sensornät. För att förstå vinsterna på grund av förutsägbar rörlighet, modellerar vi datainsamlingsprocessen som ett kösystem, där slumpmässiga ankomster modellerar slumpmässighet i den rumsliga fördelningen av sensorer. Med hjälp av kömodellen analyserar vi framgången i datainsamlingen och kvantifierar strömförbrukningen i nätverket. Även om modellering utförs för ett nätverk som endast använder en Hop-kommunikation, visar vi att energibesparingen över ett statiskt sensornätverk är betydande. Slutligen lägger vi fram ett enkelt observatörsdrivet kommunikationsprotokoll, som naturligtvis följer av problemformuleringen och kan användas för att uppnå de förväntade effektbesparingarna. | I REF, förutsatt att en prototyp är byggd vid Rice University där universitetsbussar kommer att transportera mobil observatör som datasänka och sensornoder är utplacerade på byggnader, författarna modellera datainsamlingsprocessen som kösystem och föreslå ett kommunikationsprotokoll baserat på förutsägbar rörlighet mönster observatören. | 14,874,254 | Using Predictable Observer Mobility for Power Efficient Design of Sensor Networks | {'venue': 'IPSN', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,899 |
Begreppet submodularitet spelar en viktig roll i kombinatorisk optimering. I synnerhet kan många viktiga optimeringsproblem gjutas som submodulära maximeringsproblem, inklusive maximal täckning, maximal anläggningsplacering och maximal nedskärning i riktade/oriktade grafer. I detta dokument presenterar vi de första kända approximationsalgoritmer för problemet med att maximera en icke-decreasing submodulär uppsättning funktion med flera linjära begränsningar. Med tanke på en d-dimensionell budget vektorL, för vissa d ≥ 1, och en orakel för en icke-decreasing submodulär uppsättning funktion f över ett universum U, där varje element e U är associerad med en d-dimensionell kostnadsvektor, söker vi en delmängd av element S på U vars totala kostnad är som mestL, sådan att f (S) maximeras. Vi utvecklar ett ramverk för att maximera submodulära funktioner med d linjära begränsningar som ger en (1 − ε)(1 − e −1 ) approximation till optimal för alla ε > 0, där d > 1 är något konstant. Vår studie motiveras av en variant av det klassiska problemet med maximal täckning som vi kallar maximal täckning med flera förpackningsbegränsningar. Vi använder vårt ramverk för att få samma approximationsgrad för detta problem. Såvitt vi vet är detta första gången den teoretiska gränsen på 1 – e – 1 matchas (nästan) för båda dessa problem. | En ram föreslogs i REF för att maximera en submodulär funktion som är föremål för en d-knapsack-restriktion, som ger en (1 - e - 1 - ) - approximation för alla > 0. | 2,987,767 | Maximizing Submodular Set Functions Subject to Multiple Linear Constraints | {'venue': 'SODA', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,900 |
Kvantiserade djupa neurala nätverk (QDNN) är attraktiva på grund av deras mycket lägre minneslagring och snabbare inference hastighet än deras regelbundna full precision motsvarigheter. För att upprätthålla samma prestandanivå, särskilt vid låg bitbredd, måste QDNN omskolas. Deras träning innebär bitvis konstant aktiveringsfunktioner och diskreta vikter, varför matematiska utmaningar uppstår. Vi introducerar begreppet grov lutning och föreslår den blandade grov lutning nedstigning (BCGD) algoritm, för utbildning fullt kvantiserade neurala nätverk. Grov lutning är i allmänhet inte en lutning av någon funktion utan en konstgjord uppstigning riktning. Viktuppdateringen av BCGD sker genom grov gradientkorrigering av ett vägt medelvärde av de fulla precisionsvikterna och deras kvantisering (den så kallade blandningen), vilket ger tillräcklig nedstigning i det objektiva värdet och därmed påskyndar träningen. Våra experiment visar att denna enkla blandningsteknik är mycket effektiv för kvantisering vid extremt låg bit-bredd såsom binarization. I full kvantisering av ResNet-18 för ImageNet klassificering uppgift, BCGD ger 64,36% topp-1 noggrannhet med binära vikter över alla lager och 4-bitars adaptiv aktivering. Om vikterna i de första och sista skikten hålls i full precision, ökar detta antal till 65,46 %. Som teoretisk motivering visar vi konvergensanalys av grov lutning nedstigning för en tvålagers neural nätverksmodell med Gaussian ingångsdata, och visar att den förväntade grova lutningen korrelerar positivt med den underliggande sanna lutningen. Nyckelord vikt/aktivering kvantisering · blandad grov lutning nedstigning · tillräcklig nedstigning egenskap · djupa neurala nätverk Matematik Ämnesklassificering (2010) 90C35, 90C26, 90C52, 90C90. | Även en blandad grov lutning nedstigning metod REF introduceras för att träna helt kvantifierade DNNs i vikter och aktiveringsfunktioner, och övervinna försvinnande gradienter. | 52,015,115 | Blended Coarse Gradient Descent for Full Quantization of Deep Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,901 |
I det här dokumentet introducerar vi en ny metod för textdetektering i naturliga bilder. Metoden består av två bidrag: För det första en snabb och skalbar motor för att generera syntetiska bilder av text i skräp. Denna motor överlagrar syntetisk text till befintliga bakgrundsbilder på ett naturligt sätt, vilket förklarar den lokala 3D scengeometrin. För det andra använder vi de syntetiska bilderna för att träna en Full-Konvolutional Regression Network (FCRN) som effektivt utför textdetektering och begränsande-box regression på alla platser och flera skalor i en bild. Vi diskuterar FCRN:s förhållande till den nyligen införda YOLO-detektorn, samt andra system för att upptäcka objekt från början till slut baserade på djupinlärning. Det resulterande detektionsnätverket utför i hög grad aktuella metoder för textdetektering i naturliga bilder och uppnår en F-mätning på 84,2 % på standardriktmärket ICDAR 2013. Dessutom kan den bearbeta 15 bilder per sekund på en GPU. | Gupta m.fl. REF introducerar ett fullt konvolutionellt regressionsnätverk för att gemensamt uppnå textdetektering och regression i avgränsade rutor på flera bildskalor. | 206,593,628 | Synthetic Data for Text Localisation in Natural Images | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 82,902 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med | Nästa steg, som ledde till upptäckt av objekt i realtid med regionala förslagsnätverk, var Snabbare R-CNN REF. | 10,328,909 | Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 82,903 |
Abstrakt. Under personliga interaktioner använder lyssnarna återkoppling från bakkanalen som t.ex. huvudnodar som en signal till talaren om att kommunikationen fungerar och att de bör fortsätta att tala. Förutsäga dessa backchannel möjligheter är en viktig milstolpe för att bygga engagerande och naturliga virtuella människor. I detta papper visar vi hur sekventiella probabilistiska modeller (t.ex., Dolda Markov Modell eller Villkorliga Random Fields) automatiskt kan lära sig från en databas över människa-till-mänskliga interaktioner för att förutsäga lyssnare backchannels med hjälp av högtalare multimodala utdatafunktioner (t.ex. prosody, talade ord och ögon blick). De viktigaste utmaningarna som tas upp i detta dokument är automatiskt urval av relevanta egenskaper och optimal funktionsrepresentation för probabilistiska modeller. För förutsägelse av visuella backchannel-signaler (dvs. huvudnodar) visar vår prognosmodell en statistiskt signifikant förbättring jämfört med en tidigare publicerad metod baserad på handgjorda regler. | I REF användes sekventiella probabilistiska modeller för att välja multimodala funktioner från en högtalare (t.ex. prosody, blick och talade ord) för att förutsäga visuella back-channel signaler (t.ex. huvud nickar). | 5,652,593 | Predicting listener backchannels: A probabilistic multimodal approach | {'venue': 'In In proceedings of Intelligent Virtual Agents (IVA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,904 |
Abstrakt. Under de senaste decennierna har flera miljarder webbsidor gjorts tillgängliga på webben. Den pågående övergången från den nuvarande webben av ostrukturerade data till webben av data kräver dock skalbara och korrekta metoder för utvinning av strukturerade data i RDF (Resource Description Framework) från dessa webbplatser. Ett av de viktigaste stegen mot att extrahera roterugnen ur texten är disambitionen av namngivna enheter. Även om flera strategier syftar till att ta itu med detta problem, uppnår de fortfarande dålig noggrannhet. Vi tar itu med denna nackdel genom att presentera AGDIS-TIS, en ny kunskapsbas-agnostisk metod för namngiven entity disambiguation. Vårt tillvägagångssätt kombinerar Hypertext-Induced Topic Search (HITS) algoritm med etikett expansionsstrategier och stränga likhet åtgärder. Baserat på denna kombination kan AGDISTIS effektivt upptäcka rätt URI för en given uppsättning namngivna enheter i en inmatningstext. Vi utvärderar vår strategi på åtta olika dataset mot state-of-theart namngivna entity disambiguation ramar. Våra resultat visar att vi överträffar den senaste tekniken med upp till 29 % F-åtgärd. | Medan de två senaste exemplen endast behandlar specifika ontologier, är AGDISTIS REF ett tillvägagångssätt för namnenhetsdisambigering (NED) som kan använda någon ontologi. | 14,301,767 | AGDISTIS - Graph-Based Disambiguation of Named Entities Using Linked Data | {'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,905 |
Sedan starten har blockchain-tekniken visat lovande tillämpningsmöjligheter. Från den ursprungliga kryptovalutan till det nuvarande smarta kontraktet har blockchain tillämpats på många fält. Även om det finns några studier om säkerhet och integritet frågor blockchain, det saknas en systematisk granskning av säkerheten i blockchain system. I detta dokument genomför vi en systematisk studie om säkerhetshoten mot blockchain och kartlägger motsvarande verkliga attacker genom att undersöka populära blockchain-system. Vi går också igenom säkerhetsförbättringslösningarna för blockchain, som kan användas i utvecklingen av olika blockchainsystem, och föreslår några framtida riktningar för att väcka forskningsinsatser inom detta område. | Till exempel Li et al. REF överblick över säkerhetsattackerna på blockkedjeplattformarna och sammanfatta säkerhetsförbättringarna. | 3,628,110 | A Survey on the Security of Blockchain Systems | {'venue': 'Li X, Jiang P, Chen T, Luo X, Wen Q. A survey on the security of blockchain systems, Future Generation Computer Systems (2017)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,906 |
Sammanfattning — Detta papper är ett försök att förstå de processer genom vilka programvara åldras. Vi definierar kod som ska åldras eller förfalla om dess struktur gör det onödigt svårt att förstå eller ändra och vi mäter graden av förfall genom att räkna antalet fel i koden under en tidsperiod. Med hjälp av förändringshanteringsdata från ett mycket stort, långlivat mjukvarusystem utforskar vi i vilken utsträckning mätningar från förändringshistoriken är framgångsrika i att förutsäga fördelningen över moduler av dessa förekomster av fel. I allmänhet är processmått baserade på förändringshistoriken mer användbara för att förutsäga felfrekvenser än produktmått i koden: Till exempel, antalet gånger koden har ändrats är en bättre indikation på hur många fel den kommer att innehålla än dess längd. Vi jämför också felfrekvensen av kod i olika åldrar, finner att om en modul är i genomsnitt ett år äldre än en annars liknande modul, den äldre modulen kommer att ha ungefär en tredjedel färre fel. Vår mest framgångsrika modell mäter felpotentialen hos en modul som summan av bidragen från alla de gånger modulen har ändrats, med stora, senaste förändringar som får mest vikt. | De antar att data baserat på förändringshistorik är mer användbart för att förutsäga felfrekvenser än mätvärden baserade på koden, såsom storlek REF. | 1,209,510 | Predicting fault incidence using software change history | {'venue': 'IEEE Transactions on Software Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,907 |
I detta arbete tar vi upp uppgiften att semantisk bildsegmentering med Deep Learning och gör tre huvudsakliga bidrag som experimentellt visas ha betydande praktiska meriter. För det första lyfter vi fram convolution med uppsamlade filter, eller "atreous convolution", som ett kraftfullt verktyg i täta förutsägelser uppgifter. Atrous convolution tillåter oss att uttryckligen kontrollera den upplösning vid vilken funktionssvar beräknas inom Deep Convolutional Neural Networks. Det gör det också möjligt för oss att effektivt utvidga synfältet för filter för att införliva större sammanhang utan att öka antalet parametrar eller mängden beräkning. För det andra föreslår vi upphetsande rumslig pyramidpooling (ASPP) för att på ett robust sätt segmentera objekt på flera skalor. ASPP sonderar ett inkommande konvolutionellt funktionsskikt med filter med flera provtagningshastigheter och effektiva synfält, vilket fångar föremål såväl som bildkontext i flera skalor. För det tredje förbättrar vi lokaliseringen av objektgränser genom att kombinera metoder från DCNN och probabilistiska grafiska modeller. Den ofta använda kombinationen av max-pooling och downsampling i DCNNs uppnår Invariance men har en vägtull på localization noggrannhet. Vi övervinner detta genom att kombinera svaren på det slutliga DCNN-skiktet med ett helt uppkopplat villkorligt Random Field (CRF), som visas både kvalitativt och kvantitativt för att förbättra lokaliseringsprestandan. Vårt föreslagna "DeepLab" system sätter den nya state-of-art vid PASCAL VOC-2012 semantiska bildsegmentering uppgift, nå 79,7 procent mIOU i testuppsättningen, och avancerar resultaten på tre andra datauppsättningar: PASCAL-Context, PASCAL-Person-Part, och Cityscapes. Alla våra koder görs allmänt tillgängliga på nätet. | Vissa versioner av DeepLab REF använder helt anslutna villkorliga slumpmässiga fält (CRF) utöver det sista skiktet CNN funktioner för att förbättra lokaliseringen prestanda. | 3,429,309 | DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 82,908 |
Vi presenterar en maskininlärning-baserat tillvägagångssätt för förlust bildkomprimering som överträffar alla befintliga codecs, medan kör i realtid. Vår algoritm producerar vanligtvis filer 2,5 gånger mindre än JPEG och JPEG 2000, 2 gånger mindre än WebP, och 1,7 gånger mindre än BPG på datauppsättningar av generiska bilder över alla kvalitetsnivåer. Samtidigt är vår codec utformad för att vara lätt och utplaceringsbar: till exempel kan den koda eller avkoda Kodak-datasetet i cirka 10 ms per bild på GPU. Vår arkitektur är en autoencoder med pyramidanalys, en adaptiv kodmodul och legalisering av den förväntade kodlängden. Vi kompletterar också vår strategi med kontradiktorisk utbildning specialiserad på användning i en kompressionsinställning: Detta gör det möjligt för oss att producera visuellt tilltalande rekonstruktioner för mycket låga bitrates. | REF använder också en autoencoder-arkitektur och undersöker möjligheten att använda kontradiktorisk utbildning inom en kompressionsinställning. | 8,291,598 | Real-Time Adaptive Image Compression | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,909 |
Abstrakt. I detta dokument tas ett nytt problem upp, nämligen erkännande av verksamhet i flera nivåer. Vårt mål är att upptäcka och lokalisera ett brett utbud av aktiviteter, inklusive individuella åtgärder och gruppaktiviteter, som samtidigt kan förekomma i högupplöst video. Videoupplösningen möjliggör digital zoom-in (eller zoom-out) för att undersöka fina detaljer (eller grövre skalor), som behövs för igenkänning. Den viktigaste utmaningen är hur man undviker att köra en mängd detektorer på alla spatiotemporala skalor, och ändå komma fram till en holistisk konsekvent videotolkning. I detta syfte använder vi ett treskiktat AND-OR diagram för att gemensamt modellera gruppaktiviteter, enskilda åtgärder och deltagande objekt. AND-OR grafen möjliggör en principiell formulering av effektiva, kostnadseffektiva slutsatser via en utforska-exploat strategi. Vår slutsats schemalägger optimalt följande beräkningsprocesser: 1) direkt tillämpning av aktivitetsdetektorer - kallad α-process; 2) nedifrån-och-upp-slut baserad på detektion av aktivitetsdelar - kallad β-process; och 3) top-down-slutledning baserad på detektion aktivitet sammanhang - kallad γ-process. Schemaläggningen iterativt maximerar log-posteriors av den resulterande pars grafer. För utvärdering har vi sammanställt och väglett ett nytt dataset med högupplösta videor av grupp- och individuella aktiviteter som samexisterar på en gård på UCLA campus. | Amer m.fl. I REF föreslås en utforska-exploat strategi som schemalägger processer av top-down-slutledning med aktivitetskontext och nedifrån-och-upp-slut med aktivitetsdelar. | 7,337,379 | Cost-sensitive top-down/bottom-up inference for multiscale activity recognition | {'venue': 'in European Conference on Computer Vision', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,910 |
Probabilistic Latent Semantic Analysis är en ny statistisk teknik för analys av två- och samtidiga data, som har tillämpningar i informationshämtning och filtrering, naturlig språkbehandling, ma chine lärande från text, och i relaterade ar eas. Jämfört med standard Latent Semantic Analysis som härrör från linjär algebra och utför en Singular Value Decomposition av co-occurrence tabeller, är den föreslagna metoden baserad på en blandning sönderdelning härrör från en latent klass modell. Detta leder till detta. i ett mer principfast tillvägagångssätt som har en solid grund i statistiken. För att undvika överbemanning föreslår vi en allmänt tillämplig generalisering av modellen med maximal sannolikhet genom härdad EM. Vårt tillvägagångssätt ger betydande och konsekventa förbättringar över Latent Semantic Analysis i ett antal fall. | Den förbättrade versionen av standard latent semantisk analysmodell har lagts fram i REF. | 653,762 | Probabilistic Latent Semantic Analysis | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,911 |
Kodkloning antas inte bara blåsa upp underhållskostnader utan också anses defekt-bene som inkonsekventa ändringar av kod dubbletter kan leda till oväntat beteende. Följaktligen har identifieringen av duplikat av kod, klondetektering, varit ett mycket aktivt forskningsområde under de senaste åren. Hittills har det dock inte gjorts någon omfattande undersökning av konsekvenserna av kodkloning för programmens korrekthet. För att avhjälpa denna brist presenterar detta dokument resultaten av en omfattande fallstudie som genomfördes för att ta reda på om inkonsekventa ändringar av klonad kod kan tyda på fel. För de analyserade kommersiella och öppna källkodssystem vi inte bara fann att inkonsekventa förändringar av kloner är mycket frekventa men också identifierade ett betydande antal fel som orsakas av sådana förändringar. Klondetekteringsverktyget som används i fallstudien implementerar en ny algoritm för att upptäcka inkonsekventa kloner. Det finns som öppen källkod för att andra forskare ska kunna använda det som grund för ytterligare undersökningar. | Juergens m.fl. REF finner, efter manuell kontroll av kloner i fyra industriella och en öppen källkod system, att inkonsekventa förändringar av kloner är mycket frekventa och kan leda till betydande antal fel i programvara. | 6,196,921 | Do Code Clones Matter? | {'venue': "Proc. 31st International Conference on Software Engineering (ICSE '09). IEEE, 2009", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,912 |
Att förutse förekomsten av länkar är ett grundläggande problem i nätverken. I länken förutsägelse problem vi ges en ögonblicksbild av ett nätverk och vill dra slutsatsen vilka interaktioner mellan befintliga medlemmar sannolikt kommer att uppstå inom en nära framtid eller vilka befintliga interaktioner vi saknar. Även om detta problem har studerats ingående, är utmaningen med att effektivt kombinera information från nätverksstruktur med rik nod- och kantattributdata fortfarande till stor del öppen. Vi utvecklar en algoritm baserad på Supervised Random Walks som naturligt kombinerar informationen från nätverksstrukturen med nod- och kantnivåattribut. Vi uppnår detta genom att använda dessa attribut för att styra en slumpmässig gång på grafen. Vi formulerar en övervakad inlärning uppgift där målet är att lära sig en funktion som tilldelar styrkor till kanter i nätverket så att en slumpmässig gångare är mer benägna att besöka noderna till vilka nya länkar kommer att skapas i framtiden. Vi utvecklar en effektiv träningsalgoritm för att direkt lära oss egg strength estimation-funktionen. Våra experiment på Facebook sociala grafen och stora samarbetsnätverk visar att vår strategi överträffar state-of-theart oövervakade tillvägagångssätt samt tillvägagångssätt som är baserade på funktionsextraktion. | REF föreslår en övervakad slumpmässig gångalgoritm för att uppskatta styrkan i sociala länkar. | 7,851,677 | Supervised random walks: predicting and recommending links in social networks | {'venue': "WSDM '11", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']} | 82,913 |
Vi löser flera grundläggande frågor inom området distribuerad funktionell övervakning, initierad av Cormode, Muthukrishnan och Yi (SODA, 2008), och får ny uppmärksamhet. I den här modellen finns k-platser som vart och ett följer sina inmatningsströmmar och kommunicerar med en central samordnare. Samordnarens uppgift är att kontinuerligt upprätthålla en ungefärlig utgång till en funktion som beräknas över föreningen av k-strömmarna. Målet är att minimera antalet bitar som kommuniceras. Låt p-th frekvens moment definieras som Fp = i f p i, där fi är frekvensen av element i. Vi visar den randomiserade kommunikation komplexiteten av att uppskatta antalet olika element (dvs. F0) upp till en 1 + ε faktor är och att förbättra på de tidigare på k + 1/ε 2 ) bundna och matcha kända övre gränser. För Fp, p > 1, förbättrar vi den tidigare informationen (k + 1/ε 2 ) som är bunden till och med (k p−1 /ε 2 ). Vi får liknande förbättringar för tunga hitters, empirisk entropi och andra problem. Våra nedre gränser är den första av något slag i distribuerad funktionell övervakning att bero på produkten av k och 1/ε 2. Dessutom är de nedre gränserna för den statiska versionen av den distribuerade funktionsövervakningsmodellen, där samordnaren bara behöver beräkna funktionen vid den tidpunkt då alla k-inmatningsströmmar slutar. Förvånansvärt nog motsvarar de nästan vad som är möjligt i den (dynamiska versionen av) distribuerade funktionsövervakningsmodellen där samordnaren behöver hålla reda på funktionen kontinuerligt när som helst. Vi visar också att vi kan uppskatta Fp, för alla p > 1, med hjälp av Õ(k p−1 poly(ε −1 )) kommunikation. Detta förbättras drastiskt jämfört med föregående Õ(k 2p+1 N 1−2/p poly(ε −1 )) bundet till Cormode, Mutukrishnan och Yi för allmän p, och deras Õ(k 2 /ε+ k 1.5 /ε 3 ) bundet till p = 2. För p = 2, löser vårt band sin huvudsakliga öppna fråga. Våra nedre gränser bygger på nya direkta summasatser för ungefärlig majoritet, och ger förbättringar till klassiska problem i standarddataströmsmodellen. För det första förbättrar vi den kända nedre gränsen för uppskattningen av Fp, p > 2, i t passerar från på 1−2/p /(ε 2/p t)) till på (n 1−2/p /(ε 4/p t)), vilket ger den första gränsen * MADALGO är Center for Massive Data Algorithmics -a Center of the Danish National Research Foundation. som matchar vad vi förväntar oss när p = 2 för ett konstant antal pass. För det andra ger vi den första nedre gränsen för uppskattningen av F0 i t passerar med 1 / (ε 2 t)) bitar av utrymme som inte använder hårdheten i gap-hamming problem. | Kanske det mest direkt relaterade resultatet till vår övre gräns för F p estimering, p till (1, 2], är i den distribuerade funktionella övervakningsmodell, där Woodruff och Zhang REF visar en O (m p-1 poly(log(n), 1/ och) + m till −1 log(n) log(log(n)/.) 5 total kommunikation övre gräns. | 849,480 | Tight bounds for distributed functional monitoring | {'venue': "STOC '12", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,914 |
Betydelsen av tjänstekontrakt som ger en lämplig syntetisk beskrivning av programvarutjänster är allmänt vedertagen. Även om olika typer av information – från extrafunktionella egenskaper till ontologiska kommentarer till beteendebeskrivningar – har föreslagits ingå i tjänstekontrakt, har det ännu inte framkommit någon allmänt accepterad de facto-standard för att beskriva tjänstekontrakt, med undantag för signaturinformation. Bristen på en de facto-standard hämmar storskalig användning av tekniker och verktyg som stöder förbättrad upptäckt och sammansättning av tjänster. I detta dokument diskuterar vi de potentiellt enorma fördelarna med att utnyttja beteendeinformation för att upptäcka och sammanställa tjänster, och relaterar dem till kostnaderna för att generera sådan information och till den nödvändiga avvägningen mellan uttrycklighet och kostnad och värdet av att analysera sådan information. På denna grund diskuterar vi också den potentiella lämpligheten hos vissa välkända modeller för att bli den faktiska standarden för att representera tjänstebeteende i kontrakt, även med tanke på kontextuella faktorer (såsom nödvändig know-how och nuvarande sysselsättning). | Brogi REF diskuterar till exempel kravet på tjänstebeteende representation i webbtjänster och de potentiella fördelarna med att utnyttja denna beteendeinformation för tjänsten upptäckt och sammansättning. | 35,532,395 | On the potential advantages of exploiting behavioural information for contract-based service discovery and composition | {'venue': 'J. Log. Algebr. Program.', 'journal': 'J. Log. Algebr. Program.', 'mag_field_of_study': ['Computer Science']} | 82,915 |
Ikturera dig själv som modedesigner som behöver bilder av tyger med en särskild blandning av färger, en museikatalogare som letar efter artefakter av en viss form och texturerat mönster, eller en filmproducent som behöver ett videoklipp av en röd billiknande objekt flytta från höger till vänster med kameran zooma. Hur hittar du dessa bilder? Även om dagens teknik gör det möjligt för oss att förvärva, manipulera, överföra och lagra stora bild- och videosamlingar online, är de sökmetoder som används för att hitta bildinformation fortfarande begränsade på grund av svåra forskningsproblem (se "Semantisk mot icke-semantisk" sidebar). Vanligtvis beror dessa metoder på filen IDS, nyckelord eller text som hör ihop med bilderna. Och även om de är kraftfulla, tillåter de inte frågor baserade direkt på bildernas visuella egenskaper, är beroende av det speciella ordförråd som används, och tillhandahåller inte frågor för bilder som liknar en given bild. Forskningen om sätt att utvidga och förbättra sökmetoderna för bilddatabaser är utbredd, och resultaten har presenterats i workshops, konferenser,".* och undersökningar. Vi har utvecklat QBIC-systemet (Query by Image Content) för att utforska innehållsbaserade hämtningsmetoder. QBIC tillåter frågor om stora bild- och videodatabaser baserade på exempelbilder, användarkonstruerade skisser och ritningar, utvalda färg- och texturmönster, vid första anblicken, innehållsbaserade frågor verkar bedrägligt enkelt eftersom vi människor verkar vara så bra på det. Om ett program kan skrivas för att extrahera semantiskt relevanta textfraser från bilder, problemet kan lösas genom att använda för närvarande tillgänglig text-sök teknik. Tyvärr, i en oöverskådlig miljö, är uppgiften att skriva detta program bortom räckhåll för nuvarande teknik i bild förståelse. Vid en konferens för artificiell intelligens för flera år sedan gavs en utmaning till publiken att skriva ett program som skulle identifiera alla hundar avbildade i en barnbok, en uppgift som de flesta 3-åringar lätt kan utföra. Ingen i publiken accepterade utmaningen, och detta är fortfarande ett öppet problem. Perceptuell organisation-processen för att gruppera bildfunktioner i meningsfulla objekt och bifoga semantiska beskrivningar t o scener genom modell matchning-är ett olöst problem i bildförståelse. Människor är mycket bättre än datorer på att extrahera semantiska beskrivningar från bilder. Datorer är dock bättre än människor när det gäller att mäta egenskaper och behålla dessa i långtidsminnet. En av de vägledande principer som används av QBIC är t o låta datorer göra vad de gör bäst kvantifierbara mätning och låta människor göra vad de gör bäst-attaching semantisk mening. QBIC kan hitta "fiskformade objekt", eftersom formen är en mätbar egenskap som kan extraheras. Men eftersom fisk förekommer i många former, den enda fisk som kommer att hittas kommer att ha en form nära t o den dragna formen. Detta är inte samma sak som den mycket svårare semantiska frågan om att hitta alla bilder av fisk i en bilddatabas. 0018-9162/95/$4 00 1995 IEEE | På det kommersiella området är IBM QBIC REF ett av de tidigaste systemen. | 110,716 | Query by image and video content: the QBIC system | {'venue': 'IEEE Computer', 'journal': 'IEEE Computer', 'mag_field_of_study': ['Computer Science']} | 82,916 |
Abstrakt. Kapacitetskontroll i perceptron beslutsträd utförs vanligtvis genom att kontrollera deras storlek. Vi bevisar att andra kvantiteter kan vara lika relevanta för att minska flexibiliteten och bekämpa överbemanning. I synnerhet ger vi en övre gräns på generalisering fel som beror både på storleken på trädet och på marginalen av beslut noder. Så utöka marginalen i perceptron beslut träd kommer att minska den övre gränsen på generalisering fel. Baserat på denna analys, introducerar vi tre nya algoritmer, som kan inducera stor marginal perceptron beslut träd. För att bedöma effekten av den stora marginalförskjutningen, OC1 (Journal of Artificial Intelligence Research, 1994, 2, 1-32). av Murthy, Kasif, och Salzberg, ett välkänt system för att inducera perceptron beslut träd, används som basalgoritm. En omfattande experimentell studie av verkliga data visade att alla tre nya algoritmer presterar bättre eller åtminstone inte signifikant sämre än OC1 på nästan varje datauppsättning med bara ett undantag. OC1 uppvisade sämre resultat än den bästa marginalbaserade metoden för varje datauppsättning. | Bennett m.fl. REF visade att maximering av marginaler i perceptron beslut träd kan vara användbart för att bekämpa översittande. | 8,519,830 | Enlarging the Margins in Perceptron Decision Trees | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']} | 82,917 |
Identitetsbaserad kryptering (IBE) är ett spännande alternativ till öppen kryptering, eftersom IBE eliminerar behovet av en PKI (Public Key Infrastructure). Avsändare som använder en IBE behöver inte slå upp de allmänna nycklarna och motsvarande certifikat för mottagarna, identiteterna (t.ex. e-post eller IP-adresser) för de senare är tillräckliga för att kryptera. Alla inställningar, PKI- eller identitetsbaserade, måste ge ett sätt att återkalla användare från systemet. Effektivt upphävande är ett välstuderat problem i den traditionella PKI-miljön. När det gäller IBE har det dock inte gjorts särskilt mycket arbete med att studera upphävandemekanismerna. Den mest praktiska lösningen kräver att avsändaren också använder tidsperioder vid kryptering, och alla mottagare (oavsett om deras nycklar har äventyrats eller inte) att uppdatera sina privata nycklar regelbundet genom att kontakta den betrodda myndigheten. Vi noterar att denna lösning inte skalas väl - eftersom antalet användare ökar, arbetet med viktiga uppdateringar blir en flaskhals. Vi föreslår ett IBE-system som avsevärt förbättrar nyckeluppdateringseffektiviteten på den betrodda partens sida (från linjär till logaritmisk i antalet användare), samtidigt som det förblir effektivt för användarna. Vår plan bygger på idéerna om Fuzzy IBE primitiva och binära träd datastruktur, och är bevisligen säker. | År 2008, Boldyreva m.fl. I REF föreslogs ett identitetsbaserat krypteringssystem som stöder en effektiv återkallelse. | 1,473,455 | Identity-based encryption with efficient revocation | {'venue': 'ACM Conference on Computer and Communications Security', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,918 |
Nya metoder för att lära vektorrymd representationer av ord har lyckats fånga finkorniga semantiska och syntaktiska regulariteter med vektor aritmetiska, men ursprunget för dessa regulariteter har förblivit ogenomskinlig. Vi analyserar och gör explicit de modellegenskaper som behövs för att sådana regulariteter ska framträda i ordvektorer. Resultatet är en ny global logbilinear regressionsmodell som kombinerar fördelarna med de två stora modellfamiljerna i litteraturen: global matrisfaktorisering och lokala kontextfönstermetoder. Vår modell utnyttjar effektivt statistisk information genom att endast träna på icke-nollelement i en ord-kooccurrence-matris, snarare än på hela den glesa matrisen eller på enskilda sammanhangsfönster i en stor corpus. Modellen producerar ett vektorutrymme med meningsfull substruktur, vilket framgår av dess prestanda på 75% på ett nyligen taget ord analog uppgift. Det överträffar också relaterade modeller om likhetsuppgifter och namngivna enhetsigenkänning. | Globala vektorer (GloVe) REF kombinerar både global matris factorization och lokala sammanhang fönstermetoder, genom att träna ordvektorer på co-occurence matris, så att deras skillnader förutsäga co-occurence förhållande. | 1,957,433 | Glove: Global Vectors for Word Representation | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,919 |
Abstrakt. Vi studerar de kompromisser som är involverade i den energieffektiva lokaliseringen och spårningen av mobila mål genom ett trådlöst sensornätverk. Vårt arbete fokuserar på att bygga upp ett ramverk för att utvärdera den grundläggande prestandan hos spårningsstrategier där endast en liten del av nätverket aktiveras när som helst. Vi jämför först naiv nätverksdrift med slumpmässig aktivering och selektiv aktivering. I dessa strategier kommer vinsterna i energibesparing på bekostnad av ökad osäkerhet i lokaliseringen av målet, vilket resulterar i minskad kvalitet på spårning. Vi visar att selektiv aktivering med en bra förutsägelsealgoritm är en dominerande strategi som kan ge order-of-magnitud energibesparingar med försumbar skillnad i spårning kvalitet. Vi anser sedan att duty-cycled aktivering och visa att det erbjuder en flexibel och dynamisk avvägning mellan energiutgifter och spårningsfel när det används i samband med selektiv aktivering. | Andra strategier som aktivering, randomiserad aktivering och selektiv aktivering, som beskrivs i REF, alla fokuserar på bana förutsägelse. | 1,827,831 | Energy-Quality Tradeoffs for Target Tracking in Wireless Sensor Networks | {'venue': 'in International Symposium on Aerospace/Defense sensing Simulation and Controls, Aerosense', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,920 |
I den här artikeln presenterar vi en dataförstärkningsmetod som genererar syntetiska medicinska bilder med hjälp av Generativa Adversarial Networks (GANS). Vi föreslår ett utbildningsprogram som först använder klassisk dataförstärkning för att förstora träningssetet och sedan ytterligare förstora datastorleken och dess mångfald genom att använda GAN-teknik för syntetisk dataförstärkning. Vår metod demonstreras på en begränsad datauppsättning av datortomografi (CT) bilder av 182 leverlesioner (53 cystor, 64 metastaser och 65 hemangiom). Klassificeringsprestandan med enbart klassisk dataförstärkning gav 78,6% känslighet och 88,4% specificitet. Genom att lägga till syntetisk dataökning ökade resultaten signifikant till 85,7% känslighet och 92,4% specificitet. | För medicinska bilder föreslogs en generativ lösning REF för klassificering av leverskada. | 28,111,473 | Synthetic data augmentation using GAN for improved liver lesion classification | {'venue': '2018 IEEE 15th International Symposium on Biomedical Imaging (ISBI 2018)', 'journal': '2018 IEEE 15th International Symposium on Biomedical Imaging (ISBI 2018)', 'mag_field_of_study': ['Computer Science']} | 82,921 |
Inkorporera användares personlighetsdrag har visat sig vara avgörande för många personliga hämtnings- och rekommendationssystem. Analys av användarnas digitala spår har blivit en viktig resurs för att sluta sig till personlighetsdrag. Hittills har analysen av användarnas explicita och latenta egenskaper vanligtvis begränsats till en enda webbplats för sociala nätverk (SNS). I detta arbete föreslår vi en ny metod som integrerar text, bild och användares metafunktioner från två olika SNS: Twitter och Instagram. Våra preliminära resultat visar att den gemensamma analysen av användarnas samtidiga aktiviteter i två populära SNS verkar leda till en konsekvent minskning av förutsägelsefelen för varje personlighetsdrag. | Ovannämnda insatser gjordes dock på en enda webbplats för sociala nätverk, men Skowron et al Ref utförde PR-experiment baserade på text, bild och användares metadata som samlats in från två populära sociala nätverkssajter, dvs. Twitter och Instagram, och rapporterade att en sådan gemensam analys bidrog till minskningen av förutsägelsefelet. | 19,385,987 | Fusing Social Media Cues: Personality Prediction from Twitter and Instagram | {'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,922 |
Representerar bilder och videor med Symmetric Positive Definite (SPD) matriser, och med tanke på den Riemannska geometrin i den resulterande rymden, har visat sig ge hög diskriminativ kraft i många visuella igenkänningsuppgifter. Tyvärr kommer beräkningen av det Riemannska grenen av SPD matriser - särskilt av högdimensionella matriser - till en hög kostnad som begränsar tillämpningen av befintliga tekniker. I detta dokument introducerar vi algoritmer som kan hantera högdimensionella SPD-matriser genom att bygga ett lägredimensionellt SPD-grenrör. I detta syfte föreslår vi att man modellerar kartläggningen från det högdimensionella SPD-grenröret till det lågdimensionella med en ortonormal projektion. Detta låter oss formulera dimensionalitetsminskning som problemet med att hitta en projektion som ger ett lågdimensionellt grenrör antingen med maximal diskriminativ kraft i det övervakade scenariot, eller med maximal variation av data i den oövervakade. Vi visar att lärande kan uttryckas som ett optimeringsproblem på ett Grassmann-rör och diskutera snabba lösningar för specialfall. Vår utvärdering av flera klassificeringsuppgifter visar att vår strategi leder till en betydande noggrannhetsvinst jämfört med de senaste metoderna. | Harandi m.fl. REF producerar ett lägredimensionellt SPD-grenrör med en ortogonal kartläggning som erhålls genom att man utformar en discriminativ metriska inlärningsram med avseende på de ursprungliga högdimensionella uppgifterna. | 460,342 | Dimensionality Reduction on SPD Manifolds: The Emergence of Geometry-Aware Methods | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 82,923 |
Outsourcad decryption ABE-systemet minskar i stor utsträckning beräkningskostnaden för användare som har för avsikt att komma åt de krypterade filer som lagras i molnet. Omvandlingens korrekthet kan dock inte garanteras eftersom användaren inte har den ursprungliga chiffertexten. Lai m.fl. förutsatt ett ABE-system med kontrollerbar utkontrakterad dekryptering som hjälper användaren att kontrollera om den omvandling som görs av molnet är korrekt. För att förbättra beräkningsprestandan och minska kommunikationskostnaderna föreslår vi ett nytt verifierbart outsourcingssystem med konstant chiffertextlängd. För att vara specifik, vår plan uppnår följande mål. (1) Vårt system är kontrollerbart vilket säkerställer att användaren effektivt kontrollerar om omvandlingen görs korrekt av CSP. (2) Storleken på chiffertext och antalet dyra parningsåtgärder är konstanta, vilket inte ökar med komplexiteten i tillträdesstrukturen. (3) Accessstrukturen i vårt system är OCH grindar på flervärdesattribut och vi bevisar att vårt system är kontrollerbart och det är säkert mot selektivt vald-plaintext attack i standardmodellen. (4) Vi ger en del prestandaanalys som visar att vårt system är anpassningsbart för olika begränsade bandbredd och beräkningskonstruerade enheter, såsom mobiltelefon. | I REF, Li et al. kombinerade den verifierbara utkontrakterade dekrypteringstekniken med ABE-systemet som har egenskapen konstant chiffertextlängd. | 3,310,041 | Verifiable Outsourced Decryption of Attribute-Based Encryption with Constant Ciphertext Length | {'venue': 'Security and Communication Networks', 'journal': 'Security and Communication Networks', 'mag_field_of_study': ['Computer Science']} | 82,924 |
Abstract-På grund av de snabba framstegen inom den trådlösa kommunikationstekniken och fordonsindustrin framträder paradigmet för fordonsbaserade ad hoc-nät (VANET) som ett lovande tillvägagångssätt för att tillhandahålla trafiksäkerhet, fordonstrafikledning och informationstillämpningar. Kooperativ kommunikation, å andra sidan, kan öka tillförlitligheten hos kommunikationslänkar i VANET, vilket minskar försämringar av trådlösa kanaler på grund av användarens rörlighet. I detta dokument presenterar vi ett samarbetssystem för medelstor åtkomstkontroll (MAC) i VANET, kallat Cooperative ADHOC MAC (CAH-MAC). I CAH-MAC, angränsande noder samarbeta genom att utnyttja oreserverade tider, för vidaresändning av ett paket som misslyckades med att nå målet mottagaren på grund av en dålig kanal tillstånd. Genom matematisk analys och simulering visar vi att vårt system ökar sannolikheten för framgångsrik paketöverföring och därmed nätverksgenomströmning i olika nätverksscenarier. | I CAH-MAC REF, angränsande noder samarbeta genom att utnyttja oreserverade tider, för vidaresändning av ett paket som misslyckades med att nå målet mottagaren på grund av en dålig kanal tillstånd. | 2,840,547 | CAH-MAC: Cooperative ADHOC MAC for Vehicular Networks | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 82,925 |
Vi introducerar värde iteration nätverk (VIN): en helt differentiable neural nätverk med en "planering modul" inbäddad i. VIN kan lära sig att planera och är lämpliga för att förutsäga resultat som innefattar planeringsbaserade resonemang, såsom policyer för att stärka lärandet. Nyckeln till vårt tillvägagångssätt är en ny differentierad approximation av värde-iteringsalgoritm, som kan representeras som ett konvolutionellt neuralt nätverk, och utbildad end-to-end med hjälp av standard backpropagation. Vi utvärderar VIN-baserade policyer på diskreta och kontinuerliga sökvägar och på en naturligt språkbaserad sökuppgift. Vi visar att genom att lära sig en explicit planeringsberäkning, VIN politik generaliserar bättre till nya, osynliga domäner. | På samma sätt värde iteration nätverk inbädda en planerare i ett neuralt nätverk som kan lära navigering uppgifter REF. | 11,374,605 | Value Iteration Networks | {'venue': 'Advances in Neural Information Processing Systems 29 pages 2154--2162, 2016', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,926 |
Abstract-Vi presenterar en ny distribuerad metod som etablerar rykte-baserat förtroende bland sensorn noder för att identifiera fel och skadliga sensor noder och minimera deras inverkan på applikationer. Vår metod anpassar sig väl till de speciella egenskaperna hos trådlösa sensornätverk, det viktigaste är deras resursbegränsningar. Vår metodik beräknar statistiskt förtroende och ett konfidensintervall kring förtroendet baserat på direkta och indirekta erfarenheter av sensornodbeteende. Genom att ta hänsyn till förtroendeintervallet kan vi studera avvägningen mellan tätheten i förtroendeintervallet och de resurser som används för att samla erfarenheter. Dessutom möjliggör vår strategi dynamisk skalning av redundansnivåer baserat på förtroendeförhållandet mellan noderna i ett trådlöst sensornätverk. Med hjälp av omfattande simuleringar visar vi fördelarna med vår strategi över en strategi som använder statiska redundansnivåer i form av minskad energiförbrukning och längre livslängd i nätverket. Vi finner också att högt förtroende förtroende kan beräknas på varje nod med ett relativt litet minne overhead och används för att bestämma nivån av redundans operationer bland noder i systemet. | Probst och Kasera REF beskrev hur man etablera förtroendehantering bland sensornoder för att upptäcka skadliga sensornoder och minimera deras inflytande på program. | 1,840,301 | Statistical trust establishment in wireless sensor networks | {'venue': '2007 International Conference on Parallel and Distributed Systems', 'journal': '2007 International Conference on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 82,927 |