src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
I systemet med fordonskantdata integreras fordonens dataresurser och datatjänster tillhandahålls för andra fordon och fotgängare med uppgift att lasta av. Vehicular uppgiften offloading miljön är dock dynamisk och osäker, med snabba varierande nätverkstopologier, trådlösa kanaltillstånd och datorarbetsbelastningar. Dessa osäkerheter medför ytterligare utmaningar för avlastningen. I det här dokumentet överväger vi uppgiften att lasta av mellan fordon, och föreslår en lösning som gör det möjligt för fordon att lära sig avlastningsfördröjning prestanda för sina angränsande fordon medan avlasta beräkningsuppgifter. Vi designar en adaptiv inlärningsbaserad aktivitetsavlastning (ALTO) algoritm baserad på den multi-armade banditteorin, för att minimera den genomsnittliga avlastningsfördröjningen. ALTO fungerar på ett distribuerat sätt utan att kräva frekvent statsutbyte, och förstärks med inputawareness och förekomst-medvetenhet för att anpassa sig till den dynamiska miljön. Den föreslagna algoritmen har visat sig ha en sublinjär inlärning ångra. Omfattande simuleringar utförs under både syntetiskt scenario och realistiskt motorvägsscenario, och resultaten visar att den föreslagna algoritmen uppnår låg fördröjningsprestanda och minskar den genomsnittliga fördröjningen upp till 30 % jämfört med den befintliga övre förtroendebundna inlärningsalgoritmen. Index Terms-Vehicular edge computing, uppgift offloading, online-inlärning, multi-armade bandit. | I REF, Sun et al. har studerat problemet med avlastning av dynamisk aktivitet i datorsystem för fordonskanter, och föreslagit en adaptiv inlärningsbaserad avlastningsalgoritm för att minimera den genomsnittliga avlastningsfördröjningen, vilket gör det möjligt för varje aktivitetsfordon att lära sig servicefordons fördröjningsprestanda på ett distribuerat sätt, utan frekvent utbyte av statlig information, vilket ändrar de befintliga multiarmade banditalgoritmerna så att de är medvetna om indata och förekomster. | 58,007,046 | Adaptive Learning-Based Task Offloading for Vehicular Edge Computing Systems | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,421 |
Probabilistisk kryptering med öppen nyckel med jämlikhetstest (PKEET), introducerad av Yang et al. i CT-RSA 2010, kan kontrollera om två chiffertexter är krypteringar av samma meddelande under olika offentliga nycklar utan att läcka något annat om meddelandet krypterat under någon av de allmänna tangenterna. PKEET system har många program, till exempel för att bygga sökbar kryptering och partitionering krypterade data. Tidigare PKEET system saknar en delegeringsmekanism för användare för att specificera vem som kan utföra jämlikhetstestet mellan sina chiffertexter. I detta dokument föreslår vi begreppet offentlig nyckelkryptering med delegerat jämlikhetstest (PKE-DET), som endast kräver att den delegerade parten hanterar arbetet i en praktisk fleranvändarmiljö, och presenterar en betongkonstruktion i typ 2-parning, som är bevisligen säker enligt de nyligen införda säkerhetsbegreppen. | Senare, Ma et al. föreslå en effektiv offentlig nyckelkryptering med delegerat jämlikhetstest i en fleranvändarmiljö, PKE-DET REF. | 12,723,405 | Public Key Encryption with Delegated Equality Test in a Multi-User Setting | {'venue': 'Comput. J.', 'journal': 'Comput. J.', 'mag_field_of_study': ['Computer Science']} | 82,422 |
I detta dokument beskriver vi utformningen och genomförandet av två mekanismer för feltolerans och återhämtning för komplexa vetenskapliga arbetsflöden på beräkningsgaller. Vi presenterar våra algoritmer för överallokering och migration, som är våra primära strategier för feltolerans. Vi överväger programprestandamodeller, resurstillförlitlighet modeller, nätverkslatens och bandbredd och kö väntetider för batch-queues på beräkna resurser för att bestämma rätt feltolerans strategi. Vårt mål är att balansera tillförlitlighet och prestanda i närvaro av mjuka realtidsbegränsningar som deadlines och förväntade framgångsannolikheter, och att göra det på ett sätt som är öppet för forskare. Vi har utvärderat våra strategier genom att utveckla en FTR-tjänst (Fault-Tolerance and Recovery) och distribuera den som en del av produktionsinfrastrukturen för atmosfärisk upptäckt (LEAD). Resultat från verkliga användningsscenarier i LEAD visar att felfrekvensen för enskilda steg i arbetsflöden minskar från ca 30% till 5% genom att använda våra feltoleransstrategier. L Eighth IEEE International Symposium on Cluster Computing and the Grid 978-0-7695-3156-4/08 $25.00 | En feltolerant och återvinningstjänst för rutnätsbaserat vetenskapligt arbetsflöde presenterades i REF, detta tillvägagångssätt är främst koncentrerat på undantagen från beräkningsresurser. | 2,623,096 | Fault Tolerance and Recovery of Scientific Workflows on Computational Grids | {'venue': '2008 Eighth IEEE International Symposium on Cluster Computing and the Grid (CCGRID)', 'journal': '2008 Eighth IEEE International Symposium on Cluster Computing and the Grid (CCGRID)', 'mag_field_of_study': ['Computer Science']} | 82,423 |
Många nätverk i den verkliga världen innehåller ett statistiskt överraskande antal subgrafer, så kallade nätverksmotiv. I det förhärskande synsättet på motivanalys upptäcks nätverksmotiv genom att subgraffrekvenserna i det ursprungliga nätverket jämförs med en statistisk nullmodell. I detta dokument föreslår vi ett alternativ till motivanalys där nätverksmotiv definieras som konnektivitetsmönster som förekommer i ett subgrafomslag som representerar nätverket med minimal totalinformation. En subgraf omslag definieras som en uppsättning subgrafer så att varje kant av grafen finns i minst en av subgraferna i omslaget. Några nyligen införda slumpmässiga grafmodeller som kan innehålla betydande densiteter av motiv har naturliga formuleringar i form av subgraph omslag och den presenterade metoden kan användas för att matcha nätverk med sådana modeller. För att bevisa det praktiska värdet av vårt tillvägagångssätt presenterar vi också en heurist för det resulterande NP-hårda optimeringsproblemet och ger resultat för flera verkliga nätverk. | I REF definierar författarna ett subgrafomslag för att representera nätverket med motiv. | 16,184,282 | Subgraph covers -- An information theoretic approach to motif analysis in networks | {'venue': 'Phys. Rev. X 4, 041026 (2014)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Biology']} | 82,424 |
Vi anser att problemet med att maximera en (icke-monoton) submodulär funktion är föremål för en kardinalitetsbegränsning. Förutom att fånga välkända kombinatoriska optimeringsproblem, t.ex., Maxk-Coverage och Max-Bisektion, har detta problem tillämpningar i andra mer praktiska miljöer som naturliga språkbehandling, informationssökning och maskininlärning. I detta arbete presenterar vi förbättrade approximationer för två varianter av kardinalitetsbegränsningen för icke-monotonfunktioner. När som mest k element kan väljas, förbättrar vi den nuvarande bäst 1 /e − o(1) approximation till en faktor som är i intervallet [ 1 /e + 0,004, 1 /2], uppnå en snäv approximation av 1 /2 − o(1) för k = n /2 och bryta 1 /e barriären för alla värden av k. När exakt k element måste väljas, våra algoritmer förbättra den nuvarande bäst 1 /4 − o(1) approximation till en faktor som är i intervallet [0.356, 1 /2], återigen uppnå en tight approximation av 1 /2 − o(1) för k = n /2. Dessutom är några av de algoritmer vi tillhandahåller mycket snabba med tidskomplex av O(nk), i motsats till tidigare kända algoritmer som är kontinuerliga i naturen, och därmed, alltför långsam för tillämpningar i de praktiska inställningar som nämns ovan. Våra algoritmer bygger på två nya tekniker. För det första presenterar vi en enkel randomiserad girig strategi där ett slumpmässigt element i varje steg väljs från en uppsättning "rimligt goda" element. Detta tillvägagångssätt kan anses vara en naturlig ersättning för den giriga algoritmen Nemhauser, Wolsey och Fisher [46], eftersom det behåller samma tight garanti på 1 − 1 /e för monotona mål och samtidigt komplexitet av O(nk), samtidigt som en approximation av 1 /e för allmänna icke-monotona mål (samtidigt som den giriga algoritmen Nemhauser et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. underlåter att tillhandahålla någon konstant garanti). För det andra utökar vi den dubbelgiriga tekniken, som uppnår en tight 1 /2 approximation för okonstruerad submodulär maximering, till den kontinuerliga inställningen. Detta gör att vi kan manipulera de naturliga hastigheter med vilka element förändras, vilket begränsar det totala antalet valda element. | Slutligen, Buchbinder et al. REF gav en snabb 1/e-tillnärmningsalgoritm och en mycket långsammare (1/e + 0,004)-tillnärmningsalgoritm som visar att 1/e inte är rätt approximationsförhållande för problemet. | 2,897,490 | Submodular maximization with cardinality constraints | {'venue': 'SODA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,425 |
Abstract-Vi anser problemet med granne upptäckt i statiska trådlösa ad hoc-nätverk med riktade antenner. Vi föreslår flera probabilistiska algoritmer där noder utför slumpmässiga, oberoende sändningar för att upptäcka sina en-bop grannar. Vår granne upptäckt algoritmer är hemligstämplad hto två grupper, viz. Direkt-Discovery Algoritm där noder upptäcker sina grannar endast när de får en sändning från sina grannar och Gossip-Based Algorithm där noder skvallrar om sina grannars platsinformation för att möjliggöra snabbare upptäckt. Vi betraktar först driften av dessa algoritmer i ett slitsat, synkront system och matematiskt härleda sina optimala parameterinställningar. Vi visar hur man utökar dessa algoritmer för ett aqmkroniskt system och beskriver deras optimala design. Analys och simulering av algoritmerna visar att noderna upptäcker sina grannar mycket snabbare med hjälp av skvallerbaserade algoritmer än med hjälp av direktupptäckta algoritmer. Dessutom är prestandan hos skvallerbaserade algoritmer okänslig för en n ökning av n@e densitet. Effektiviteten i en granne upptäckt algoritm beror också på valet av antenn bombredd, Vi diskuterar i detalj hur valet av heamwidth påverkar resultatet av upptäcktsprocessen och ger insikter i hur noder kan konfigurera sina bom idths. | Vasudevan et al REF föreslår algoritmer för granne upptäckt i riktning antenn utrustade ad hoc-nätverk. | 897,729 | On neighbor discovery in wireless networks with directional antennas | {'venue': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'journal': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'mag_field_of_study': ['Computer Science']} | 82,426 |
Att klumpa ihop en graf, dvs. tilldela sina noder till grupper, är en viktig operation vars mest kända tillämpning är upptäckten av samhällen i sociala nätverk. Grafkluster och community detektion har traditionellt fokuserat på grafer utan attribut, med det anmärkningsvärda undantaget av kantvikter. Dessa modeller ger dock endast en partiell representation av verkliga sociala system, som därför ofta beskrivs med hjälp av nodattribut, som representerar aktörernas egenskaper, och kantattribut, som representerar olika typer av relationer mellan dem. Vi hänvisar till dessa modeller som tilldelade grafer. Följaktligen har befintliga grafklustermetoder nyligen utökats för att hantera nod- och kantattribut. Denna artikel är en litteraturundersökning om detta ämne, som organiserar och presenterar aktuella forskningsresultat på ett enhetligt sätt, som karakteriserar de viktigaste befintliga klustermetoderna och belyser deras begreppsmässiga skillnader. Vi tar också upp det viktiga ämnet klusterutvärdering och identifierar aktuella öppna problem. | Merparten av forskningen inom community detektion har traditionellt fokuserat på homogena grafer REF. | 3,864,058 | Clustering attributed graphs: models, measures and methods | {'venue': 'Network Science', 'journal': 'Network Science', 'mag_field_of_study': ['Computer Science', 'Physics']} | 82,427 |
Abstract För parallella applikationer som körs på high-end computing systems, vilka processer i en applikation får lanseras på vilka bearbetningskärnor vanligtvis bestäms vid applikationens lanseringstid utan någon information om applikationens egenskaper. Eftersom avancerade datorsystem fortsätter att växa i omfattning blir detta tillvägagångssätt allt svårare att uppnå de bästa resultaten. Till exempel, för system som IBM Blue Gene och Cray XT som förlitar sig på platta 3D torus-nätverk, processkommunikation innebär ofta nätverksdelning, även för mycket skalbara applikationer. Detta gör att den övergripande applikationsprestandan i hög grad beror på hur processer kartläggs på nätverket. I detta dokument analyserar vi först effekten av olika processkartläggningar på applikationens prestanda på ett massivt Blue Gene/P-system. Sedan matchar vi denna analys med tillämpningskommunikationsmönster som vi tillåter applikationer att beskriva innan de lanseras. Det underliggande processhanteringssystemet kan använda denna kombinerade information tillsammans med systemets hårdvaruegenskaper för att bestämma den bästa kartläggningen för applikationen. Våra experiment studerar prestandan hos olika kommunikationsmönster, inklusive 2D och 3D närmaste granne kommunikation och strukturerad Cartesian nätkommunikation. Våra studier, som skalar upp till 131.072 kärnor av det största BG/P-systemet i USA (med 80 % av den totala systemstorleken), visar att olika processkartläggningar kan visa betydande skillnader i övergripande prestanda, särskilt i skala. Till exempel visar vi att denna skillnad kan vara så mycket som 30% för P3DFFT och upp till tvåfaldig för HALO. Genom vår föreslagna modell kan dock sådana skillnader i prestanda undvikas så att bästa möjliga prestanda alltid uppnås. | Balaji m.fl. I REF sägs att den varierande kartläggningen av tillämpningen på de storskaliga systemen är en viktig faktor som påverkar den övergripande prestandan. | 17,733,104 | Mapping communication layouts to network hardware characteristics on massive-scale blue gene systems | {'venue': 'Computer Science - Research and Development', 'journal': 'Computer Science - Research and Development', 'mag_field_of_study': ['Computer Science']} | 82,428 |
Abstract-Vi överväger frågan om att utforma ett generiskt transportlager protokoll för energi-konstruerade sensornätverk. Vi presenterar kraven för ett sådant transportprotokoll och föreslår Sensor Transmission Control Protocol (STCP). STCP är ett generiskt, skalbart och tillförlitligt transportlagerprotokoll där en majoritet av funktionerna implementeras vid basstationen. STCP erbjuder kontrollerad variabel tillförlitlighet, detektering av överbelastning och undvikande av överbelastning, och stöder flera tillämpningar i samma nätverk. Vi presenterar utformningen och genomförandet av STCP och utvärderar protokollet med olika scenarier och nätverksegenskaper. | Sensor Transmission Control Protocol (STCP) REF är ett generiskt transportprotokoll som använder information om transportskiktet för att kontrollera överbelastningen. | 5,744,210 | STCP: a generic transport layer protocol for wireless sensor networks | {'venue': 'Proceedings. 14th International Conference on Computer Communications and Networks, 2005. ICCCN 2005.', 'journal': 'Proceedings. 14th International Conference on Computer Communications and Networks, 2005. ICCCN 2005.', 'mag_field_of_study': ['Computer Science']} | 82,429 |
Att övervaka hälsan hos de äldre som bor självständigt i sina egna hem är en nyckelfråga när det gäller att bygga hållbara hälso- och sjukvårdsmodeller som stöder ett lands åldrande befolkning. Befintliga metoder har vanligen föreslagit fjärrövervakning av ett hushålls boendes beteende genom användning av ytterligare sensorer. Kostnaderna och integriteten för sådana sensorer har dock avsevärt begränsat deras potential för utbredd användning. I detta dokument föreslår vi däremot en strategi för att upptäcka aktiviteter i det dagliga livet, som vi använder som ett mått på hushållets hälsa. Vårt tillvägagångssätt upptäcker användning av apparater från befintliga smarta mätare data, från vilka de unika dagliga rutinerna för de boende i hushållet lärs automatiskt via en log Gaussian Cox process. Vi utvärderar vår strategi med hjälp av två verkliga datamängder, och visar att den kan upptäcka över 80% av vattenkokare användning samtidigt generera mindre än 10% falska positiva. Dessutom tillåter vår strategi tidigare insatser i hushåll med en konsekvent rutin och färre falska larm i de återstående hushållen, i förhållande till en fast tid interventionsriktmärke. | Genom att övervaka mätarbelastningen kan invånarnas dagliga livsaktiviteter i deras egna hem upptäckas, vilket ytterligare kan användas som ett tecken på invånarnas hälsotillstånd REF. | 7,479,576 | Detecting Anomalies in Activities of Daily Living of Elderly Residents via Energy Disaggregation and Cox Processes | {'venue': 'BuildSys@SenSys', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 82,430 |
Abstract-Vi presenterar ett ramverk för maskininlärning som utnyttjar en blandning av metadata, nätverk och tidsfunktioner för att upptäcka extremistiska användare, och förutsäga innehållsanvändare och interaktion i sociala medier. Vi utnyttjar en unik datauppsättning som innehåller miljontals tweets som genereras av mer än 25 tusen användare som har blivit manuellt identifierade, rapporterade och avstängda av Twitter på grund av deras engagemang i extremistiska kampanjer. Vi utnyttjar också miljontals tweets som genereras av ett slumpmässigt urval av 25 tusen vanliga användare som exponerats för, eller konsumeras, extremistiskt innehåll. Vi utför tre prognosuppgifter, i) för att upptäcka extremistiska användare, ii) för att bedöma om vanliga användare kommer att anta extremistiskt innehåll, och slutligen iii) för att förutsäga om användare kommer att återgälda kontakter som initierats av extremister. Alla prognosuppgifter fastställs i två scenarier: en post hoc- (tidsmässigt oberoende) förutsägelseuppgift om aggregerade data och en simulerad realtidsförutsägelseuppgift. Resultatet av vårt ramverk är mycket lovande, vilket ger i de olika prognosscenarierna upp till 93% AUC för extremistanvändare upptäckt, upp till 80% AUC för innehåll antagande förutsägelse, och slutligen upp till 72% AUC för interaktion ömsesidiga prognoser. Vi avslutar med att tillhandahålla en grundlig funktionsanalys som hjälper till att avgöra vilka som är de framväxande signalerna som ger prediktiv kraft i olika scenarier. | Ferrara m.fl. REF tillämpade maskininlärningsteknik på text i sociala medier för att upptäcka samverkan mellan extremistanvändare. | 8,501,716 | Predicting online extremism, content adopters, and interaction reciprocity | {'venue': 'International Conference on Social Informatics (pp. 22-39). Springer. 2016', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 82,431 |
Abstract-Robots håller på att bli säkra och smarta nog att arbeta tillsammans med människor inte bara på tillverkning av produktionslinjer, utan också i utrymmen som hus, museer eller sjukhus. Detta kan utnyttjas avsevärt i situationer där en människa behöver hjälp av en annan person för att utföra en uppgift, eftersom en robot kan ta rollen som hjälpare. I detta avseende kan en människa och robotassistent gemensamt utföra en mängd olika uppgifter, vilket kräver att roboten kommunicerar med personen, förstår hans/hennes behov och beter sig därefter. För att uppnå detta föreslår vi en ram för en användare att lära en robot samarbetsförmåga från demonstrationer. Vi fokuserar främst på uppgifter som innebär fysisk kontakt med användaren, där inte bara position, men också force avkänning och efterlevnad blir mycket relevant. Speciellt presenterar vi en strategi som kombinerar probabilistisk inlärning, dynamiska system, och stelhet uppskattning för att koda robot beteende längs uppgiften. Vår metod tillåter en robot att lära sig inte bara bana efter färdigheter, men också impedans beteenden. För att visa funktionaliteten och flexibiliteten i vårt tillvägagångssätt används två olika testbäddar: en transportuppgift och en samverkande bordsmontering. Index Terms-Fysisk människa-robot interaktion, programmering genom demonstration (PbD), Robot lärande, stelhet uppskattning. | Till exempel, i REF roboten lär sig samarbetsförmåga och anpassar sin impedans beteende från demonstrationer. | 12,642,596 | Learning Physical Collaborative Robot Behaviors From Human Demonstrations | {'venue': 'IEEE Transactions on Robotics', 'journal': 'IEEE Transactions on Robotics', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 82,432 |
Caenorhabditis elegans vulval utveckling ger ett viktigt paradigm för att studera processen för cell ödesbestämning och mönsterbildning under djurutveckling. Även om många gener som styr vulval cell öde specifikation har identifierats, hur de orkestrerar sig för att generera en robust och invariant mönster av cell öden ännu inte helt förstås. Här har vi utvecklat en dynamisk beräkningsmodell som innefattar den aktuella mekanistiska förståelsen av geninteraktioner under denna mönsterprocess. Ett viktigt inslag i vår modell är att inkludera flera former av korstalk mellan den epidermala tillväxtfaktorreceptorn (EGFR) och LIN-12/Notch signaleringsvägar, som tillsammans bestämmer ödena för de sex vulval prekursorcellerna (VPC). Beräkningsanalys, med hjälp av modellkontrollteknik, ger nya biologiska insikter i det regulatoriska nätverket som styr VPC:s ödesspecifikation och förutspår nya negativa återkopplingsslingor. Dessutom visar vår analys att de flesta mutationer som påverkar vulvalutvecklingen leder till stabila ödesmönster trots variationer i synkronicitet mellan VPC. Beräkningssökningar efter grunden för denna robusthet visar att en sekventiell aktivering av EGFR-medierad induktiv signalering och LIN-12 / Notch-medierade sidosignaleringsvägar är nyckeln till att uppnå ett stabilt ödesmönster i cellen. Vi demonstrerar experimentellt en tidsfördröjning mellan aktiveringen av induktiva och laterala signaleringsvägar hos vilda djur och förlusten av sekventiell signalering hos mutanter som visar instabila ödesmönster, vilket bekräftar två viktiga förutsägelser som tillhandahålls av vårt modelleringsarbete. De insikter som vunnits genom vår modellering studie ytterligare dokumentera nyttan av att utföra och analysera mekanistiska modeller för att undersöka komplexa biologiska beteenden. | REF innehåller en diskret, state-baserad modell av flera lägen av intercellulärt korssamtal mellan EGFR och LIN-12/Notch signalbanor, utvecklad på språket Reactive Modules. | 8,079,719 | Predictive Modeling of Signaling Crosstalk during C. elegans Vulval Development | {'venue': 'PLoS Computational Biology', 'journal': 'PLoS Computational Biology', 'mag_field_of_study': ['Medicine', 'Biology', 'Computer Science']} | 82,433 |
Abstrakt. Vi föreslår en enkel metod för att utvinna samhällsstrukturen i stora nätverk. Vår metod är en heuristisk metod som bygger på modularitetsoptimering. Det visas att överträffa alla andra kända community detektionsmetod i termer av beräkningstid. Dessutom är kvaliteten på de samhällen som upptäcks mycket bra, mätt med den så kallade moduläriteten. Detta visas först genom att identifiera språkgemenskaper i ett belgiskt mobiltelefonnät med 2,6 miljoner kunder och genom att analysera ett webbdiagram med 118 miljoner noder och mer än en miljard länkar. Noggrannheten hos vår algoritm verifieras också på ad-hoc modulära nätverk. | REF föreslog en snabb metod för att utveckla hierarkiska samhällsstrukturer i stora nätverk baserade på modularitetsoptimering, men denna metod kan inte upptäcka överlappande samhällen. | 334,423 | Fast unfolding of communities in large networks | {'venue': 'J. Stat. Mech. (2008) P10008', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics', 'Computer Science']} | 82,434 |
Under de senaste åren har övervakad inlärning med konvolutionella nätverk (CNN) fått en enorm spridning i tillämpningar för datorseende. Jämförande, oövervakad inlärning med CNNs har fått mindre uppmärksamhet. I detta arbete hoppas vi kunna bidra till att överbrygga klyftan mellan CNN:s framgångar när det gäller övervakat lärande och oövervakat lärande. Vi introducerar en klass av CNN som kallas djupa konvolutionella generativa kontrariska nätverk (DCGANS), som har vissa arkitektoniska begränsningar, och visar att de är en stark kandidat för oövervakat lärande. Träning på olika bilddataset visar övertygande bevis för att vårt djupa kontradiktoriska par lär sig en hierarki av representationer från objektdelar till scener i både generatorn och discriminatorn. Dessutom använder vi de inlärda funktionerna för nya uppgifter - demonstration av deras tillämplighet som allmänna bildrepresentationer. | Som ett alternativ till LAPGAN utformar REF framgångsrikt en klass av djupa konvolutionella generativa kontradiktoriska nätverk som har lett till betydande förbättringar av oövervakad bildrepresentationsinlärning. | 11,758,569 | Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks | {'venue': 'ICLR 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,435 |
Nuvarande system för grafberäkning kräver ett distribuerat datorkluster för att hantera mycket stora verkliga problem, såsom analys på sociala nätverk eller webbgrafen. Medan distribuerade beräkningsresurser har blivit mer tillgängliga, utvecklar distribuerade grafalgoritmer fortfarande utmanande, särskilt för icke-experter. I detta arbete presenterar vi GraphChi, ett diskbaserat system för beräkning effektivt på grafer med miljarder kanter. Genom att använda en välkänd metod för att bryta stora grafer i små delar, och en ny parallell skjutfönster metod, GraphChi kan utföra flera avancerade datautvinning, grafbrytning, och maskininlärning algoritmer på mycket stora grafer, med bara en enda konsument-nivå dator. Vi utökar dessutom GraphChi för att stödja grafer som utvecklas med tiden, och visar att GraphChi på en enda dator kan bearbeta över hundra tusen grafuppdateringar per sekund, samtidigt som den utför beräkningar. Vi visar genom experiment och teoretisk analys att GraphChi presterar bra på både SSD-enheter och rotationshårddiskar. Genom att upprepa experiment som rapporterats för befintliga distribuerade system visar vi att GraphChi, med endast en bråkdel av resurserna, kan lösa samma problem på mycket rimlig tid. Vårt arbete gör storskaliga grafberäkningar tillgängliga för alla med en modern PC. | GraphChi REF är ett en maskin diskbaserat grafbearbetningssystem för bearbetning av grafer som inte passar i minnet. | 2,227,285 | GraphChi: Large-scale graph computation on just a PC | {'venue': 'In OSDI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,436 |
Kontinuerliga rymdspråksmodeller har nyligen visat enastående resultat för en mängd olika uppgifter. I detta dokument undersöker vi de vektor-rymd-ord representationer som implicit lärs av ingång-lager vikter. Vi finner att dessa representationer är förvånansvärt bra på att fånga syntaktiska och semantiska regulariteter i språket, och att varje relation kännetecknas av en relation-specifik vektor offset. Detta gör det möjligt för vektororienterade resonemang baserade på förskjutningar mellan ord. Till exempel, den manliga / kvinnliga relationen lärs automatiskt, och med de inducerade vektor representationer, "KingMan + Kvinna" resulterar i en vektor mycket nära "Queen." Vi visar att ordet vektorer fångar syntaktiska regulariteter med hjälp av syntaktiska analoga frågor (förmedlad med detta papper), och kan korrekt besvara nästan 40% av frågorna. Vi visar att ordet vektorer fångar semantiska regulariteter genom att använda vektor offset-metoden för att svara på SemEval-2012 Task 2 frågor. Anmärkningsvärt nog överträffar denna metod de bästa tidigare systemen. | Mikolov m.fl. REF undersökte vektor-rymd ord representationer med en kontinuerlig rymd språkmodell. | 7,478,738 | Linguistic Regularities in Continuous Space Word Representations | {'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,438 |
Abstract-I detta dokument, vi anser slumpmässig tillgång trådlösa multihop nätverk, med multipacket mottagningskapacitet, där flera flöden vidarebefordras till gateways genom node separata vägar. Vi undersöker frågan om att fördela flödet på flera vägar, som uppvisar både intra- och interpatientinterferens, för att maximera genomsnittligt aggregatflöde (AAT) och ge begränsad paketförsening. Ett distribuerat flödesfördelningssystem föreslås där fördelning av flöden på vägar formuleras som ett optimeringsproblem. Genom en illustrativ topologi visas att motsvarande problem inte är konvexa. Dessutom används en enkel men korrekt modell för AAT som uppnås av alla flöden, som fångar både intra- och interpatinterferens genom signal-till-interferens-plus-brus-modellen (SINR). Det föreslagna systemet utvärderas genom Ns2-simuleringar av flera slumpmässiga trådlösa scenarier. Simuleringsresultat visar att den använda modellen exakt fångar den AAT som observerats i simulerade scenarier, även när antagandet av mättade köer tas bort. Simuleringsresultat visar också att det föreslagna systemet uppnår betydligt högre AAT för de allra flesta av de trådlösa scenarier som undersökts än för följande flödesfördelningssystem: en som tilldelar flöden på banor på ett round-robin mode, en som optimalt använder den bästa vägen (BP) bara, och en annan som tilldelar maximalt möjligt flöde på varje väg. Slutligen undersöks en variant av det föreslagna systemet, där störningar för varje länk tillnärmas genom att endast beakta dess dominerande interfererande noder. | I det senaste arbetet REF, ett distribuerat flöde fördelning system föreslogs för slumpmässig åtkomst trådlösa multi-hop nätverk med flera olika vägar, syftar till att maximera den genomsnittliga aggregerat flöde genomströmning och garantera en begränsad paketförsening. | 16,352,444 | Flow Allocation for Maximum Throughput and Bounded Delay on Multiple Disjoint Paths for Random Access Wireless Multihop Networks | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 82,439 |
Även om Subjektivitets- och Sentimentanalys (SSA) har bevittnat en hel del ny forskning, finns det få försök att bygga SSA-system för Morfologiskt-Rich Languages (MRL). I den aktuella studien rapporterar vi om insatser för att delvis fylla denna lucka. Vi presenterar en nyutvecklad manuellt kommenterad corpus av Modern Standard Arabic (MSA) tillsammans med en ny polaritet lexikon.Corpus är en samling av newswire-dokument kommenterade på meningsnivå. Vi beskriver också ett automatiskt SSA-märkningssystem som utnyttjar de kommenterade uppgifterna. Vi undersöker inverkan av olika nivåer av förbehandlingsinställningar på SSA-klassificeringsuppgiften. Vi visar att systemet genom att explicit redovisa den rika morfologin kan uppnå betydligt högre prestanda. | Abdul-Mageed REF presenterar ett SSA-system på straffnivå för modern standard arabisk (MSA). | 9,396,750 | Subjectivity and Sentiment Analysis of Modern Standard Arabic | {'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,440 |
Under de senaste åren har en högdimensionell teori om expanderare dykt upp. Begreppet kombinatorisk utvidgning av grafer (dvs. Cheeger konstant i en graf) har sett två generaliseringar till högdimensionella simplial komplex. Den ena generaliseringen, känd som den gränsöverskridande expansionen, beror på Linial och Meshulem; den andra, som vi kallar här cozystolic expansion, beror på Gromov, som visade att cosystolic expanders har topological överlappande egendom. Ingen konstruktion (antingen slumpmässig eller explicit) av avgränsade gradkombinerade expanders (enligt någon av definitionerna) var känd tills ett nyligen verk av Kaufman, Kazhdan och Lubotzky, som gav den första avgränsade grad cozystolic expanders av dimension två. Inga avgränsade gradkombinatoriska expanderare är kända i högre dimensioner. I detta arbete presenterar vi explicit avgränsade grad cosystolic expanders av varje dimension. Detta löser positivt en öppen fråga som togs upp av Gromov, som frågade om det finns begränsade gradkomplex med den topologiska överlappande egenskapen i varje dimension. Dessutom tillhandahåller vi ett lokalt till globalt kriterium på ett komplex som innebär cozystolic expansion: Nämligen, för ett ddimensionellt komplex, X, om dess underliggande graf är en bra expander, och alla dess länkar är både co gränsöverskridande expander och bra expander grafer, då (d − 1)-dimensionella skelettet av komplexet är en cozystolic expander. | I ett nyligen utfört arbete av den första medförfattaren och Evra REF har man studerat en annan uppfattning om högorderexpansion, som kallas cozystolic expansion. | 15,368,716 | Bounded degree cosystolic expanders of every dimension | {'venue': 'STOC 2016', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,441 |
Abstract-Efficient nätverk tillhandahållande mekanismer som stöder differentiering av tjänster är avgörande för förverkligandet av Differentierade tjänster (DiffServ) Internet. Med utgångspunkt i vårt tidigare arbete med kantavsättning föreslår vi en uppsättning effektiva dynamiska nod- och kärnavsättningsalgoritmer för interiöra noder respektive stamnät. Den node provisioning algoritm förhindrar övergående överträdelser av servicenivåavtal (SLA) genom att förutsäga uppkomsten av tjänstenivå överträdelser baserat på en multiklass virtuell kö mätningsteknik, och genom att automatiskt justera servicevikterna för viktade rättvisa kö schemaläggare på kärn routrar. Ihållande överträdelser av servicenivån rapporteras till den centrala avsättningsalgoritmen, som dimensionerar trafikaggregat vid nätinbrottskanten. Den centrala avsättningsalgoritmen är utformad för att ta itu med det svåra problemet med att tillhandahålla DiffServs trafikaggregat (dvs. hastighetskontroll kan endast utföras på roten av alla trafikfördelningsträd) genom att ta hänsyn till rättvisa frågor inte bara mellan olika trafikaggregat utan också inom samma aggregat vars paket tar olika vägar genom ett centralt IP-nät. Vi visar genom analys och simulering att den föreslagna dynamiska avsättningsmodellen är överlägsen statisk avsättning för DiffServ när det gäller att tillhandahålla kvantitativa fördröjningsgränser med differentierad förlust mellan per-aggregerade serviceklasser under ihållande överbelastnings- och funktionsfelsförhållanden när de observeras i stamnät. | I Liao och Campbell Ref utvecklades en mekanism med förmåga att leverera kapacitet på ett effektivt sätt som ger kvantitativa fördröjningar med differentierade förluster för varje aggregerad tjänsteklass. | 14,281,570 | Dynamic core provisioning for quantitative differentiated services | {'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']} | 82,442 |
Bakgrund Sedan 31 dec 2019 har den kinesiska staden Wuhan rapporterat ett utbrott av atypisk lunginflammation orsakad av 2019 års nya koronavirus (2019-nCoV). Fall har exporterats till andra kinesiska städer, liksom internationellt, som hotar att utlösa ett globalt utbrott. Här ger vi en uppskattning av epidemins storlek i Wuhan på grundval av antalet fall som exporteras från Wuhan till städer utanför Kina och förutspår omfattningen av de inhemska och globala folkhälsoriskerna i samband med epidemier, som svarar för sociala och icke-farmaceutiska förebyggande åtgärder. Metoder Vi använde data från 31 dec 2019, till 28 jan 2020, om antalet fall som exporterats från Wuhan internationellt (kända dagar av symtomdebut från 25 dec 2019, till 19 jan 2020) för att dra slutsatsen att antalet infektioner i Wuhan från 1 dec 2019, till 25 jan 2020. Därefter beräknades de fall som exporterades på den inhemska marknaden. Vi förutspådde den nationella och globala spridningen av 2019-nCoV, som står för effekten av den storstadsomfattande karantänen av Wuhan och omgivande städer, som inleddes den 23-24 januari 2020. Vi använde uppgifter om månatliga flygbokningar från den officiella flygguiden och uppgifter om människors rörlighet i mer än 300 städer på prefekturnivå i Kina från Tencent-databasen. Uppgifter om bekräftade fall erhölls från de rapporter som offentliggjorts av det kinesiska centrumet för sjukdomsbekämpning och förebyggande åtgärder. Serieintervalluppskattningar baserades på tidigare studier av allvarligt akut respiratoriskt syndrom koronavirus (SARS- CoV). En mottaglig-exponerad-infektiös-återfunnen metapopulation modell användes för att simulera epidemier i alla större städer i Kina. Det grundläggande reproduktionstalet uppskattades med hjälp av Markov Chain Monte Carlo metoder och presenteras med hjälp av det resulterande bakre medelvärdet och 95% kredibile intervallet (CrI). Resultaten I vårt grundscenario uppskattade vi att det grundläggande reproduktionstalet för 2019-nCoV var 2·68 (95% CrI 2·47-2·86) och att 75 815 individer (95% CrI 37 304-130 330) har smittats i Wuhan från och med den 25 januari 2020. Epidemin fördubblade tiden var 64 dagar (95% CrI 5,8-7·1). Vi uppskattade att Chongqing, Peking, Shanghai, Guangzhou och Shenzhen hade importerat 461 (95% CrI 227-805), 113 (57-193), 98 (49-168), 111 (56-191) och 80 (40-139) infektioner från Wuhan. Om överföringen av 2019-nCoV var liknande överallt inom landet och över tid, drog vi slutsatsen att epidemier redan växer exponentiellt i flera större städer i Kina med en fördröjning efter Wuhan utbrottet på ca 1-2 veckor. Tolkning Med tanke på att 2019-nCoV inte längre finns inom Wuhan är det troligt att andra större kinesiska städer upprätthåller lokala utbrott. Stora städer utomlands med nära transportförbindelser till Kina kan också bli epicentrum för utbrott, om inte omfattande folkhälsoinsatser på både befolknings- och personnivå genomförs omedelbart. Oberoende självförsörjande utbrott i större städer globalt skulle kunna bli oundvikliga på grund av betydande export av presymtomatiska fall och i avsaknad av storskaliga folkhälsoinsatser. Beredskapsplaner och begränsningsåtgärder bör förberedas för ett snabbt globalt införande. | Wu och Al. REF använde antalet internationella fall som exporterades av Wuhan för att uppskatta antalet infektioner i Wuhan. | 210,989,295 | Nowcasting and forecasting the potential domestic and international spread of the 2019-nCoV outbreak originating in Wuhan, China: a modelling study | {'venue': 'The Lancet', 'journal': 'The Lancet', 'mag_field_of_study': ['Medicine']} | 82,443 |
Problemet med gemensam nedlänk cell association (CA) och trådlös backhaul bandbredd tilldelning (WBBA) i två-tier cell heterogena nätverk (HetNets) beaktas. Storskaliga antennsystem implementeras vid makrobasstationen (BS), medan de små cellerna inom makrocellsområdet är enkelantenn BS och de förlitar sig på överluftslänkar till makro BS för backhauling. En summa logaritmiska användarhastighet maximering problem undersöks med tanke på trådlösa backhauling begränsningar. Ett duplex- och spektrumdelningssystem baserat på co-channel reverse time-division duplex (TDD) och dynamisk mjuk frekvens återanvändning (SFR) föreslås för interferenshantering i två nivåer HetNets med storskaliga antennsystem vid makro BS och trådlös backhauling för små celler. Två WBBA-scenarier i band, nämligen en enhetlig bandbreddstilldelning och scenarier för tilldelning av bandbredd per liten cell, undersöks för gemensamma CA-WBBA i HetNet. En två-nivå hierarkisk nedbrytningsmetod för avslappnad optimering används för att lösa mixed-integer icke-linjär program (MINLP). Lösningar baserade på General Algorithm Modeling System (GAMS) optimering lösare och snabb heuristics föreslås också för cell association i per-small-cell WBBA scenario. Det visas att när alla små celler måste använda trådlös backhaul i bandet har systembelastningen större inverkan på både loghastigheten och prestandan per användare än antalet små celler som används inom makrocellsområdet. De föreslagna gemensamma CA-WBBA algoritmerna har en optimal belastning ungefär lika stor som storleken på den storskaliga antennmatrisen vid makro BS. Strategin för cellintervallsexpansion (CRE), som är ett effektivt system för cellbindning för HetNets med perfekt backhauling, visas vara ineffektiv när trådlös backhauling i band för små celler kommer in i spel. | Wang m.fl. REF visar en gemensam cell sammanslutning och trådlös backhaul bandbredd tilldelning i två-tier cellulär heterogena nätverk under trådlösa backhaul begränsningar. | 9,947,594 | Joint Downlink Cell Association and Bandwidth Allocation for Wireless Backhauling in Two-Tier HetNets with Large-Scale Antenna Arrays | {'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,444 |
Nuvarande metoder för videoprognoser försöker generera videor direkt i pixelutrymme med hjälp av Generativa Adversarial Networks (Gans) eller Varial Autoencoders (VAEs). Men eftersom dessa metoder försöker modellera alla strukturer och scendynamik på en gång, skapar de ofta otolkbara resultat i oöverskådliga miljöer. Vår insikt är att prognoser först måste göras på en högre abstraktionsnivå. Specifikt utnyttjar vi mänskliga pose detektorer som en fri källa för övervakning och bryter video prognos problem i två diskreta steg. Först modellerar vi explicit den höga nivån av aktiva objekt i scenen (människor) och använder en VEA för att modellera möjliga framtida rörelser av människor i pose utrymme. Vi använder sedan framtiden poser genereras som villkorlig information till en GAN för att förutsäga framtida ramar för videon i pixel utrymme. Genom att använda det strukturerade utrymmet av pose som en intermediär representation, vi kringgår de problem som GANs har i att generera video pixlar direkt. Vi visar genom kvantitativ och kvalitativ utvärdering att vår metod överträffar toppmoderna metoder för videoprognoser. | I REF föreslås en metod där framtida mänskliga pose förutsägs med hjälp av ett stokastiskt nätverk och posen sedan används för att generera framtida ramar. | 3,370,894 | The Pose Knows: Video Forecasting by Generating Pose Futures | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 82,445 |
....................................... Flerdomän-bild-till-bild-översättningsresultat på CelebA-datasetetet via överföring av kunskap som inhämtats från RaFD-datasetet. De första och sjätte kolumnerna visar indatabilder medan de återstående kolumnerna är bilder som genereras av StarGAN. Observera att bilderna genereras av en enda generator nätverk, och ansiktsuttryck etiketter som arg, glad, och rädd är från RaFD, inte CelebA. Nya studier har visat anmärkningsvärd framgång i bild-till-bild översättning för två domäner. Befintliga metoder har dock begränsad skalbarhet och robusthet i hanteringen av mer än två domäner, eftersom olika modeller bör byggas oberoende av varje par av bilddomäner. För att ta itu med denna begränsning föreslår vi StarGAN, en ny och skalbar metod som kan utföra bild-till-bild översättningar för flera domäner med endast en modell. En sådan enhetlig modellarkitektur av StarGAN möjliggör samtidig utbildning av flera datauppsättningar med olika domäner inom ett enda nätverk. Detta leder till StarGAN's överlägsna kvalitet av översatta bilder jämfört med befintliga modeller samt den nya förmågan att flexibelt översätta en ingångsbild till någon önskad måldomän. Vi demonstrerar empiriskt effektiviteten av vår strategi på en ansiktsattribut överföring och en ansiktsuttryck syntes uppgifter. | StarGAN REF lärde sig kartläggningen över flera domäner endast med hjälp av en enda generator och diskriminator. | 9,417,016 | StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation | {'venue': 'IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 8789-8797', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,446 |
Vi vill lära oss en representation av de data som bryter ner en observation i variationsfaktorer som vi självständigt kan kontrollera. Vi vill särskilt använda minimal övervakning för att lära oss en latent representation som återspeglar semantiken bakom en specifik gruppering av data, där proverna inom en grupp har en gemensam variationsfaktor. Tänk till exempel på en samling ansiktsbilder grupperade efter identitet. Vi vill förankra grupperingens semantik i en relevant och lösryckt representation som vi lätt kan utnyttja. Befintliga djupt probabilistiska modeller förutsätter dock ofta att observationerna är oberoende och identiskt fördelade. Vi presenterar den multi-level Variational Autoencoder (ML-VAE), en ny djup probabilistisk modell för att lära sig en löslig representation av en uppsättning grupperade observationer. ML-VAE separerar den latenta representationen i semantiskt meningsfulla delar genom att arbeta både på gruppnivå och observationsnivå, samtidigt som man bibehåller en effektiv testtidsslutsats. Kvantitativa och kvalitativa utvärderingar visar att ML-VAE-modellen (i) lär sig en semantiskt meningsfull uppdelning av grupperade data, (ii) möjliggör manipulering av latent representation och (iii) generaliserar för osynliga grupper. | I REF införs övervakning genom att proverna grupperas. | 1,209,557 | Multi-Level Variational Autoencoder: Learning Disentangled Representations from Grouped Observations | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,447 |
Traditionella rekommendationssystem ger rekommendationer baserade enbart på kundens tidigare köp, produktklassificeringar och demografiska data utan att beakta lönsamheten de poster som rekommenderas. I detta arbete studerar vi frågan om hur en leverantör direkt kan införliva lönsamheten av objekt i sin rekommendation för att maximera sin förväntade vinst samtidigt som de ger korrekta rekommendationer. Vårt tillvägagångssätt använder utdata från alla traditionella recommender system och justera dem efter objektvinster. Vårt tillvägagångssätt är parameteriserat så att säljaren kan kontrollera hur mycket rekommendationen med vinst kan avvika från den traditionella rekommendationen. Vi studerar vår strategi under två inställningar och visar att den uppnår cirka 22% mer vinst än traditionella rekommendationer. | REF teoretiskt analysera en recommender system försöker maximera sin egen förväntade nytta. | 338,091 | Maximizing profit using recommender systems | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,448 |
Untthered noder i mobila ad-hoc nätverk är starkt beroende av en effektiv användning av sina batterier. I detta dokument föreslår vi en ny mätmetod, dräneringshastigheten, för att förutsäga nodernas livslängd enligt aktuella trafikförhållanden. Detta mått kombineras med värdet på den återstående batterikapaciteten för att bestämma vilka noder som kan ingå i en aktiv rutt. Vi beskriver nya vägvalsmekanismer för MANET routing protokoll, som vi kallar minimal dräneringsfrekvens (MDR) och villkorlig minimal dräneringsfrekvens (CMDR). MDR förlänger knutpunktens batteritid och banornas varaktighet, medan CMDR också minimerar den totala överföringseffekt som förbrukas per paket. Med hjälp av ns-2-simulatorn och DSR-protokollet (Dynamic source routing, DSR) jämför vi MDR och CMDR mot tidigare förslag för power-aware routing och visar att med hjälp av dräneringshastigheten för el-aware rutt val ger överlägsen prestanda resultat. | I REF-författaren föreslår en ny mätmetod, dräneringshastigheten, för att förutsäga nodernas livslängd enligt aktuella trafikförhållanden. | 14,125,078 | Routing Mechanisms for Mobile Ad Hoc Networks based on the Energy Drain Rate | {'venue': 'ICOIN', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,449 |
Multi-task sparse funktionen lärande syftar till att förbättra generaliseringen prestanda genom att utnyttja de gemensamma funktionerna bland uppgifter. Det har framgångsrikt tillämpats på många tillämpningar, inklusive datorseende och biomedicinska informatiker. De flesta av de befintliga multi-task sparse funktionen lärande algoritmer är formulerade som en konvex sparse legalisering problem, som vanligtvis är suboptimal, på grund av dess löshet för att approximera en l 0 -type regularizer. I detta dokument föreslår vi en icke-konvex formulering för multi-task sparse-funktionsinlärning baserad på en ny icke-konvex regularizer. För att lösa problemet med icke-konvex optimering föreslår vi en Multi-Stage Multi-Task Feature Learning (MSMTFL) algoritm; vi ger också intuitiva tolkningar, detaljerad konvergens och reproducerbarhetsanalys för den föreslagna algoritmen. Dessutom presenterar vi en detaljerad teoretisk analys som visar att MSMTFL uppnår ett bättre parameteruppskattningsfel bundet än konvex formulering. Empiriska studier av både syntetiska och verkliga data uppsättningar visar effektiviteten av MSMTFL i jämförelse med den senaste multi-task sparse funktionen lärande algoritmer. | Medan i flera steg Multi-task lärande REF, tak-l 1 straff infördes för att uppskatta de glesa delade funktioner. | 862,291 | Multi-Stage Multi-Task Feature Learning | {'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']} | 82,450 |
Vi visar att lättillgängliga digitala register av beteende, Facebook Gilles, kan användas för att automatiskt och exakt förutsäga en rad mycket känsliga personliga attribut inklusive: sexuell läggning, etnicitet, religiösa och politiska åsikter, personlighetsdrag, intelligens, lycka, användning av beroendeframkallande ämnen, föräldrar separation, ålder och kön. Analysen som presenteras är baserad på en datauppsättning på över 58 000 frivilliga som tillhandahöll sina Facebook Gilles, detaljerade demografiska profiler, och resultaten av flera psykometriska tester. Den föreslagna modellen använder dimensionalitetsreduktion för förbehandling av data från Likes, som sedan förs in i logistisk/ linjär regression för att förutsäga individuella psykodemografiska profiler från Likes. Modellen diskriminerar rätt mellan homosexuella och heterosexuella män i 88 % av fallen, afroamerikaner och kaukasiska amerikaner i 95 % av fallen och mellan demokrater och republikaner i 85 % av fallen. För personligheten egenskapen "öppenhet", förutsägelse noggrannhet är nära den test-test noggrannheten av en standard personlighetstest. Vi ger exempel på associationer mellan attribut och Likes och diskuterar implikationer för online personalisering och integritet. sociala nätverk - beräknings samhällsvetenskap - maskininlärning - big data - data mining -psychological assessment | Under 2013, med hjälp av 58.000 frivilliga från Facebook i USA, visades det att Facebook Likes kan användas för att automatiskt och exakt förutsäga en rad mycket känsliga personliga attribut inklusive: sexuell läggning, etnicitet, religiösa och politiska åsikter, personlighetsdrag, intelligens, lycka, användning av beroendeframkallande ämnen, föräldrar separation, ålder, och kön REF. | 456,889 | Private traits and attributes are predictable from digital records of human behavior | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Medicine', 'Psychology']} | 82,451 |
Moderna modeller av relationsextraktion för uppgifter som ACE bygger på övervakad inlärning av relationer från små handmärkta corpora. Vi undersöker ett alternativt paradigm som inte kräver märkta corpora, undvika domänberoende av ACEstyle algoritmer, och tillåta användning av corpora av alla storlekar. Våra experiment använder Freebase, en stor semantisk databas med flera tusen relationer, för att ge fjärrövervakning. För varje par av enheter som förekommer i någon Freebase relation, hittar vi alla meningar som innehåller dessa enheter i en stor omärkt corpus och extrahera textfunktioner för att träna en relation klassificerare. Vår algoritm kombinerar fördelarna med övervakad IE (kombinerar 400.000 bullriga mönster funktioner i en probabilistisk klassificering) och oövervakad IE (extraherar ett stort antal relationer från stora corpora av alla domäner). Vår modell kan extrahera 10 000 fall av 102 relationer med en precision på 67,6%. Vi analyserar också funktionen prestanda, visar att syntaktiska parse funktioner är särskilt användbart för relationer som är tvetydiga eller lexiskt avlägsna i sitt uttryck. | REF använde Freebase för att märka meningar som innehöll ett par enheter som deltar i ett känt Freebase-förhållande, och aggregerade funktionerna från olika meningar för detta förhållande. | 10,910,955 | Distant supervision for relation extraction without labeled data | {'venue': 'ACL-IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,452 |
Samverkansmärkning beskriver den process genom vilken många användare lägger till metadata i form av nyckelord till delat innehåll. Nyligen, kollaborativ taggning har vuxit i popularitet på webben, på webbplatser som tillåter användare att tagga bokmärken, fotografier och annat innehåll. I detta dokument analyserar vi strukturen av samverkande märkningssystem samt deras dynamiska aspekter. Specifikt upptäckte vi regularities i användaraktivitet, taggfrekvenser, typer av taggar som används, spricker av popularitet i bokmärken och en anmärkningsvärd stabilitet i relativa proportioner av taggar inom en given URL. Vi presenterar också en dynamisk modell av samarbetsmärkning som förutsäger dessa stabila mönster och relaterar dem till imitation och delad kunskap. | I REF upptäckte författaren statistiska regulariteter bakom dessa samverkande taggningssystem, och förutspådde de stabila mönstren genom en dynamisk modell. | 1,946,917 | Usage patterns of collaborative tagging systems | {'venue': 'J. Inf. Sci.', 'journal': 'J. Inf. Sci.', 'mag_field_of_study': ['Computer Science']} | 82,453 |
Allteftersom söksidorna blir alltmer komplexa, med bilder och ickelinjära sidlayouter, är det viktigt att förstå hur användarna undersöker sidan. Vi presenterar en labbstudie om effekten av en rik informationspanel till höger om sökresultat kolumnen, på ögon och mus beteende. Med hjälp av ögon- och musdata visar vi att flödet av användarens uppmärksamhet på ickelinjära sidlayouter skiljer sig från den allmänt trodde uppifrån-och-ned linjära undersökningsordningen för sökresultat. Vi visar vidare att musen, liksom ögat, är känslig för två viktiga attribut för sidelement - deras position (layout), och deras relevans för användarens uppgift. Vi identifierar musmått som är starkt korrelerade med ögonrörelser, och utvecklar modeller för att förutsäga användarens uppmärksamhet (ögonblick) från musaktivitet. Dessa fynd visar att musspårning kan användas för att dra nytta av användarnas uppmärksamhet och informationsflödesmönster på söksidor. Potentiella tillämpningar inkluderar rankning, söksida optimering, och UI utvärdering. | Navalpakkam m.fl. REF genomförde en kontrollerad studie där de varierade närvaron och relevansen av en rik informationspanel placerad till höger om ekologiska sökresultat. | 2,680,706 | Measurement and modeling of eye-mouse behavior in the presence of nonlinear page layouts | {'venue': "WWW '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,454 |
Abstract-Vi föreslår en ny metod för utseende baserad loop upptäckt från metriska 3D-kartor, utnyttjar NDT ytrepresentation. Platser beskrivs med funktionen histogram baserat på ytorientering och jämnhet, och loop stängning kan upptäckas genom matchande funktion histogram. Vi presenterar också en kvantitativ prestandautvärdering med hjälp av två realworld-datauppsättningar, som visar att den föreslagna metoden fungerar bra i olika miljöer. | Magnusson m.fl. I REF föreslogs en utseendebaserad metod för att upptäcka slingor med NDT-ytans representation. | 2,383,859 | Appearance-based loop detection from 3D laser data using the normal distributions transform | {'venue': '2009 IEEE International Conference on Robotics and Automation', 'journal': '2009 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,455 |
Vi anser att problemet med att upptäcka robotiska grepp i en RGB-D-vy av en scen som innehåller objekt. I detta arbete tillämpar vi ett djupt lärande för att lösa detta problem, vilket undviker tidskrävande handdesign av funktioner. Detta innebär två stora utmaningar. För det första måste vi utvärdera ett stort antal sökandes grepp. För att göra detektionen snabb och robust presenterar vi ett tvåstegssystem med två djupa nätverk, där toppdetektionerna från den första omvärderas av den andra. Det första nätverket har färre funktioner, är snabbare att köra, och kan effektivt rensa ut osannolika kandidat grepp. Den andra, med fler funktioner, är långsammare men måste köras endast på de översta få upptäckter. För det andra måste vi hantera multimodala ingångar effektivt, där vi presenterar en metod som tillämpar strukturerad legalisering av vikterna baserat på multimodal gruppreglering. Vi visar att vår metod förbättrar prestandan på en RGBD robot gripa dataset, och kan användas för att framgångsrikt köra grepp på två olika robotplattformar. | Lenz m.fl. I REF föreslogs ett tvåstegssystem för kaskaddetektion för att upptäcka robotiska grepp i en RGB-D-bild av en scen och utförde experiment på olika robotplattformar. | 5,240,721 | Deep learning for detecting robotic grasps | {'venue': None, 'journal': 'The International Journal of Robotics Research', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,456 |
I detta dokument studeras effekten av warpdimensionering och schemaläggning på prestanda och effektivitet i GPU. Vi föreslår Variabel Warp Size (VWS) som förbättrar prestandan för divergerande applikationer genom att använda en liten bas warpstorlek i närvaro av kontrollflöde och minne divergens. När det är lämpligt, våra föreslagna teknikgrupper uppsättningar av dessa mindre warp tillsammans genom att gänga deras utförande i warp schemaläggaren, förbättra prestanda och energieffektivitet för regelbundna tillämpningar. Warp gängning är nödvändig för att förhindra prestandanedbrytning på regelbunden arbetsbelastning på grund av minneskonvergens glidning, vilket är ett resultat av oförmågan hos mindre warp att utnyttja samma intra-warp minne plats som större warps. Detta papper undersöker effekten av warpdimensionering på kontrollflöde divergens, minnesdivergens och lokalitet. För en uppskattad 5 % arealkostnad, resulterar vår ligade schemaläggning mikroarkitektur i en simulerad 35% prestandaförbättring på olika arbetsbelastningar genom att tillåta mindre grupper av trådar att fortsätta självständigt, och eliminerar prestandanedbrytning på grund av minneskonvergens glid som observeras när konvergenta applikationer utförs med mindre warpstorlekar. | Warp Size: Författarna i REF föreslog den variabla warpstorleken (VWS) teknik som syftar till att förbättra prestandan för de olika applikationerna. | 12,605,356 | A variable warp size architecture | {'venue': "ISCA '15", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,457 |
Med utvecklingen och utvecklingen av sociala nätverk, forum, bloggar och onlineförsäljning, ett växande antal araber uttrycker sina åsikter på webben. I den här artikeln studeras ett schema för arabisk känsloklassificering, som utvärderar och upptäcker känslornas polaritet från arabiska recensioner och arabiska sociala medier. Vi undersökte i flera arkitekturer för att bygga en kvalitet neurala ord inbäddningar med hjälp av en 3,4 miljarder ord corpus från en samlat 10 miljarder ord webb-krympta corpus. Dessutom används ett konvolutionellt neuralt nätverk utbildat ovanpå förtränade arabiska ord inbäddningar för känsloklassificering för att utvärdera kvaliteten på dessa ord inbäddningar. Simuleringsresultaten visar att det föreslagna systemet överträffar de befintliga metoderna på 4 av 5 balanserade och obalanserade datauppsättningar. | I REF föreslogs en uppsättning ordinslag som skulle användas för arabiska SA, som byggdes med hjälp av en corpus på 3,4 miljarder ord. | 16,321,321 | Word Embeddings and Convolutional Neural Network for Arabic Sentiment Classification | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,458 |
Abstract-Quantization är en viktig men ofta ignorerad hänsyn i diskussioner om komprimerad avkänning. Detta papper studerar utformningen av kvantizers för slumpmässiga mätningar av glesa signaler som är optimala med avseende på medel-kvadrat fel av lasso rekonstruktion. Vi utnyttjar de senaste resultaten i högupplösande funktionell skalära kvantisering och homotopy fortsättning för att approximera den optimala kvantizern. Experimentella resultat com pare denna q uantizer till andra praktiska konstruktioner och visa en märkbar förbättring av den operativa distorsionsgrad prestanda. | I REF diskuterades utformningen av kvantizers för slumpmässiga mätningar av glesa signaler som är optimala med avseende på medelkvartsfel i LASSO-rekonstruktionen. | 8,663,460 | Optimal quantization of random measurements in compressed sensing | {'venue': '2009 IEEE International Symposium on Information Theory', 'journal': '2009 IEEE International Symposium on Information Theory', 'mag_field_of_study': ['Computer Science']} | 82,459 |
Att minska energiförbrukningen är en allt viktigare fråga inom molntjänster, mer specifikt när det gäller att hantera ett storskaligt moln. Minimera energiförbrukningen kan avsevärt minska mängden energiräkningar, och utsläppen av växthusgaser. Därför görs många undersökningar för att utveckla nya metoder för att förbruka mindre energi. I detta dokument presenterar vi en energimedveten multistartsalgoritm för lokal sökning (EMLS-ONC) som optimerar energiförbrukningen i ett OpenNebula-baserat moln. Dessutom föreslår vi en Pareto flermålsversion av EMLS-ONC som kallas EMLS-ONC-MO och som behandlar både energiförbrukningen och servicenivåavtalet (SLA). Målet är att hitta en Pareto kompromiss mellan att minska energiförbrukningen i molnet samtidigt som prestandan hos virtuella maskiner (VM) bevaras. De olika schemaläggare har experimenterats med olika ankomstscenarier för virtuella maskiner och olika maskinvarukonfigurationer (artificiella och verkliga). Resultaten visar att EMLS-ONC och EMLS-ONC-MO överträffar de andra energi- och prestandamedvetna algoritmerna utöver den som tillhandahålls i OpenNebula med en betydande marginal på de berörda kriterierna. Dessutom har EMLS-ONC och EMLS-ONC-MO visat sig kunna tilldela minst lika många virtuella maskiner som de andra algoritmerna. | Kessaci m.fl. presenterade en energi-medveten multi-start lokal sökalgoritm (EMLS) som optimerar energiförbrukningen i ett OpenNebula-baserat moln REF. | 16,126,640 | A multi-start local search heuristic for an energy efficient VMs assignment on top of the OpenNebula cloud manager | {'venue': 'Future Gener. Comput. Syst.', 'journal': 'Future Gener. Comput. Syst.', 'mag_field_of_study': ['Computer Science']} | 82,460 |
Hälso- och sjukvård på nätet är en värdefull informationskälla för patienter och läkare. Sådana användargenererade resurser plågas dock ofta av felaktigheter och felaktig information. I detta arbete föreslår vi en metod för att automatiskt fastställa trovärdigheten hos användargenererade medicinska uttalanden och trovärdigheten hos deras författare genom att utnyttja språkliga signaler och avlägsna övervakning från expertkällor. I detta syfte introducerar vi en probabilistisk grafisk modell som tillsammans lär användaren pålitlighet, uttalande trovärdighet, och språk objektivitet. Vi tillämpar denna metod för att extrahera sällsynta eller okända biverkningar av medicinska läkemedel - detta är ett av de problem där storskaliga icke-expert data har potential att komplettera expert medicinsk kunskap. Vi visar att vår metod på ett tillförlitligt sätt kan extrahera biverkningar och filtrera bort falska påståenden, samtidigt som vi identifierar pålitliga användare som sannolikt kommer att bidra med värdefull medicinsk information. | I REF föreslås en metod för att gemensamt lära användaren pålitlighet, uttalande trovärdighet, och språk objektivitet i online hälsa samhällen. | 9,924,032 | People on drugs: credibility of user statements in health communities | {'venue': "KDD '14", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,461 |
Detta dokument beskriver InfoGAN, en informations-teoretisk förlängning till Generative Adversarial Network som kan lära sig disentrangerade representationer på ett helt oövervakat sätt. InfoGAN är ett generativt kontradiktoriskt nätverk som också maximerar den ömsesidiga informationen mellan en liten delmängd av de latenta variablerna och observationen. Vi får en lägre gräns för det ömsesidiga informationsmålet som kan optimeras effektivt. Specifikt, InfoGAN framgångsrikt löses skriva stilar från siffror former på MNIST dataset, posera från belysning av 3D renderade bilder, och bakgrundssiffror från den centrala siffran på SVHN datasetet. Den upptäcker också visuella begrepp som inkluderar frisyrer, närvaro / frånvaro av glasögon, och känslor på CelebA ansikte dataset. Experiment visar att InfoGAN lär sig tolkningsbara representationer som är konkurrenskraftiga med representationer som lärts av befintliga övervakade metoder. | När det gäller oövervakat lärande maximerar Info-GAN REF den ömsesidiga informationen mellan vissa latenta variabler och observation för att uppnå en uppdelning. | 5,002,792 | InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,462 |
I detta dokument fokuserar vi på att utveckla en ny mekanism för att bevara differentiell integritet i djupa neurala nätverk, så att: (1) Privatlivet budgetkonsumtion är helt oberoende av antalet utbildningssteg; (2) Det har förmågan att adaptivt injicera buller i funktioner som bygger på bidraget från var och en till produktionen; och (3) Det kan tillämpas i en mängd olika djupa neurala nätverk. För att uppnå detta, vi räkna ut ett sätt att perturb affine transformationer av neuroner, och förlustfunktioner som används i djupa neurala nätverk. Dessutom lägger vår mekanism avsiktligt till "mer buller" i funktioner som är "mindre relevanta" för modellens utgång, och vice versa. Vår teoretiska analys bygger vidare på vår mekanisms känslighet och felgräns. Rigorösa experiment på dataset MNIST och CIFAR-10 visar att vår mekanism är mycket effektiv och överträffar befintliga lösningar. | Phan m.fl. REF utvecklade "Adaptive Laplace Mechanism" som skulle kunna tillämpas i en mängd olika djupa neurala nätverk medan den privata budgeten konsumtionen är oberoende av antalet utbildning steg. | 1,567,787 | Adaptive Laplace Mechanism: Differential Privacy Preservation in Deep Learning | {'venue': '2017 IEEE International Conference on Data Mining (ICDM)', 'journal': '2017 IEEE International Conference on Data Mining (ICDM)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,463 |
Abstract-Discriminativ modell lärande för bild denoisering har nyligen dragit stor uppmärksamhet på grund av dess gynnsamma denoiserande prestanda. I detta dokument tar vi ett steg framåt genom att undersöka konstruktionen av feed-forward denoizing convolutional neural networks (DnCNNs) för att omfamna framstegen i mycket djup arkitektur, lärande algoritm, och regularization metod i bilden denoising. Specifikt, resterande lärande och batch normalisering används för att påskynda utbildningsprocessen samt öka den denoiserande prestanda. Olika från de befintliga diskriminerande denomineringsmodeller som vanligtvis tränar en specifik modell för additivt vitt Gaussiskt buller (AWGN) på en viss bullernivå, vår DnCNN modell kan hantera Gaussian denoising med okänd bullernivå (dvs. blind Gaussian denoising). Med den återstående inlärningsstrategin tar DnCNN implicit bort den latenta rena bilden i de dolda lagren. Denna egenskap motiverar oss att träna en enda DnCNN-modell för att ta itu med flera allmänna bild denoiserande uppgifter som Gaussian denoising, singelbild super-upplösning och JPEG-bildavblockering. Våra omfattande experiment visar att vår DnCNN-modell inte bara kan uppvisa hög effektivitet i flera allmänna bilddenoiserande uppgifter, utan också effektivt implementeras genom att dra nytta av GPU-data. | Efteråt, Zhang et al. REF visade att resterande lärande och satsnormalisering inte bara förbättrar denoiserande prestandan utan också påskyndar utbildningsförfarandet. | 996,788 | Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 82,464 |
Modellering av textinformation eller visuell information med vektorrepresentationer utbildade från stora språk eller visuella datauppsättningar har framgångsrikt utforskats under de senaste åren. Uppgifter som visuellt svar på frågor kräver dock att dessa vektorrepresentationer kombineras med varandra. Metoder för multimodal poolning omfattar elementvis multiplikation eller addition, samt konkatering av visuella och textrelaterade representationer. Vi tror att dessa metoder inte är lika uttrycksfulla som en yttre produkt av de visuella och textvisa vektorerna. Eftersom den yttre produkten vanligtvis är ogenomförbar på grund av sin höga dimension föreslår vi istället att Multimodal Compact Bilinear pooling (MCB) används för att effektivt och uttrycksfullt kombinera multimodala funktioner. Vi utvärderar i stor utsträckning MCB på den visuella frågan svar och jordning uppgifter. Vi visar konsekvent fördelarna med MCB över ablationer utan MCB. För visuell frågesvar, presenterar vi en arkitektur som använder MCB två gånger, en gång för att förutsäga uppmärksamhet över rumsliga funktioner och igen för att kombinera den deltagande representationen med frågan representation. Denna modell överträffar den senaste tekniken på Visual7W-datauppsättningen och VQA-utmaningen. | Det har varit ett intressant arbete av REF som förespråkar multimodal pooling och får den senaste tekniken i VQA. | 2,840,197 | Multimodal Compact Bilinear Pooling for Visual Question Answering and Visual Grounding | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,465 |
Abstract-Vi studerar stopptiderna för skvalleralgoritmer för nätverkskodning. Vi analyserar algebraiskt skvaller (d.v.s. slumpmässig linjär kodning) och överväger tre skvalleralgoritmer för informationsspridning Pull, Push och Exchange. Tiden för att stoppa algebraiskt skvaller är känd för att vara linjär för hela grafen, men frågan om att bestämma en snäv övre eller nedre gräns för allmänna grafer är fortfarande öppen. Vi tar ett stort steg i att lösa denna fråga, och bevisar att algebraiskt skvaller på någon graf av storlek n är O(Δn) där Δ är den maximala graden av grafen. Detta leder till en snäv gräns av till (n) för avgränsade grad grafer och en övre gräns av O(n 2 ) för allmänna grafer. Vi visar att den senare bundet är tight genom att ge ett exempel på en graf med en stopptid på och 2 ). Våra bevis använder en ny metod som bygger på Jacksons köande teorem för att analysera stopptiden för nätverkskodning; denna teknik kommer sannolikt att bli användbar för framtida forskning. | I REF använde vi köteori som ett nytt tillvägagångssätt för att analysera algebraiskt skvaller. | 8,341,795 | Tight bounds for algebraic gossip on graphs | {'venue': '2010 IEEE International Symposium on Information Theory', 'journal': '2010 IEEE International Symposium on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,466 |
Vi beskriver en känsloklassificeringsmetod som är tillämplig när vi inte har några märkta data för en måldomän men har några märkta data för flera andra domäner, som betecknas som källdomäner. Vi skapar automatiskt en känslokänslig tesaurus med både märkta och omärkta data från flera källdomäner för att hitta sambandet mellan ord som uttrycker liknande känslor inom olika domäner. Den skapade tesaurusen används sedan för att utöka funktionen vektorer för att träna en binär klassificerare. Till skillnad från tidigare klassningsmetoder för cross-domain-känslor kan vår metod effektivt lära sig från flera källdomäner. Vår metod överträffar betydligt många baslinjer och returnerar resultat som är bättre än eller jämförbara med tidigare cross-domain sense klassificeringsmetoder på ett riktmärke dataset som innehåller Amazon användarrecensioner för olika typer av produkter. | Den tvärdomänkänsliga tesaurusen (SST) Ref grupperar samman ord som uttrycker liknande känslor inom olika områden. | 14,473,519 | Using Multiple Sources to Construct a Sentiment Sensitive Thesaurus for Cross-Domain Sentiment Classification | {'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,467 |
Abstract-test-fall prioritering är att schemalägga utförandet av testfall så att maximera vissa mål (t.ex., avslöjar fel tidigt). Den befintliga prioriteringen av testfall separerar processen för prioritering av testfall och processen för utförande av testfall genom att presentera verkställandet av alla testfall innan programmerare börjar köra testfall. Eftersom exekveringsinformationen för det modifierade programmet inte är tillgänglig för de befintliga prepriiteringsstrategierna för testfall, förlitar sig dessa tillvägagångssätt huvudsakligen på endast exekveringsinformationen för det tidigare programmet före modifiering. För att ta itu med detta problem presenterar vi en adaptive test-falle prioritization approach, som bestämmer verkställandet av testfall samtidigt under utförandet av testfall. I synnerhet väljer adaptivt tillvägagångssätt testfall baserat på deras feldetekteringsförmåga, som beräknas på grundval av resultaten från utvalda testfall. Så snart ett testfall har valts och körs ändras feldetekteringskapaciteten för varje icke-valt testfall beroende på utmatningen från det senast valda testfallet. För att utvärdera effektiviteten i det föreslagna adaptiva tillvägagångssättet genomförde vi en experimentell studie på åtta C-program och fyra Javaprogram. De experimentella resultaten visar att adaptivt tillvägagångssätt vanligtvis är betydligt bättre än det totala test-case prioritering tillvägagångssätt och konkurrenskraftig till det ytterligare test-case prioritization tillvägagångssätt. Dessutom är adaptivt tillvägagångssätt bättre än det ytterligare tillvägagångssättet i vissa frågor (t.ex. ersätta och schemalägga). | Dan Hao i REF presenterade en adaptiv TCP-metod, som fungerade genom att bestämma utförandet av testfall samtidigt under utförandet av testfall på det ändrade programmet. | 16,224,305 | Adaptive Test-Case Prioritization Guided by Output Inspection | {'venue': '2013 IEEE 37th Annual Computer Software and Applications Conference', 'journal': '2013 IEEE 37th Annual Computer Software and Applications Conference', 'mag_field_of_study': ['Computer Science']} | 82,469 |
I den här artikeln tar vi upp problemet med 3D-människans förståelse i det fria. En stor utmaning är bristen på träningsdata, dvs. 2D-bilder av människor kommenterade med 3D pose. Sådana uppgifter är nödvändiga för att utbilda toppmoderna CNN-arkitekturer. Här föreslår vi en lösning för att generera en stor uppsättning fotorealistiska syntetiska bilder av människor med 3D pose annotations. Vi introducerar en bildbaserad syntesmotor som artificiellt förstärker en datauppsättning av verkliga bilder och 2D human pose annotations med 3D Motion Capture (MoCap) data. Med tanke på en kandidat 3D pose väljer vår algoritm för varje led en bild vars 2D pose lokalt matchar den projicerade 3D pose. De valda bilderna kombineras sedan för att skapa en ny syntetisk bild genom att sy lokala bildplåster på ett kinematiskt begränsat sätt. De resulterande bilderna används för att träna en end-to-end CNN för fullkroppsuppskattning av 3D-pose. Vi samlar in träningsdata i ett stort antal poseklasser och tar itu med det som ett K-vägsklassificeringsproblem. Ett sådant tillvägagångssätt är endast genomförbart med stora utbildningsset som vårt. Vår metod överträffar state-of-the-art i termer av 3D utgör uppskattning i kontrollerade miljöer (Human3.6M), visar lovande resultat för i-the-vilda bilder (LSP). | Rogez och Schmid REF föreslog en metod för dataförstärkning som kan generera syntetiska bilder med 3D human pose annotations genom att använda 3D rörelse fånga data och en befintlig verklig bild dataset med 2D pose annotations. | 13,401,310 | MoCap-guided Data Augmentation for 3D Pose Estimation in the Wild | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,470 |
Dialogstatsspårning (DST) är en viktig komponent i uppgiftsorienterad dialogsystem. DST uppskattar användarens mål vid varje användarsväng med tanke på interaktionen fram till dess. Den senaste tekniken för statlig spårning bygger på djupt lärande metoder, och representerar dialog stat som en fördelning över alla möjliga slot värden för varje slot som finns i ontologin. En sådan representation är inte skalbar när uppsättningen möjliga värden är obundna (t.ex. datum, tid eller plats) eller dynamiska (t.ex. filmer eller användarnamn). Dessutom kräver utbildning av sådana modeller märkta data, där varje användares tur är kommenterad med dialogstaten, vilket gör det svårt att bygga modeller för nya domäner. I detta dokument presenterar vi ett skalbart, flerdomänbaserat, djupt lärandebaserat tillvägagångssätt för DST. Vi introducerar en ny ram för statlig spårning som är oberoende av antalet ankomst- och avgångstider, och representerar dialogstaten som en fördelning över en uppsättning av värden av intresse (candidate set) som härrör från dialogen historia eller kunskap. Att begränsa dessa kandidatuppsättningar som ska begränsas i storlek tar itu med problemet med slot-skalbarhet. Genom att utnyttja den slotoberoende arkitekturen och överföringslärandet visar vi dessutom att vårt föreslagna tillvägagångssätt underlättar snabb anpassning till nya områden. | Semi-skalbar Belief Tracker REF föreslog ett tillvägagångssätt som kan generera fasta längd kandidatuppsättningar för var och en av slots från dialoghistoriken. | 13,780 | Scalable multi-domain dialogue state tracking | {'venue': '2017 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU)', 'journal': '2017 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU)', 'mag_field_of_study': ['Computer Science']} | 82,471 |
Under de senaste åren har betydande framsteg gjorts när det gäller att lösa utmanande problem inom olika områden med hjälp av djupt förstärkande lärande (RL). Att återskapa befintligt arbete och korrekt bedöma de förbättringar som nya metoder erbjuder är avgörande för att upprätthålla dessa snabba framsteg. Tyvärr är det sällan enkelt att återge resultat för de senaste djupa RL-metoderna. I synnerhet kan icke-determinism i standardriktvärden, kombinerat med variation inneboende i metoderna, göra rapporterade resultat svåra att tolka. Utan signifikansmått och stramare standardisering av experimentell rapportering är det svårt att avgöra om förbättringar över den tidigare toppmoderna tekniken är meningsfulla. I detta dokument undersöker vi utmaningar som kan uppstå genom reproducerbarhet, lämpliga experimentella metoder och rapporteringsförfaranden. Vi illustrerar variabiliteten i rapporterade mätvärden och resultat vid jämförelse mot vanliga baslinjer, och föreslår riktlinjer för att göra framtida resultat i djup RL mer reproducerbara. Vi syftar till att stimulera diskussionen om hur man kan säkerställa fortsatta framsteg på området, genom att minimera bortkastade insatser som härrör från resultat som inte är reproducerbara och lätt misstolkade. | Reproducerbarhet och jämförelse i DRL Djup förstärkning Lärande som betyder något REF är ett av de första verken för att varna för en reproducerbarhetskris inom DRL. | 4,674,781 | Deep Reinforcement Learning that Matters | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,472 |
Icke-uniforma blinda deblurring för allmänna dynamiska scener är ett utmanande datorseende problem eftersom suddiga uppstår inte bara från flera objekt rörelser utan också från kameraskakning, scendjup variation. För att ta bort dessa komplicerade rörelse oskärpa, konventionella energioptimering baserade metoder bygger på enkla antaganden så att oskärpa kärnan är delvis enhetlig eller lokalt linjär. Dessutom beror nya metoder för maskininlärning också på syntetiska oskärpa dataset som genereras under dessa antaganden. Detta gör att konventionella deblurringsmetoder misslyckas med att ta bort oskärpa där oskärpakärnan är svår att approximera eller parameterisera (t.ex. objektrörelsegränser). I detta arbete föreslår vi ett flerskaligt konvolutionellt neuralt nätverk som återställer skarpa bilder på ett end-to-end sätt där oskärpa orsakas av olika källor. Tillsammans presenterar vi multiscale förlustfunktion som efterliknar konventionella grov-till-fina metoder. Dessutom föreslår vi ett nytt storskaligt dataset som ger ett par realistiska suddiga bilder och motsvarande skarp bild av marken som erhålls av en höghastighetskamera. Med den föreslagna modellen tränad på denna datauppsättning visar vi empiriskt att vår metod uppnår den toppmoderna prestandan i dynamisk scen deblurerar inte bara kvalitativt utan även kvantitativt. | Nah och al. REF föreslog en flerskalig CNN som återställer latenta bilder på ett end-to-end lärande sätt utan några antaganden om den suddiga kärnan modellen. | 8,671,030 | Deep Multi-scale Convolutional Neural Network for Dynamic Scene Deblurring | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 82,473 |
Utbildning Deep Neural Networks kompliceras av att fördelningen av varje lagers ingångar förändras under träningen, eftersom parametrarna för de tidigare lagren förändras. Detta saktar ner utbildningen genom att kräva lägre inlärningstakt och noggrann parameter initialisering, och gör det notoriskt svårt att träna modeller med mättande icke-linjäritet. Vi hänvisar till detta fenomen som internt kovariat skifte, och ta itu med problemet genom att normalisera lageringångar. Vår metod tar sin styrka från att göra normalisering en del av modellen arkitektur och utföra normalisering för varje träning mini-batch. Batch Normalization tillåter oss att använda mycket högre inlärningsfrekvenser och vara mindre försiktig med initiering. Det fungerar också som en regularizer, i vissa fall eliminera behovet av avhopp. Basch Normalization tillämpas på en toppmodern bild klassificering modell, uppnår samma noggrannhet med 14 gånger färre träningssteg, och slår den ursprungliga modellen med en betydande marginal. Med hjälp av en ensemble av batchnormaliserade nätverk, vi förbättra på det bäst publicerade resultatet på ImageNet klassificering: nå 4,9% topp-5 valideringsfel (och 4,8% testfel), överstiger noggrannheten hos mänskliga taxrar. | Före den icke-linjära driften av varje lager, minskar batch normalisering REF interna kovariat flytta genom att kombinera ett normaliseringssteg och ett skiftsteg. | 5,808,102 | Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,474 |
Programvara som tjänst (SaaS) ger slutanvändare tillgång till applikationer via Internet utan förhandsinvesteringar i infrastruktur och programvara. För att betjäna sina kunder utnyttjar SaaS leverantörer resurser från interna datacenter eller hyr resurser från en offentlig infrastruktur som en tjänsteleverantör (IaaS). In-house hosting kan öka administrations- och underhållskostnader medan uthyrning från en IaaS-leverantör kan påverka servicekvaliteten på grund av dess varierande prestanda. För att övervinna dessa begränsningar föreslår vi innovativa antagningskontroll- och schemaläggningsalgoritmer för SaaS-leverantörer för att effektivt utnyttja offentliga molnresurser för att maximera vinsten genom att minimera kostnaderna och förbättra kundnöjdheten. Dessutom genomför vi en omfattande utvärderingsstudie för att analysera vilken lösning som passar bäst i vilket scenario för att maximera SaaS leverantörs vinst. Simuleringsresultat visar att våra föreslagna algoritmer ger betydande förbättringar (upp till 40% kostnadsbesparingar) jämfört med referensvärden inom alla variationsområden i QoS-parametrar. | Linlin m.fl. i REF föreslå en innovativ antagningskontroll och schemaläggning algoritm för SaaS leverantörer att effektivt utnyttja offentliga molnresurser för att maximera vinsten genom att minimera kostnader och förbättra kundnöjdhet nivå. | 9,801,463 | SLA-based Admission Control for a Software-as-a-Service Provider in Cloud Computing Environments | {'venue': 'J. Comput. Syst. Sci.', 'journal': 'J. Comput. Syst. Sci.', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,475 |
Sammanfattning av denna webbsida: Device-free localization (DFL) är en framväxande trådlös teknik för att uppskatta platsen för målet som inte har någon ansluten elektronisk enhet. Det har funnit stor användning i Smart City applikationer såsom vård i hemmet och sjukhus, platsbaserade tjänster på smarta utrymmen, stadens nödinsatser och infrastruktursäkerhet. I DFL används trådlösa enheter som sensorer som kan känna målet genom att sända och ta emot trådlösa signaler i samarbete. Många DFL-system implementeras baserat på mottagna signalstyrkasmätningar (RSS) och målets placering uppskattas genom att man upptäcker ändringarna av RSS-mätningarna av de trådlösa länkarna. På grund av den trådlösa kanalens osäkerhet kan vissa länkar vara allvarligt förorenade och leda till felaktig upptäckt. I detta dokument föreslår vi en ny icke-linjär optimeringsmetod med avvikande länkavvisande (NOOLR) för RSS-baserade DFL. Den består av tre nyckelstrategier, bland annat: 1) påverkad länkidentifiering genom differential RSS-detektion; 2) avvikande länk avvisande via geometrisk positionsrelation mellan länkar; 3) uppskattning av målplats genom att formulera och lösa ett icke-linjärt optimeringsproblem. Experimentella resultat visar att NOOLR är robust till fluktuationen av de trådlösa signalerna med överlägsen localization noggrannhet jämfört med den befintliga radiotomografiska imaging (RTI). | Ett exempel presenteras i REF, där Xiao et al. införa en ny icke-linjär optimeringsmetod med bortstötning av yttre länkar (NOOLR) för RSS-baserade DFL som består av tre nyckelstrategier, inklusive (1) påverkad länkidentifiering med hjälp av differential RSS-detektering; (2) bortstötning av yttre länkar via geometriska positionsrelationer mellan länkar; (3) uppskattning av målplats genom att formulera och lösa ett icke-linjärt optimeringsproblem. | 5,765,183 | Nonlinear Optimization-Based Device-Free Localization with Outlier Link Rejection | {'venue': 'Sensors', 'journal': 'Sensors', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 82,476 |
Genom nicolai Zeldovich, Silas Boyd-Wickizer, eddie Kohler, och David Mazières abstrakt HiStar är ett nytt operativsystem utformat för att minimera mängden kod som måste lita på. HiStar tillhandahåller strikt informationsflödeskontroll, vilket gör det möjligt för användare att specificera exakta datasäkerhetspolicyer utan att otillbörligt begränsa strukturen på applikationer. HiStars säkerhetsfunktioner gör det möjligt att implementera en Unix-liknande miljö med acceptabel prestanda nästan helt i ett opålitligt bibliotek på användarnivå. Systemet har ingen uppfattning om superanvändare och ingen helt tillförlitlig kod annat än kärnan. HiStars funktioner tillåter flera nya applikationer, inklusive integritetsbevarande, opålitliga virusskannrar och en dynamisk webbserver med bara några tusen rader pålitlig kod. | Till exempel gör HiStar REF det möjligt för användare att ange exakta säkerhetsprinciper, men det kräver ofta omstruktureringsprogram för att uppfylla sina säkerhetsmål. | 458,381 | Making information flow explicit in HiStar | {'venue': 'CACM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,477 |
Vi studerar problemet med video-till-video syntes, vars mål är att lära sig en kartfunktion från en indatakälla video (t.ex. en sekvens av semantiska segmentering masker) till en utgående fotorealistisk video som exakt avbildar innehållet i källvideon. Medan dess bildmotsvarighet, bild-till-bild översättningsproblem, är ett populärt ämne, video-till-video syntes problemet är mindre utforskad i litteraturen. Utan att modellera temporal dynamik, direkt tillämpa befintliga bildsyntes närmar sig en inmatningsvideo ofta resulterar i temporalt inkonsekventa videor av låg visuell kvalitet. I detta dokument föreslår vi en metod för video-till-videosyntes inom ramen för det generativa kontradiktoriska lärandet. Genom noggrant utformade generatorer och discriminatorer, tillsammans med ett spatio-temporärt kontradiktoriskt mål, uppnår vi högupplösta, fotorealistiska, tidssammanhängande videoresultat på en mängd olika indataformat inklusive segmenteringsmasker, skisser och poser. Experiment på flera referensvärden visar fördelen med vår metod jämfört med starka basvärden. I synnerhet, vår modell är kapabel att syntetisera 2K upplösning videos av gatuscener upp till 30 sekunder lång, vilket avsevärt avancerar state-of-the-art av video syntes. Slutligen tillämpar vi vår metod för framtida video förutsägelse, överträffar flera konkurrerande system. Kod, modeller och fler resultat finns tillgängliga på vår hemsida. | I synnerhet är REF ett av de tidiga försöken att ta itu med video-till-video översättning, som integrerar en spatio-temporal kontraversarial mål i villkorliga GANs. | 52,049,245 | Video-to-Video Synthesis | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,478 |
Vi introducerar ett begrepp om universalitet i samband med optimeringsproblem med partiell information. Universalitet är en ram för att hantera osäkerhet genom att garantera en viss godhetskvalitet för alla möjliga kompletteringar av den partiella informationen. Universala varianter av optimeringsproblem kan definieras som är både naturliga och välmotiverade. Vi överväger universella versioner av tre klassiska problem: TSP, Steiner Tree och Set Cover. Vi presenterar en polynom-tidsalgoritm för att hitta en universell tur på en given metriska utrymme över och hörn så att för varje delmängd av hörnen, den sub-tur som induceras av delmängd är inom Ç" — Ó —Ó — Ó till μ av en optimal tur för delmängd. På samma sätt visar vi att med tanke på ett metriska utrymme över hörn och en rot vertex, kan vi hitta ett universellt spänne träd så att för varje delmängd av hörn som innehåller roten, delträdet som induceras av delmängd är inom Ç ́ —Ó —Ó — — Ó till μ av en optimal Steiner träd för delmängd. Våra algoritmer förlitar sig på en ny uppfattning om glesa partitioner, som kan vara av oberoende intresse. För det speciella fallet med dubbleringsmått, som inkluderar både konstant-dimensionella Euclidean och tillväxtbegränsade mätvärden, våra algoritmer uppnå en Ç" — Ó och μ övre gräns. Vi kompletterar våra resultat för det universella Steiner-trädet med en nedre gräns för en "Ó" --Ó --Ó --Ó ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ Vi visar också att en liten generalisering av det universella Steiner Tree problemet är coNP-hård och presenterar nästan tighta övre och nedre gränser för en universell version av Set Cover. | Jia m.fl. REF introducerade begreppet universella approximationsalgoritmer för optimeringsproblem och tillhandahöll approximationsalgoritmer för TSP, Steiner Tree och satte upp täckningsproblem. | 7,046,258 | Universal approximations for TSP, Steiner tree, and set cover | {'venue': "STOC '05", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,479 |
En effektiv algoritm för isometry-invariant matchning av ytor presenteras. Nyckelidén är att beräkna minimi-förvrängning kartläggning mellan två ytor. För detta ändamål introducerar vi den generaliserade flerdimensionella skalningen, en beräkningseffektiv kontinuerlig optimeringsalgoritm för att hitta den minsta distorsion som inbäddar en yta i en annan. Den generaliserade flerdimensionella skalningsalgoritmen möjliggör både fullständig och partiell ytmatchning. Till exempel tillämpas det på problemet med uttrycksinvarianta tredimensionella ansiktsigenkänning. Gromov-Hausdorff avstånd och isometrisk inbäddning Iterative-cloestpoint och delvis inbäddning T han problemet med jämförelse mellan deformerbara ytor har nyligen fått en hel del intresse för mönsterigenkänning, särskilt inom områdena tredimensionell (3D) dataanalys och syntes. Det uppstår till exempel i medicinsk avbildning och 3D-ansiktsigenkänning (1). Den grundläggande frågan är hur man effektivt men exakt kan kvantifiera likheten mellan en given referensyta ("modell") och någon annan yta ("sond"), vanligtvis en böjd version av modellen. Vi skulle vilja fånga distinktionen av modellen och sonden inneboende egenskaper i samband med den metriska strukturen av ytan, samtidigt som ignorera de extrinsiska egenskaper som beskriver hur ytan är nedsänkt i det omgivande utrymmet och som ofta förändras medan ytan böjer. En deformation som bevarar ytans inre struktur kallas en 'isometri'. Vårt mål är därför att definiera en beräkningsbar isometry-invariant mått på likhet mellan ytor. Ofta är problemet ännu mer komplicerat, när sonden endast delvis är tillgänglig (se bild. 1 )............................................................................................................... Vi hänvisar till den senare inställningen som ''partiell yta matchning'' och till det fall där hela sonden är tillgänglig som ''full yta matchning''. Ett av de tidigaste försöken med isometry-invariant ytmatchning är den klassiska ''iterativa närmaste punkten'' (ICP) algoritm (2). Den tar upp ett särskilt fall av det partiella matchningsproblemet där endast stela (Euklidiska) isometrier är tillåtna. En effektiv metod för konstruktion av nästan isometri-invarianta representationer av ytor [kallade ''kanoniska former'' (CFs)] baserade på Euclidean inbäddningar presenterades i ref. 3, som en generalisering av ref. 4. Vad är det som händer? Detta tillvägagångssätt använde en flerdimensionell skalningsalgoritm (MDS) (5). MDS är nära relaterat till dimensionalitetsreduktion (6, 7) och kan utföras på ett beräkningseffektivt sätt. Euclidean inbäddningar används i teoretisk datavetenskap för att representera metriska utrymmen som vanligtvis uppstår från geometri av grafer (8). Nyligen använde Mémoli och Sapiro (9) en diskret probabilistisk approximation av Gromov-Hausdorff (GH) avstånd (10) för att jämföra ytor upp till isomerer. Deras metod är baserad på att utvärdera alla permutationer mellan två uppsättningar av ytprover, som är beräknings dyrt. Dessutom är GH-avståndet olämpligt för partiell matchning. Ett av de viktigaste bidragen till detta arbete är det 'partiella inbäddningsavståndet (PE)' som motiveras av Gromovs teori. För effektiv beräkning introducerar vi en förlängning av MDS, som vi kallar generaliserad MDS (GMDS). Nyckelidén är att mäta minsta möjliga förvrängning när man försöker inbädda en yta i en annan. Genom att använda GMDS kan vi hantera såväl fullständig som partiell ytmatchning; denna förmåga är en fördel jämfört med en enkel användning av GH avstånd. Tidningen innehåller sex avsnitt. Teoretiska stiftelser granskar den teoretiska bakgrunden av isometri-invariant ytmatchning. Vi definierar vårt PE-avstånd och visar dess relation till GH-avståndet. Nästa avsnitt, GMDS, introducerar GMDS och tar upp implementation och optimering överväganden. Följande avsnitt fokuserar på partiell matchning av ytor. I Resultat visar vi några experimentella resultat. Slutligen sammanfattar vi de viktigaste resultaten i slutsatserna. Låt S vara en jämn ansluten och kompakt Riemannian yta (2-manifold) med minimal geodesik C* S (s, s på) mellan två punkter s, s på S. Vi definierar den geodesiska avståndsfunktionen d S : S på S 3 på samma sätt som d S (s, s på) på längden{C* S (s, s på)}. För enkelhetens skull säger vi ''ytare S''' som antyder det underliggande metriska utrymmet (S, d S ) som induceras av den Riemannska geometrin av S. I vårt sammanhang uppfattas ytor från en synvinkel av metrisk snarare än Riemannian geometri; med andra ord, vi anser inte den Riemannska metriska tensor, men de geodesiska avstånd som det inducerar. I praktiken arbetar vi med provytor som representeras av finita metriska utrymmen. Vi använder följande definitioner: en delmängd S r på S kallas en 'r-covering' (eller ''r-net'') av S om S och Sr B S (s, r), där B S (s 0, r) {s S : d S (s, s 0 ) r} är en boll av radier r runt s 0 i S. En ändlig r-covering av S som består av N-punkter betecknas av S N r. Måttet på S N r antas vara den begränsade metriska d S N r (s, s på) d S (s, s på) för alla s, s på S N r. Vi hänvisar till r som '' sampling radie.''' En godtycklig finit provtagning av S som består av N-punkter betecknas med S N, där S kallas ''kontinuerlig'' yta och S N en ''diskrete'' en. | Bronstein m.fl. REF löser också korrespondensproblemet genom att matcha ytornas inneboende geometrier. | 17,892,715 | Generalized multidimensional scaling: A framework for isometry-invariant partial surface matching | {'venue': 'Proceedings of the National Academy of Sciences', 'journal': 'Proceedings of the National Academy of Sciences', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 82,480 |
De flesta uppgifter i naturligt språk bearbetning kan kastas i frågesvar (QA) problem över språkinmatning. Vi introducerar det dynamiska minnesnätverket (DMN), en neural nätverksarkitektur som bearbetar inmatningssekvenser och frågor, bildar tillfälliga minnen och genererar relevanta svar. Frågor utlöser en iterativ uppmärksamhetsprocess som gör det möjligt för modellen att fästa sin uppmärksamhet på indata och resultatet av tidigare iterationer. Dessa resultat resoneras sedan över i en hierarkisk återkommande sekvensmodell för att generera svar. DMN kan tränas end-to-end och får toppmoderna resultat på flera typer av uppgifter och dataset: frågesvar (Facebook's bAbI dataset), textklassificering för känsloanalys (Stanford Sentiment Treebank) och sekvensmodellering för del-of-peech taggning (WSJ-PTB). Utbildningen för dessa olika uppgifter bygger uteslutande på utbildade ordvektor representationer och input-frågesvar trioler. | Frågesvar (QA) är ett klassiskt problem i naturligt språk bearbetning REF. | 2,319,779 | Ask Me Anything: Dynamic Memory Networks for Natural Language Processing | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,481 |
De flesta tekniker för att relatera textinformation bygger på intellektuellt skapade länkar som författare-valda sökord och titlar, myndighet indexering termer, eller bibliografiska citeringar. Likheten i det semantiska innehållet i hela dokument, snarare än bara titlar, abstrakter eller överlappningar av nyckelord, erbjuder ett attraktivt alternativ. Latent semantisk analys ger en effektiv dimensionsreduktionsmetod för det ändamål som speglar synonymer och känslan av godtyckliga ordkombinationer. Emellertid, latent semantisk analys korrelationer med mänsklig text-till-text likhet bedömningar är ofta empiriskt högsta vid 300 dimensioner. Således, två-eller tredimensionella visualiseringar är starkt begränsade i vad de kan visa, och den första och en andra automatiskt upptäckte huvudkomponenten, eller tre sådana för den delen, sällan fånga alla de relationer som kan vara av intresse. Det är vår gissning att språklig betydelse är i sig och oåterkalleligen mycket dimensionell. Därför behövs en viss metod för att utforska en högdimensionell likhet utrymme. Men 2.7 10 7 projektioner och oändliga rotationer av till exempel ett 300-dimensionellt mönster är omöjliga att undersöka. Vi föreslår dock att användningen av en högdimensionell dynamisk tittare med en effektiv projektion jakt rutin och användarkontroll, tillsammans med de utsökta förmågorna hos det mänskliga visuella systemet för att extrahera information om objekt och från rörliga mönster, kan ofta lyckas upptäcka flera avslöjande vyer som missas av nuvarande beräkningsalgoritmer. Vi visar några exempel på användning av latent semantisk analys för att stödja sådana visualiseringar och erbjuda åsikter om framtida behov. M ost tekniker för att relatera textinformation bygger på intellektuellt skapade länkar såsom författaren valda sökord och titlar, auktoritet indexering termer, eller bibliografiska citeringar (1). Likheten i det semantiska innehållet i hela dokument, snarare än bara titlar, abstrakter eller en överlappning av nyckelord, erbjuder ett attraktivt alternativ. Latent semantisk analys (LSA) ger en effektiv dimensionsreduktionsmetod för det ändamål som speglar synonymer och känslan av godtyckliga ordkombinationer (2, 3). LSA är en av ett växande antal corpus-baserade tekniker som använder statistisk maskininlärning i textanalys. Andra tekniker inkluderar generativa modeller av Griffiths och Steyvers (4) och Erosheva et al. (5) och den strängeditbaserade metoden av S. Dennis (6) och flera nya beräkningsförverkliganden av LSA. Tyvärr ska ingen av de andra metoderna skalas till textdatabaser av den storlek som ofta önskas för visualisering av domänkunskap. Den linjära singular value decomposition (SVD) teknik som beskrivs här har tillämpats på samlingar av så många som en halv miljard dokument som innehåller 750.000 unika ordtyper, som alla används för att mäta likheten av två dokument. LSA förutsätter att det övergripande semantiska innehållet i en passage, såsom en punkt, abstrakt, eller fullständig sammanhängande dokument, kan med fördel approximeras som en summa av innebörden av dess ord, enligt följande: betydelse av punkt med betydelsen av ord 1 på betydelsen av ord 2 på.. på betydelsen av ord n. Ömsesidigt konsekvent betydelse representationer för ord och passager kan alltså härledas från en stor text corpus genom att behandla varje passage som en linjär ekvation och corpus som ett system av samtidiga ekvationer. I standard LSA uppnås lösningen av ett sådant system genom SVD (3). SVD definieras som X på WSP. Eftersom SVD tillämpas på en textkorpus för LSA, X är en matris av ord av punkter, med celler som innehåller log av frekvensen av ett ord i en punkt viktas omvänt med entropi av ordet över alla punkter. Matrisen bryts ned av ett iterativt sparse-matris SVD-program (3) i tre matriser, två med ortonormala singular vektorer, W och P, som står för ord respektive stycken, respektive en diagonal S-matris av singular värden (kvadratrötter av eigenvärden). SVD ger en lösning som är unik upp till linjär omvandling. För mycket stora corpora, metoderna finner endast ungefärliga lösningar i dimensionaliteter långt under matrisens rang och, i praktiken, är vanligtvis begränsade till 200-400 dimensioner, av skäl som ska anges inom kort. Likheter mellan ord eller dokument mäts vanligen med deras cosinus (cos) i den resulterande högdimensionella semantiska rymden. Vektorer för nya stycken kan beräknas dynamiskt genom att helt enkelt lägga till vektorerna i deras ord, även om det efter stora tillägg eller ändringar i domänen kan vara nödvändigt att omkomputera det semantiska utrymmet, en process som tar flera timmar till dagar beroende på corpus storlek och datorkraft. Även om matematiskt påvisbara, formella egenskaper som upplösning, kompaktitet och separation av kluster inte är vad som är viktigast för visualisering (eller andra mänskliga användningsområden såsom informationshämtning) om de inte gav upphov till användbara mänskliga uppfattningar (eller förståelser). Därför har vi testat den underliggande textanalysens effektivitet genom att simulera mänskliga bedömningar av texternas likheter och jämföra dem med människors. Detta har gjorts på många sätt med goda resultat, enighet mellan maskin och människa så bra eller nästan lika bra som mellan två människor. Till exempel, efter utbildning på korpora som människor lärt sig eller kan ha, LSA-baserade simuleringar har klarat flera val vokabulär tester och läroboksbaserade slutprov på studentnivå (7). Den ofta påträffade effekten av dimensionalitet och förekomsten av en hög och starkt toppade optimal visades dramatiskt av prestanda på flera val objekt från Test av engelska som ett främmande språk. LSA valde det mest likartade alternativa ordet som det med den största cos till frågeordet. Bilda. 1 visar att dess prestanda vid 250-400 dimensioner var mycket bättre än vid två eller tre, Detta papper är resultatet av Arthur M. Sackler | Landauer REF beskriver en linjär SVD-teknik och tillämpar den på en samling av en halv miljard dokument som innehåller 750 000 unika ordtyper. | 23,046,460 | From paragraph to graph: Latent semantic analysis for information visualization | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 82,482 |
I detta dokument föreslår vi en ny neural nätverksmodell som kallas RNN EncoderDecoder som består av två återkommande neurala nätverk (RNN). En RNN kodar en sekvens av symboler till en vektorrepresentation med fast längd, och den andra avkodar representationen till en annan sekvens av symboler. Den föreslagna modellens kodare och avkodare tränas gemensamt för att maximera den villkorliga sannolikheten för en målsekvens med en källsekvens. Prestandan hos ett statistiskt maskinöversättningssystem har empiriskt visat sig förbättras genom att använda de villkorliga sannolikheterna för parfraser som beräknas av RNN Encoder-Decoder som ytterligare en funktion i den befintliga log-lineära modellen. Kvalitativt visar vi att den föreslagna modellen lär sig en semantiskt och syntaktiskt meningsfull representation av språkliga fraser. | Nätverket utbildas för att maximera den villkorliga sannolikheten för en målsekvens som ges en källsekvens, och lär sig den semantiska och syntaktiska representationen av corpus REF, vilket ger möjlighet att lära inbäddningar från språket också. | 5,590,763 | Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 82,483 |
Vi använder verktyg för statistisk maskinöversättning (SMT) för att generera nya parafraser av inmatningsmeningar på samma språk. Systemet är utbildat på stora volymer av mening par automatiskt extraheras från klusterade nyhetsartiklar som finns på World Wide Web. Inställningsfelfrekvens (AER) mäts för att mäta kvaliteten på den resulterande corpus. En monoton Phrasal dekoder genererar kontextuella ersättare. Human utvärdering visar att detta system överträffar grundläggande parafrasgenereringstekniker och, i ett avsteg från tidigare arbete, erbjuder bättre täckning och skalbarhet än de nuvarande bästa parafraseringsmetoder. | REF tillämpar SMT-verktyg för att generera parafraser av inmatningsmeningar på samma språk. | 13,043,395 | Monolingual Machine Translation For Paraphrase Generation | {'venue': 'SIGDAT Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,484 |
I detta dokument introducerar vi ett tillvägagångssätt för att automatiskt kartlägga ett standardfördelningssemantiskt utrymme på en set-teoretisk modell. Vi förutspår att det finns ett funktionellt samband mellan fördelningsinformation och vektorbegrepps representationer där dimensionerna är predikat och vikter är generella kvantifieringar. För att testa vår förutsägelse, lär vi oss en modell av en sådan relation över en allmänt tillgänglig datauppsättning av funktionsnormer kommenterade med naturliga språk kvantifieringar. Våra första experimentella resultat visar att vi, åtminstone för domänspecifika data, verkligen kan kartlägga mellan formalismer, och generera högkvalitativa vektor representationer som inkapslar uppsättning överlappar information. Vi undersöker vidare generationen av naturliga språkkvantifierare från sådana vektorer. | REF presenterar en modell som lär sig att kartlägga vektorer i ett fördelningsutrymme till vektorer i ett set-teoretiskt utrymme, vilket visar att det finns ett funktionellt samband mellan fördelningsinformation och begreppskunskap som representerar kvantifierare och predikat. | 15,053,998 | Building a shared world: mapping distributional to model-theoretic semantic spaces | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,485 |
Sammanfattning Vi studerar visuell uppmärksamhet genom att upptäcka ett framträdande objekt i en ingångsbild. Vi formulerar framträdande objektdetektion som ett bildsegmenteringsproblem, där vi separerar det framträdande objektet från bildens bakgrund. Vi föreslår en uppsättning nya funktioner inklusive multi-scale kontrast, centersurround histogram, och färg spatial distribution för att beskriva ett framträdande objekt lokalt, regionalt och globalt. Ett villkorligt Random Field är lärt sig att effektivt kombinera dessa funktioner för framträdande objektdetektion. Vi byggde också en stor bilddatabas med tiotusentals noggrant märkta bilder av flera användare. Till vår kännedom är det den första stora bilddatabasen för kvantitativ utvärdering av visuella uppmärksamhetsalgoritmer. Vi bekräftar vår inställning till denna bilddatabas, som är allmänt tillgänglig med detta dokument. | I REF formuleras framträdande objektdetektion som ett bildsegmenteringsproblem, där det framträdande objektet separeras från bildens bakgrund. | 36,630,067 | Learning to Detect A Salient Object | {'venue': '2007 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2007 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 82,486 |
Abstract-The magnetisk induktion (MI)-baserade trådlösa underjordiska sensornätverk (WUSNs) använder den nya MI waveguide tekniken för att etablera lång räckvidd och låg kostnad trådlös kommunikation i hårda underjordiska miljöer, vilket möjliggör ett stort utbud av nya och viktiga applikationer. En av de största forskningsutmaningarna är den teoretiska studien av kanal- och nätverkskapaciteten i dessa nätverk. Jämfört med de traditionella trådlösa nätverken, har både kanal och nätverkskapacitet MI-baserade WUSNs betydande olika egenskaper på grund av den helt olika signalutbredning tekniker och nätverk geometrisk struktur. Dessutom medför användningen av multiresonant MI-reläspolar i MI-baserade WUSNs mer tillförlitlighetsproblem. I den här artikeln utvecklas matematiska modeller för att utvärdera kanalkapacitet, nätverkskapacitet och tillförlitligheten hos MI-baserade WUSN. Specifikt är det slutna formuttrycket för kanalkapaciteten i MI-baserade WUSNs först härleds för att fånga e-ekterna av flera systemparametrar. Då nätkapacitet skalning lagar MI-baserade WUSNs undersöks under olika distributionsstrategier. Slutligen diskuteras systemets tillförlitlighet för MI-baserade WUSN när det gäller kanalkapacitet och nätkapacitet. Resultaten av detta dokument innehåller principer och riktlinjer för utformning och införande av MI-baserade WUSN. | Kanalkapaciteten, nätkapaciteten och tillförlitligheten hos MI-baserad WUSN undersöktes, och den slutna formen av kanalkapaciteten för MI-kanalen gavs i REF. | 13,044,657 | On capacity of magnetic induction-based wireless underground sensor networks | {'venue': '2012 Proceedings IEEE INFOCOM', 'journal': '2012 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 82,487 |
I detta dokument föreslår vi ett nytt routingprotokoll för heterogena trådlösa Body Area Sensor Networks (WBASNs); Mobility-stödjande Adaptive Threshold-baserade värmemedvetna Energieffektiva Multi-hop ProTocol (M-ATTEMPT). En prototyp definieras för användning av heterogena sensorer på människokroppen. Direktkommunikation används för realtidstrafik (kritiska data) eller on-demand-data medan multi-hop-kommunikation används för normal dataöverföring. En av de främsta utmaningarna i WBASNs är att känna av värmen som genereras av de implanterade sensornoder. Den föreslagna routing algoritmen är termiskt medveten som känner av länken Hot-spot och leder data bort från dessa länkar. Ständig rörlighet i människokroppen orsakar urkoppling mellan tidigare etablerade länkar. Mobilitetsstöd och energiförvaltning införs därför för att lösa problemet. Linjär programmering (LP) modell för maximal informationsutvinning och minimal energiförbrukning presenteras i denna studie. MATLAB-simuleringar av föreslagna routingalgoritm utförs för livstid och framgångsrik paketleverans i jämförelse med multihopkommunikation. Resultaten visar att den föreslagna routingalgoritmen har mindre energiförbrukning och mer pålitlig jämfört med multihopkommunikation. | I REF föreslår författarna Mobility-supporting Adaptive Threshold-based Thermal-aware Energy-efficient Multi-hop Protocol (M-ATTEMPT) för WBASNs. | 2,672,637 | M-ATTEMPT: A New Energy-Efficient Routing Protocol for Wireless Body Area Sensor Networks | {'venue': '4th International Conference on Ambient Systems, Networks and Technologies (ANT), 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,488 |
ABSTRACT Fog computing-förstärkt Internet of Things (IoT) har nyligen fått stor uppmärksamhet, eftersom de dim enheter som används vid nätverkskanten inte bara kan ge låg latens, platsmedvetenhet men också förbättra realtid och kvalitet på tjänster i IoT-tillämpningar scenarier. Sekretessbevarande dataaggregation är en av typiska dimdataapplikationer i sakernas internet, och många integritetsbevarande dataaggregation system har föreslagits under de senaste åren. De flesta av dem stöder dock endast dataaggregation för homogena IoT-enheter, och kan inte aggregera hybrida IoT-enheters data till en i vissa riktiga IoT-program. För att ta itu med denna utmaning, i detta dokument, presenterar vi en lätt sekretessbevarande data aggregeringssystem, som kallas Lättvikt Privacy-bevarande Data Aggregation, för dimma computing-förstärkt sakernas internet. Den föreslagna LPDA kännetecknas av att använda homomorphic Paillier kryptering, kinesiska Remainder Theorem, och enkelriktad hash kedja tekniker att inte bara aggregera hybrid IoT-enheter data till en, men också tidigt filter injicerade falska data vid nätverkskanten. Detaljerad säkerhetsanalys visar att LPDA är riktigt säker och integritet-förstärkt med differential integritet tekniker. Dessutom genomförs omfattande resultatutvärderingar, och resultaten indikerar att LPDA är riktigt lättviktig i dimma computing-förstärkt sakernas internet. INDEX TERMS Internet of Things, dimma dator, sekretessbevarande aggregering, lätt, differential integritet. | Liknande arbete utfördes av Lu et al. REF, som utvecklat ett lättbevarande system för dataaggregation, så kallat lättbesparande dataaggregation (LDPA). | 33,865,935 | A Lightweight Privacy-Preserving Data Aggregation Scheme for Fog Computing-Enhanced IoT | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 82,489 |
Nyligen, neurala nätverk modeller för naturligt språk bearbetning uppgifter har blivit alltmer fokuserad på för deras förmåga att minska bördan av manuell funktionsteknik. I detta dokument föreslår vi en ny neural nätverksmodell för kinesisk ordsegmentering som kallas Max-Margin Tensor Neural Network (MMTNN). Genom att utnyttja tagginbäddningar och tensorbaserad omvandling har MMTNN förmågan att modellera komplicerade interaktioner mellan taggar och kontexttecken. Dessutom föreslås en ny tensor factorization metod för att påskynda modellen och undvika övermontering. Experiment på referensdatasetet visar att vår modell uppnår bättre prestanda än tidigare neurala nätverksmodeller och att vår modell kan uppnå en konkurrenskraftig prestanda med minimal funktionsteknik. Trots att kinesiska ord segmentering är ett specifikt fall, kan MMTNN lätt generaliseras och tillämpas på andra sekvens märkning uppgifter. | Pei m.fl. I REF föreslogs ett Max-Margin Tensor Neural Network (MMTNN), där ett tensorskikt användes för att extrahera dolda kombinationer av funktioner. | 2,303,379 | Max-Margin Tensor Neural Network for Chinese Word Segmentation | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,490 |
Detta papper presenterar en enkel oövervakad lärande algoritm för att klassificera recensioner som rekommenderas (tummar upp) eller inte rekommenderas (tummar ner). Klassificeringen av en översyn förutses av den genomsnittliga semantiska orienteringen av fraserna i recensionen som innehåller adjektiv eller adverbs. En fras har en positiv semantisk orientering när den har goda associationer (t.ex. "subtle nyanser") och en negativ semantisk orientering när den har dåliga associationer (t.ex. "mycket cavalier"). I detta dokument beräknas en frass semantiska inriktning som den ömsesidiga informationen mellan den givna frasen och ordet "utmärkt" minus den ömsesidiga informationen mellan den givna frasen och ordet "dålig". En recension klassas som rekommenderad om den genomsnittliga semantiska orienteringen för dess fraser är positiv. Algoritmen uppnår en genomsnittlig noggrannhet på 74% när den utvärderas på 410 recensioner från Epinions, provtagna från fyra olika domäner (recensioner av bilar, banker, filmer och resedestinationer). Noggrannheten varierar från 84% för bilrecensioner till 66% för filmrecensioner. | Referensreferensreferensen presenterar en oövervakad inlärningsalgoritm för klassificeringen av en utvärdering som antingen positiv eller negativ. | 484,335 | Thumbs Up Or Thumbs Down? Semantic Orientation Applied To Unsupervised Classification Of Reviews | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,491 |
: i) Illustration av Z-teknologin. Det första fingret (höger hand i exemplet) används för direkt positionering i kameraplanet medan det andra fingret (vänster hand) används för djuppositionering på ett indirekt sätt. Bakåt-framåt rörelser flytta objektet längre eller närmare användaren. (ii och iii) Illustration av multi-touch viewport tekniken. Det första fingret (vänster hand) används för 2D-positionering i kameraplanet som motsvarar siktporten (ii) medan det andra fingret (höger hand) används för att flytta objektet längs den tredje koordinaten (iii). Den grå linjen används som visuell återkoppling för att representera den förskjutning som tillåts för det andra fingret. Multi-touch displayer representerar en lovande teknik för visning och manipulation av 3D-data. För att deras kapacitet skall kunna utnyttjas fullt ut måste lämpliga interaktionsmetoder utformas. I detta papper utforskar vi designen av fria 3D-positioneringstekniker för multi-touch-skärmar för att utnyttja de ytterligare grad av frihet som tillhandahålls av denna teknik. Vårt bidrag är tvåfaldigt: först presenterar vi en interaktionsteknik för att utöka den standard fyra vyportsteknik som finns i kommersiella CAD-applikationer, och för det andra introducerar vi en teknik som är utformad för att tillåta fri 3D-positionering med en enda vy över scenen. De två teknikerna utvärderades i ett preliminärt experiment. De första resultaten föranleder oss att dra slutsatsen att de två teknikerna är likvärdiga i fråga om prestanda som visar att Z-technique är ett verkligt alternativ till statu quo viewport-tekniken. | Martinet, Casiez och Grisoni REF utforskade utformningen av fria 3D-positioneringstekniker för multi-touch-skärmar för att utnyttja de ytterligare grad av frihet som tillhandahålls av multi-touch-teknik. | 1,852,921 | The design and evaluation of 3D positioning techniques for multi-touch displays | {'venue': '2010 IEEE Symposium on 3D User Interfaces (3DUI)', 'journal': '2010 IEEE Symposium on 3D User Interfaces (3DUI)', 'mag_field_of_study': ['Computer Science']} | 82,492 |
Kaffemaskin Bild 1: Vårt mål är att använda scenen före för att förbättra navigeringen i osynliga scener och mot nya objekt. (a) Det finns ingen mugg i synfältet hos agenten, men den troliga platsen för att hitta en mugg är skåpet nära kaffemaskinen. b) Agenten har inte sett en mango tidigare, men det visar att den mest sannolika platsen för att hitta en mango är kylskåpet eftersom liknande objekt som äpple också visas där. De mest sannolika platserna visas med den orange boxen. Hur navigerar människor till objekt i nya scener? Använder vi de semantiska/funktionella priors som vi har byggt under årens lopp för att effektivt söka och navigera? För att till exempel söka efter muggar söker vi i skåpen i närheten av kaffemaskinen och efter frukt provar vi kylskåpet. I detta arbete fokuserar vi på att införliva semantiska tidigare erfarenheter i uppgiften att semantisk navigering. Vi föreslår att man använder Graph Convolutional Networks för att införliva förkunskaperna i en ram för fördjupat lärande. Agenten använder funktionerna från kunskapsgrafen för att förutsäga åtgärderna. För utvärdering använder vi AI2-THOR-ramverket. Våra experiment visar hur semantisk kunskap förbättrar prestandan avsevärt. Ännu viktigare, vi visar förbättring i generalisering till osynliga scener och / eller objekt. Den kompletterande videon finns på följande länk: https://youtu.be/otKjuO805de. | Wei och Al. REF integrera semantiska och funktionella föregångare för att förbättra navigeringsprestanda och kan generalisera till osynliga scener och objekt. | 53,116,049 | Visual Semantic Navigation using Scene Priors | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,493 |
Vi föreslår ett nytt ramverk för att uppskatta generativa modeller via en kontradiktorisk process, där vi samtidigt utbildar två modeller: en generativ modell G som fångar datadistributionen, och en discriminativ modell D som uppskattar sannolikheten för att ett prov kommer från träningsdata snarare än G. Utbildningsförfarandet för G är att maximera sannolikheten för att D gör ett misstag. Detta ramverk motsvarar ett minimax 2-spelarspel. I utrymmet för godtyckliga funktioner G och D finns en unik lösning, där G återvinner träningsdatadistributionen och D är lika med 1 2 överallt. I det fall där G och D definieras av flerskiktsperceptroner kan hela systemet tränas med backpropagation. Det finns inget behov av någon Markov kedjor eller ovalsade approximativa inference nätverk under vare sig utbildning eller generering av prover. Experiment visar ramens potential genom kvalitativ och kvantitativ utvärdering av de producerade proven. | I generativa kontradiktoriska nätverk (GAN) REF, den generativa modellen lärs mot en motståndare och en discriminativ modell som lär sig att avgöra om ett prov är från modellen distribution eller datadistribution. | 1,033,682 | Generative Adversarial Nets | {'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,494 |
Ett antal studier har visat att dagens Visual Question Response (VQA) modeller är starkt driven av ytliga korrelationer i träningsdata och saknar tillräcklig bild jordning. För att uppmuntra utvecklingen av modeller inriktade på det senare föreslår vi en ny inställning för VQA där för varje frågetyp, tåg och testuppsättningar har olika tidigare fördelningar av svar. Specifikt presenterar vi nya uppdelningar av datauppsättningarna VQA v1 och VQA v2, som vi kallar Visual Question Answering under Changing Priors (VQA-CP v1 respektive VQA-CP v2). För det första utvärderar vi flera befintliga VQA-modeller under denna nya miljö och visar att deras prestanda försämras betydligt jämfört med den ursprungliga VQA-inställningen. För det andra föreslår vi en ny Grounded Visual Question Answering-modell (GVQA) som innehåller induktiva förutfattade meningar och begränsningar i arkitekturen speciellt utformad för att förhindra att modellen "fuskar" genom att främst förlita sig på tidigare i träningsdata. Särskilt skiljer GVQA uttryckligen igen igenkännandet av visuella begrepp som finns i bilden från identifieringen av rimligt svar utrymme för en given fråga, vilket gör det möjligt för modellen att mer robust generalisera mellan olika distributioner av svar. GVQA är byggd av en befintlig VQA-modell -Stacked Attention Networks (SAN). Våra experiment visar att GVQA betydligt överträffar SAN på både VQA-CP v1 och VQA-CP v2 dataset. Intressant nog överträffar den också kraftfullare VQA-modeller som Multimodal Compact Bilinear Pooling (MCB) i flera fall. GVQA erbjuder styrkor som kompletterar SAN när de tränas och utvärderas på de ursprungliga VQA v1 och VQA v2 dataseten. Slutligen är GVQA mer transparent och tolkningsbar än befintliga VQA-modeller. | Förutom att föreslå datasetet VQA-CP utformade REF en Grounded VQA-modell (GVQA) som innehåller handdesignade arkitektoniska begränsningar för att förhindra att modellen utnyttjar språkliga korrelationer i utbildningsdata. | 19,298,149 | Don't Just Assume; Look and Answer: Overcoming Priors for Visual Question Answering | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 82,495 |
Aspect-baserad känsloanalys (ABSA) försöker förutsäga polariteten i ett visst dokument med avseende på en viss aspektenhet. Medan neurala nätverk arkitekturer har varit framgångsrika i att förutsäga den totala polaritet meningar, aspektspecifika känslor analys fortfarande är ett öppet problem. I detta dokument föreslår vi en ny metod för att integrera aspektinformation i den neurala modellen. Mer specifikt införlivar vi aspekten information i den neurala modellen genom att modellera word-aspect relationer. Vår nya modell, Aspect Fusion LSTM (AF-LSTM) lär sig att delta baserat på associativa relationer mellan meningsord och aspekt som gör det möjligt för vår modell att anpassa sig till de korrekta orden som ges en aspektterm. Detta förstärker bristerna hos andra state-of-the-art modeller som använder naiva konkatender för att modellera ord-aspekt likhet. Istället antar vår modell cirkulär konvolution och cirkulär korrelation för att modellera likheten mellan aspekt och ord och elegant införlivar detta inom en differentierad neural uppmärksamhetsram. Slutligen är vår modell end-to-end differential och starkt relaterad till konvolution-korrelation (holografiska liknande) minnen. Vår föreslagna neuralmodell uppnår state-of-the-art prestanda på benchmarking datauppsättningar, outperforming ATAE-LSTM med 4% - 5% i genomsnitt över flera datauppsättningar. | REF lär sig att delta baserat på associativa relationer mellan meningsord och aspekt. | 5,824,248 | Learning to Attend via Word-Aspect Associative Fusion for Aspect-based Sentiment Analysis | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 82,496 |
Kombinationen av globala och partiella funktioner har varit en viktig lösning för att förbättra diskriminativa prestationer i personåteridentifieringsuppgifter (Re-ID). Tidigare delbaserade metoder fokuserar främst på att lokalisera regioner med specifika fördefinierade semantik för att lära sig lokala representationer, vilket ökar inlärningssvårigheter men inte effektiva eller robusta för scenarier med stora variationer. I detta dokument föreslår vi en end-to-end-strategi för lärande som integrerar diskriminerande information med olika detaljrikedomar. Vi designar noggrant Multiple Granularity Network (MGN), en multi-branch djup nätverk arkitektur som består av en gren för globala funktioner representationer och två grenar för lokala funktioner representationer. Istället för att lära oss om semantiska regioner delar vi upp bilderna jämnt i flera ränder, och varierar antalet delar i olika lokala grenar för att få lokala funktionsrepresentationer med flera granulariteter. Omfattande experiment som genomförts på de vanliga utvärderingsdataseten inklusive Market-1501, DukeMTMC-reid och CUHK03 indikerar att vår metod på ett robust sätt uppnår toppmoderna prestationer och överträffar alla befintliga metoder med stor marginal. Till exempel, på Market-1501 dataset i ett enda frågeläge, får vi ett toppresultat av Rank-1/mAP=96,6%/94,2% med denna metod efter omplacering. | Wang m.fl. I REF föreslogs ett multigranularity nätverk (MGN), som lär sig diskriminerande funktioner med flera granularitet genom att kombinera flera block system för fotgängare bilder. | 4,591,954 | Learning Discriminative Features with Multiple Granularities for Person Re-Identification | {'venue': "MM '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,497 |
Vi utvecklar och analyserar en ny familj av pseudorandom generatorer för polynom tröskelfunktioner med avseende på Gaussian distribution. I synnerhet, för varje fast grad vi utvecklar en generator vars utsädeslängd är subpolynomial i felparametern,. Vi får särskilt fina resultat för grad 1 och grad 2 tröskelfunktioner, i vilka fall vår utsädeslängd är O(log(n) + log 3/2 (1/ )) respektive exp(O (log 2/3 (1/ ) ). | För Gaussian distribution, REF gav en PRG som uppnår en sålängd av O(log n + log 3/2 (1/ε)). | 2,042,353 | A Pseudorandom Generator for Polynomial Threshold Functions of Gaussian with Subpolynomial Seed Length | {'venue': '2014 IEEE 29th Conference on Computational Complexity (CCC)', 'journal': '2014 IEEE 29th Conference on Computational Complexity (CCC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,498 |
Abstract-Med hög expansibilitet och effektiv strömförbrukning, nivåindelade trådlösa sensornätverk är brett utplacerade inom många områden som en viktig del av Internet of Things (IoTs). Det är en utmaning att behandla frågor och samtidigt skydda känsliga data från motståndare. Dessutom är det mesta av det befintliga arbetet inriktat på integritetsbevarande frågor som försummar samverkansattacker och sannolikhetsattacker, som är mer hotande för nätverkssäkerheten. I detta dokument, föreslår vi först ett säkert område frågeprotokoll som kallas SecRQ, som inte bara skyddar dataintegritet, men också motstår samverkan attacker och sannolikhet attacker i skiktade trådlösa sensornätverk. Generaliserade inversa matriser och avståndsbaserade sökmekanism används för att garantera säkerhet samt hög effektivitet och noggrannhet. Dessutom föreslår vi ett system för ömsesidig kontroll för att kontrollera frågeresultatens integritet. Slutligen bekräftar både teoretisk analys och experimentella resultat säkerheten, effektiviteten och noggrannheten hos secRQ. | I REF, Dong och Chen et al. föreslagna SecRQ, som inte bara skyddar integriteten av data, men också överväga samverkan attacker och sannolikhet attacker i två nivåer WSNs. | 6,772,157 | A Secure Collusion-Aware and Probability-Aware Range Query Processing in Tiered Sensor Networks | {'venue': '2015 IEEE 34th Symposium on Reliable Distributed Systems (SRDS)', 'journal': '2015 IEEE 34th Symposium on Reliable Distributed Systems (SRDS)', 'mag_field_of_study': ['Computer Science']} | 82,499 |
Abstrakt. I detta dokument introduceras teknik för uppgiftstilldelning med klusterering och lastbalansering på Internet till området för bildbehandling av jobballokering av alternativa big data. Den konstruerar och förverkligar en belastningsbalanserande klusterarkitektur för alternativa big data, och en förbättrad lastbalanseringsalgoritm som är tillämplig på storskalig bildbehandling. De experimentella resultaten visar att klusterarkitekturen kan utföra uppgiftstilldelning och databehandling kontinuerligt och stabilt, och den förbättrade lastbalanseringsalgoritmen kan förbättra bearbetningseffektiviteten cirka 10% och mer. | I REF, Jin Xiaohong et al. har infört teknik för uppgiftstilldelning med klusterering och lastbalansering på Internetområdet till området för bildbehandling av jobballokering av alternativa big data. | 55,659,649 | A Study on Load Balancing Techniques for Task Allocation in Big Data Processing | {'venue': 'Proceedings of the 2016 International Forum on Mechanical, Control and Automation (IFMCA 2016)', 'journal': 'Proceedings of the 2016 International Forum on Mechanical, Control and Automation (IFMCA 2016)', 'mag_field_of_study': ['Computer Science']} | 82,500 |
Nya online-tjänster är starkt beroende av automatisk personalisering för att rekommendera relevant innehåll till ett stort antal användare. Detta kräver att systemen ska skalas snabbt för att tillgodose strömmen av nya användare som besöker onlinetjänsterna för första gången. I detta arbete föreslår vi ett innehållsbaserat rekommendationssystem för att ta itu med både rekommendationens kvalitet och systemets skalbarhet. Vi föreslår att använda en rik funktionsuppsättning för att representera användare, enligt deras webbsurfhistorik och sökfrågor. Vi använder en Deep Learning-strategi för att kartlägga användare och objekt till ett latent utrymme där likheten mellan användare och deras föredragna objekt maximeras. Vi utökar modellen för att gemensamt lära av funktioner i objekt från olika domäner och användarfunktioner genom att införa en multi-view Deep Learning-modell. Vi visar hur man kan göra denna rika-feature-baserade användarrepresentation skalbar genom att minska dimensionen av indata och mängden utbildningsdata. Den rika användarfunktion representation gör det möjligt för modellen att lära sig relevanta användarbeteende mönster och ge användbara rekommendationer för användare som inte har någon interaktion med tjänsten, med tanke på att de har lämplig sökning och webbhistorik. Kombinationen av olika domäner till en enda modell för lärande hjälper till att förbättra rekommendationskvaliteten i alla domäner, samt att ha en mer kompakt och semantiskt rikare användare latent funktion vektor. Vi experimenterar med vår strategi på tre verkliga rekommendationssystem förvärvade från olika källor av Microsoft-produkter: Windows Apps rekommendation, Nyheter rekommendation, och Movie / TV rekommendation. Resultaten visar att vår strategi är betydligt bättre än toppmoderna algoritmer (upp till 49% förbättring på befintliga användare och 115% förbättring på nya användare). Dessutom visar experiment på en offentligt öppen datauppsättning också överlägsenheten av vår metod i jämförelse med övergångsgenerativa ämnesmodeller, för modell- * Arbetat på Microsoft Research under författarens sommarpraktik. ............................................................................................................................................. Skalbarhetsanalys visar att vår multi-view DNN-modell enkelt kan skalas till att omfatta miljontals användare och miljarder poster. Experimentella resultat bekräftar också att kombination av funktioner från alla domäner ger mycket bättre prestanda än att bygga separata modeller för varje domän. | För att övervinna begränsningarna i linjära klusterbaserade strategier, Elkahky et al. I REF föreslås en strategi för fördjupat lärande med flera synvinklar för innehållsbaserad rekommendation inom olika områden. | 14,936,990 | A Multi-View Deep Learning Approach for Cross Domain User Modeling in Recommendation Systems | {'venue': "WWW '15", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,501 |
Vi studerar ett one-hop-enhet-till-enhet (D2D)-stödd trådlöst cachenätverk, där populära filer är slumpmässigt och självständigt cachad i minnet av slutanvändare. Varje användare kan få de begärda filerna från sitt eget minne utan överföring, eller från en hjälpare genom en D2D-överföring i ett enda steg, eller från basstationen. Vi formulerar en gemensam D2D-länk schemaläggning och kraftfördelning problem för att maximera systemets genomströmning. Problemet är dock inte konvext, och det är svårt att få fram en optimal lösning. Alternativt, vi sönderdela problemet i en D2D-länk schemaläggning problem och en optimal effekt tilldelning problem. För att lösa de två underproblemen utvecklar vi först en D2D-länkschemaläggningsalgoritm för att välja det största antalet D2D-länkar som uppfyller både signalen till interferens plus brusförhållande och sändningseffektbegränsningarna. Sedan utvecklar vi en optimal kraftalgoritm för att maximera den minsta överföringshastigheten för de schemalagda D2D-länkarna. Numeriska resultat indikerar att både antalet schemalagda D2D-länkar och systemets genomströmning kan förbättras samtidigt med zipf-distribution cachesystemet, den föreslagna D2D-länk-schemaläggning algoritm, och den föreslagna optimal effektalgoritm jämfört med tillståndet för konsten. | Zhang m.fl. REF föreslår en gemensam D2D-länkplanerings- och krafttilldelningsalgoritm för att maximera systemgenomströmningen. | 4,852,848 | Efficient Scheduling and Power Allocation for D2D-Assisted Wireless Caching Networks | {'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,502 |
Abstract-I detta dokument, vi tar itu med problemet med att besvara kontinuerliga rutt planering frågor över ett vägnät, i närvaro av uppdateringar av förseningar (kostnad) uppskattningar av länkar. En enkel strategi för detta problem skulle vara att omkompilera den bästa vägen för alla frågor vid ankomsten av varje uppdatering av förseningar. Men ett sådant naivt tillvägagångssätt skakar dåligt när det finns många användare som har begärt rutter i systemet. I stället föreslår vi två nya klasser av approximativa tekniker -K-vägar och närhetsåtgärder för att avsevärt påskynda behandlingen av den uppsättning angivna rutter som anges genom kontinuerliga linjeplaneringsfrågor inför inkommande trafikfördröjningsuppdateringar. Våra tekniker arbetar genom en kombination av precomputation av troliga bra vägar och genom att undvika fullständiga omräkningar på varje delay update, istället bara skicka användaren nya rutter när förseningar förändras avsevärt. Baserat på en experimentell utvärdering med 7.000 enheter från riktiga taxibilar, fann vi att de rutter som levereras av våra tekniker ligger inom 5% av den bästa kortaste vägen och har kört gånger en storleksordning eller mindre jämfört med en naiv strategi. | Vägplaneringsreferensdokumentet syftar till att hitta den kortaste vägen i närvaro av uppdateringar av de uppskattade förseningarna. | 9,668,761 | A continuous query system for dynamic route planning | {'venue': '2011 IEEE 27th International Conference on Data Engineering', 'journal': '2011 IEEE 27th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']} | 82,503 |
I detta dokument fastställs nyttan av användarsamarbete för att underlätta säker trådlös kommunikation. I synnerhet införs den fyra-terminala relä-eavesdropperkanalen och en ytter-bunden på den optimala hastighets-ekvikation regionen härleds. Därefter utarbetas flera samarbetsstrategier, och motsvarande region kännetecknas av att det går att uppnå en rimlig avkastningsgrad. Av särskilt intresse är den nya buller-framkallning (NF) strategi, där relä noden skickar codewords oberoende av källan meddelandet för att förvirra tjuvlyssnaren. Denna strategi används för att illustrera det döva hjälparfenomenet, där reläet kan underlätta säker kommunikation samtidigt som det är helt okunnigt om de överförda meddelandena. Dessutom har NF visat sig öka sekretesskapaciteten i det omvänt försämrade scenariot, där relänoden inte erbjuder resultatvinster i den klassiska miljön. Den vinst som erbjuds av de föreslagna samarbetsstrategierna bevisas sedan teoretiskt och valideras numeriskt i additiv vit Gaussian brus (AWGN) kanal. | Lai och Gamal Ref föreslog flera samarbetsstrategier för att underlätta säker trådlös kommunikation och erhöll motsvarande uppnåeliga prestandagränser. | 3,266,214 | The Relay–Eavesdropper Channel: Cooperation for Secrecy | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,504 |
Genomträngande datormiljöer är befolkade med nätverksbaserad programvara och maskinvaruresurser som tillhandahåller olika funktioner som är abstrakta, tack vare Service Oriented Architecture paradigm, som tjänster. I dessa miljöer är tjänsteupptäckter som möjliggörs av protokoll för tjänsteupptäckter (SDP) en viktig funktion för att upprätta ad hoc-förbindelser mellan tjänsteleverantörer och tjänsteförfrågningar. Dessutom kräver dynamiken, öppenheten och den användarcentrerade vision som det genomträngande datorparadigmet syftar till lösningar som möjliggör rik, semantisk, kontext- och QoS-medveten tjänsteupptäckt. Även om det semantiska webbparadigmet föreställer sig att uppnå ett sådant stöd, är nuvarande lösningar knappast användbara i den genomträngande miljön på grund av det kostsamma underliggande semantiska resonemanget med ontologier. I den här artikeln presenterar vi EASY för att stödja effektiv, semantisk, kontext- och QoS-medveten service upptäckt på toppen av befintliga SDPs. EASY tillhandahåller EASY-L, ett språk för semantisk specifikation av funktionella och icke-funktionella tjänsteegenskaper, samt EASY-M, en motsvarande uppsättning överensstämmelserelationer. Dessutom tillhandahåller EASY lösningar för att effektivt bedöma överensstämmelsen mellan tjänsternas kapacitet. Dessa lösningar bygger på en effektiv kodningsteknik, samt på en effektiv organisation av servicearkiv (caches), som möjliggör både snabb servicereklam och upptäckt. Experimentella resultat visar att införandet av EASY på toppen av en befintlig SDP, nämligen Ariadne, förbättra det endast med små förändringar av EASY-Ariadne, möjliggör rik semantisk, kontext-och QoS-medveten tjänstefyndighet, som dessutom presterar bättre än den klassiska, stela, syntaktisk matchning, och förbättrar skalbarheten av Ariadne. | Ett annat arbete REF utvecklar en lösning ovanpå de befintliga SDP för effektiv, semantisk service upptäckt som är kontext-medveten och QoS-medveten. | 8,585,393 | EASY: Efficient SemAntic Service DiscoverY in Pervasive Computing Environments with QoS and Context Support | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,505 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med | Senare introducerar RCNN Ref nätverket för regionförslag (RPN) i nätverket. | 10,328,909 | Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 82,506 |
Abstrakt. Sättet för en multiuppsättning av etiketter, är en etikett som förekommer minst lika ofta som någon annan etikett. Inmatningen till intervallet läge problemet är en array A av storlek n. En område fråga [i, j] måste returnera läget för subarray. Vi bevisar att någon datastruktur som använder S-minnesceller av w bits behöver och ( log n log(Sw/n) ) tid för att svara på en rad mode fråga. För det andra anser vi att det relaterade intervallet k-frekvens problem. Inmatningen till detta problem är en array A av storlek n, och en fråga [i, j] måste returnera om det finns en etikett som inträffar exakt k gånger i delarray. Vi visar att för varje konstant k > 1, detta problem motsvarar 2D ortogonal rektangel stickning, och att för k = 1 är detta inte svårare än fyrsidig 3D ortogonal räckvidd tomhet. Slutligen anser vi ungefärliga avstånd läge frågor. En c-ungefärlig område läge fråga måste returnera en etikett som inträffar minst 1/c gånger det av läget. Vi beskriver en linjär rymddatastruktur som stöder 3-ungefärliga avstånd läge frågor i konstant tid, och en datastruktur som använder O( n ε ) utrymme och stöder (1 + ε)-uppskattning frågor i O(log 1 ε ) tid. | Greve m.fl. REF visar en lägre gräns för ( lg n lg ( sw n ) ) frågetid för alla intervall läge fråga datastruktur som använder sina minnesceller av w bitar. | 17,927,743 | Cell probe lower bounds and approximations for range mode | {'venue': 'In Proc. 37th International Colloquium on Automata, Languages, and Programming', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,507 |
mobilt ad hoc-nät (MANET) är ett autonomt system av mobila värdar (som även fungerar som routers) som är anslutna via trådlösa länkar, vars union bildar ett kommunikationsnät som är modellerat i form av en godtycklig kommunikationskurva [1]. Detta står i kontrast till den välkända cellulära enhop-nätmodellen som stöder behovet av trådlös kommunikation genom att installera basstationer som accesspunkter. I cellulära nätverk är kommunikationen mellan två mobila noder helt beroende av den trådbundna ryggraden och fasta basstationer. I en MANET finns ingen sådan infrastruktur, och nätverket topologin kan dynamiskt förändras på ett oförutsägbart sätt eftersom noder är fria att flytta. Multicasting är överföring av datagram till en grupp värdar som identifieras med en enda destinationsadress och är därför avsedd för grupporienterad databehandling. I MANETS kan multicasting effektivt stödja en mängd olika tillämpningar som kännetecknas av nära samarbete. Tänk på det scenario där en användare går med en handhållen enhet eller väntar på en flygning i en flygplatsterminal. Han/hon känner inte till sin granne och slår på den handhållna enheten och försöker skanna nätverket för att upptäcka om någon skulle vara intresserad av att spela spel eller starta en liknande applikation av intresse. Denna typ av "gemenskapscentrerade" tillämpning är tänkt att dra till sig mycket uppmärksamhet i datakommunikationsvärlden i en nära framtid. Detta är en typisk ad hoc-nätapplikation, där användare är mobila och en intressegemenskap bildas på begäran med hjälp av bärbara enheter. Det finns många applikationer av MANETS; e-post och filöverföring kan anses lätt att distribuera i en ad hoc-nätverksmiljö. Webbtjänster är också möjliga om någon nod i nätverket kan fungera som en inkörsport till resten av världen. Vi behöver inte betona det breda spektrum av militära tillämpningar som är möjligt med ad hoc-nät eftersom tekniken ursprungligen utvecklades med dem i åtanke, såsom ett slagfält på okänt territorium där ett infrastrukturnät nästan är omöjligt att ha eller underhålla. I sådana situationer kan MANETS, med självorganiserande förmåga, användas effektivt om andra tekniker antingen misslyckas eller inte kan användas effektivt. Avancerade funktioner i trådlösa mobilsystem, inklusive datahastigheter som är kompatibla med multimediatillämpningar, global roamingkapacitet och samordning med andra nätverksstrukturer, möjliggör nya tillämpningar. Därför, om vi effektivt kan kombinera funktionerna i en MANET med nyttan av multicasting, kommer det att vara möjligt att förverkliga ett antal tänkta grupp-orienterade applikationer. Med detta i åtanke, denna artikel ger information om den aktuella tekniken i multicast protokoll för MANETS, och jämför dem med avseende på flera prestandamått. Vi försöker också ge insikt i framtida trender på området och skissera de strategier som sannolikt kommer att spela en viktig roll, samt peka på öppna problem som kräver noggrann uppmärksamhet från forskarsamhället. Det kan noteras att det finns en stor mängd litteratur på multicast i A Carlos de Morais Cordeiro, Hrishikesh Gossain och Dharma P. Agrawal University of Cincinnati Nya framsteg inom bärbara datorer och trådlös teknik öppnar upp spännande möjligheter för framtiden för trådlösa mobila nätverk. Ett mobilt ad hoc-nät består av mobila plattformar som är fria att flytta godtyckligt. I en MANET noderna är mobila, och internode anslutning kan ändras ofta på grund av rörlighet av noder. Nyligen har det funnits en ökande efterfrågan på applikationer som multiplayer online gaming, där spelare som är bosatta på olika platser deltar i samma spelsession genom sina handhållna bärbara enheter. Sådana tillämpningar kännetecknas av en nära grad av samarbete, vilket är typiskt för ad hoc-nätscenarier. Multicasting skulle kunna visa sig vara ett effektivt sätt att tillhandahålla nödvändiga tjänster för denna typ av tillämpningar, och det är därför absolut nödvändigt att fastställa vilket som är det bästa sättet att tillhandahålla dessa tjänster i en ad hoc-miljö. På grund av mycket varierande krav på tillämpningarna och ad hoc-nätverkens oförutsägbara karaktär är det nödvändigt att undersöka och urskilja tillämpligheten av befintliga ad hoc-protokoll och kvantifiering som är mer lämplig för vilken typ av tillämpningar. I den här artikeln ger vi en detaljerad beskrivning och jämförelse av ad hoc multicast protokoll. Vi hoppas också att den diskussion som presenteras här kommer att vara till hjälp för programutvecklare att välja en lämplig multicast protokoll och bana väg för ytterligare forskning. Multicast over Wireless Mobile Ad Hoc Networks: Nuvarande och framtida Vägbeskrivning | Liknande som mobila ad hoc-nätverk (MANETS) REF, är ett trådlöst mesh-nätverk också en typ av självorganiserande trådlöst nätverk. | 5,817,421 | Multicast over Wireless Mobile Ad Hoc Networks: Present and Future Directions | {'venue': 'IEEE Network', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,508 |
Vi identifierar och fyller vissa luckor när det gäller konsekvens (i vilken utsträckning falska positiva resultat produceras) för kryptering med öppen nyckel med sökordssökning (PEKS). Vi definierar beräkningsmässiga och statistiska lättnader av den befintliga uppfattningen om perfekt konsekvens, visar att systemet [7] är beräkningsmässigt konsekvent, och ger ett nytt system som är statistiskt konsekvent. Vi erbjuder också en omvandling av ett anonymt IBE-system till ett säkert PEKS-system som, till skillnad från det tidigare, garanterar konsekvens. Slutligen föreslår vi tre tillägg av de grundläggande begrepp som behandlas här, nämligen anonym HIBE, öppen nyckelkryptering med tillfällig sökordssökning och identitetsbaserad kryptering med sökordssökning. | I REF definierade författarna beräkningsmässig och statistisk uppmjukning av den befintliga uppfattningen om perfekt överensstämmelse och tillhandahöll ett nytt system som var statistiskt konsekvent. | 9,170,287 | Searchable Encryption Revisited: Consistency Properties, Relation to Anonymous IBE, and Extensions | {'venue': 'J. Cryptology', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,509 |
Betydelsens sammansättning sträcker sig utöver den enda meningen. Precis som ord kombineras för att bilda meningar, så kombineras meningar för att bilda innebörden av stycken, dialoger och allmän diskurs. Vi introducerar både en meningsmodell och en diskursmodell som motsvarar de två nivåerna av kompositionalitet. Meningen modellen antar convolution som den centrala operation för att komponera semantiska vektorer och är baserad på en ny hierarkisk convolutional neurala nätverk. Diskursens modell förlänger meningsmodellen och bygger på ett återkommande neuralt nätverk som är betingat på ett nytt sätt både på den nuvarande meningen och på den nuvarande talaren. Diskursmodellen kan fånga både meningarnas sekventiellhet och samspelet mellan olika talare. Utan funktionsteknik eller förträning och med enkel girig avkodning får diskursmodellen kopplad till meningsmodellen toppmodern prestanda på en dialog akt klassificering experiment. | För att försöka fånga upp interaktioner mellan talare använde Kalchbrenner och Blunsom REF en Hierarchisk CNN meningsmodell i samband med en RNN diskursen modell och villkora återkommande och utgående vikter på den aktuella talaren. | 10,691,183 | Recurrent Convolutional Neural Networks for Discourse Compositionality | {'venue': 'CVSC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,510 |
Vi presenterar ett nytt tillvägagångssätt för relationsextraktion, baserat på observationen att den information som krävs för att hävda ett förhållande mellan två namngivna enheter i samma mening vanligtvis fångas av den kortaste vägen mellan de två enheterna i beroendekurvan. Experiment om att extrahera relationer på toppnivå från tidningen ACE (Automated Content Extraction) visar att den nya kortaste vägen beroende kärna överträffar en ny metod baserad på beroende trädkärnor. | 2005 föreslog Bunescu och Mooney REF en kärna baserad på den kortaste vägen mellan enheter i ett beroendediagram. | 5,165,854 | A Shortest Path Dependency Kernel For Relation Extraction | {'venue': 'Human Language Technology Conference And Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,511 |
Varje ögonblick räknas i åtgärdsigenkänning. En omfattande förståelse av mänsklig aktivitet i video kräver märkning av varje ram enligt de åtgärder som sker, placera flera etiketter tätt över en videosekvens. För att studera detta problem utökar vi det befintliga THUMOS-datasetet och introducerar MultiTHUMOS, en ny dataset med täta etiketter över okonstruerade internetvideor. Modellering av flera, täta etiketter har nytta av tidsbundna relationer inom och mellan olika klasser. Vi definierar en ny variant av långtidsminnesdjupa nätverk för modellering av dessa tidsrelationer via flera ingångs- och utgångsanslutningar. Vi visar att denna modell förbättrar precisionen för att märka åtgärder och ytterligare möjliggör djupare förståelse av uppgifter som sträcker sig från strukturerad hämtning till förutsägelse av åtgärder. | REF använder uppmärksamhetsmekanism för att noggrant märka åtgärder i en videosekvens. | 3,337,929 | Every Moment Counts: Dense Detailed Labeling of Actions in Complex Videos | {'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']} | 82,512 |
Att känna till sekvensens särdrag hos DNA- och RNA-bindande proteiner är viktigt för att utveckla modeller av de regulatoriska processerna i biologiska system och för att identifiera kausala sjukdomsvarianter. Här visar vi att sekvensens särdrag kan fastställas från experimentella data med "djup inlärning" tekniker, som erbjuder en skalbar, flexibel och enhetlig beräkningsmetod för mönster upptäckt. Med hjälp av en mängd olika experimentella data och utvärderingsmått, finner vi att djupinlärning överträffar andra state-of-the-art metoder, även när utbildning på in vitro-data och testning på in vivo-data. Vi kallar detta tillvägagångssätt DeepBind och har byggt en fristående programvara verktyg som är helt automatisk och hanterar miljontals sekvenser per experiment. Specificiteter som bestäms av DeepBind visualiseras lätt som en viktad ensemble av positionsviktmatriser eller som en "mutationskarta" som anger hur variationer påverkar bindningen inom en viss sekvens. DNA- och RNA-bindande proteiner spelar en central roll i genregleringen, inklusive transkription och alternativ skarvning. De sekvensspecifika egenskaperna hos ett protein karakteriseras oftast med hjälp av positionsviktmatriser 1 (PWMs), som är lätta att tolka och kan skannas över en genomisk sekvens för att upptäcka potentiella bindningsställen. Men växande bevis tyder på att sekvensens särdrag kan mer exakt fångas upp av mer komplexa tekniker 2-5. Nyligen har "djupt lärande" uppnått rekordhöga resultat i en rad olika IT-tillämpningar 6,7. Vi anpassade djupt lärande metoder till uppgiften att förutsäga sekvens särdrag och fann att de konkurrerar gynnsamt med den senaste tekniken. Vårt tillvägagångssätt, som kallas DeepBind, är baserat på djupa konvolutionella neurala nätverk och kan upptäcka nya mönster även när platserna för mönster inom sekvenser är okända-en uppgift för vilken traditionella neurala nätverk kräver en orimlig mängd träningsdata. Det finns flera utmanande aspekter i lärande modeller av sekvensspecifikitet med hjälp av modern teknik med hög genomströmning. För det första kommer uppgifterna i kvalitativt olika former. Proteinbindande mikroarrayer (PBM) 8 och RNAcompetitive analyser 9 ger en specificitetskoefficient för varje sondsekvens, medan kromatin immunoprecipitation (ChIP)-seq 10 ger en rangordnad lista över putativt bundna sekvenser av varierande längd, och HT-SELEX 11 genererar en uppsättning av mycket hög affinitet sekvenser. För det andra är mängden data stor. Ett typiskt experiment med hög genomströmning mäter mellan 10.000 och 100.000 sekvenser, och det är computationally krävande att införliva dem alla. För det tredje har varje datainsamlingsteknik sina egna artefakter, förutfattade meningar och begränsningar, och vi måste upptäcka de relevanta särdragen trots dessa oönskade effekter. Till exempel, ChIP-seq läser ofta lokalisera till "hyper-ChIPable" regioner av genomet nära högt uttryckta gener 12. DeepBind (Fig. 1) tar upp de ovannämnda utmaningarna. (i) Det kan tillämpas på både mikroarray- och sekvensdata, (ii) det kan lära sig av miljontals sekvenser genom parallell implementering på en grafikbearbetningsenhet (GPU), (iii) det generaliserar bra över teknik, även utan att korrigera för teknikspecifika fördomar, (iv) det kan tolerera en måttlig grad av buller och felmärkt utbildningsdata, och (v) det kan träna prediktiva modeller helt automatiskt, lindra behovet av noggrann och tidskrävande hand-tuning. Viktigt är att en utbildad modell kan appliceras och visualiseras på sätt som är bekanta för användare av PWMs. Vi undersökte två nedströmstillämpningar: att avslöja den regulatoriska rollen av RNA-bindande proteiner (RBP) i alternativ skarvning, och analysera sjukdomsassocierade genetiska varianter som kan påverka transkriptionsfaktorbindning och genuttryck. RESULTAT För träning använder DeepBind en uppsättning sekvenser och, för varje sekvens, en experimentellt bestämd bindningspoäng. Sekvenser kan ha varierande längd (14-101 nt i våra experiment), och bindningspoäng kan vara real-värderade mätningar eller binära klassetiketter. För en sekvens s beräknar DeepBind en bindningspoäng f (s) med hjälp av fyra steg: Konvolutionssteget (conv M ) skannar en uppsättning motivdetektorer med parametrar M över sekvensen. Motif detektor M k är en 4 × m matris, ungefär som en PWM av längd m men utan att kräva koefficienter för att vara sannolikheter eller log odds förhållande. Rättningsfasen isolerar positioner med ett bra mönster som matchar genom att flytta detektorns svar M k genom b k och klämma fast alla negativa värden till noll. Poolingscenen beräknar maximum och medelvärde av varje motivdetektors rektifierade respons över hela sekvensen; maximering hjälper till att identifiera förekomsten av längre motiv, medan medelvärde hjälper till att | Neurala nätverk har tillämpats för att adressera epistasis för epigenomiska data, såsom att förutsäga sekvens särdrag proteinbindningar givna DNA-sekvenser REF. | 3,204,652 | Predicting the sequence specificities of DNA- and RNA-binding proteins by deep learning | {'venue': 'Nature Biotechnology', 'journal': 'Nature Biotechnology', 'mag_field_of_study': ['Biology', 'Medicine']} | 82,513 |
Med tanke på den ökande spridningen av molndatacentrum och den överdrivna användningen av serverresurser ökar också deras tillhörande energi- och miljöeffekter i alarmerande takt. Leverantörer av molntjänster är under enorm press att avsevärt minska båda dessa konsekvenser för att främja gröna datorer. Att upprätthålla den önskade nivån på tjänsternas kvalitet (QoS) utan att bryta mot servicenivåavtalet (SLA), samtidigt som man försöker minska användningen av datacenterresurserna är en uppenbar utmaning för molntjänstleverantörerna. Skalning av nivån på aktiva serverresurser i enlighet med den förväntade inkommande arbetsbelastningen är ett möjligt sätt att minska den oönskade energiförbrukningen för de aktiva resurserna utan att påverka prestandakvaliteten. I detta syfte analyserar detta dokument de dynamiska egenskaperna hos molnets arbetsbelastning och definierar en hierarki för latenskänslighetsnivåer för molnets arbetsbelastning. Vidare föreslås en ny modell för arbetsbelastningsförutsägelse för energieffektiv Cloud Computing, som heter RVLBPNN (Rand Variable Learning Rate Backpropagation Neural Network) baserat på BPN (Backpropagation Neural Network). Experiment som utvärderar prediktionsnoggrannheten hos den föreslagna prediktionsmodellen visar att RVLBPNN uppnår en förbättrad prediktionsnoggrannhet jämfört med modellerna HMM och Naïve Bayes Classifier med betydande marginal. | Lu m.fl. REF föreslog en arbetsbörda förutsägelse modell RVLBPN (Rand Variable Learning Rate Backpropagation Neural Network) baserat på BPN algoritm, som uppnår högre förutsägelse noggrannhet än den dolda Markov modellen och den naiva Bayes klassificerare. | 21,404,323 | RVLBPNN: A Workload Forecasting Model for Smart Cloud Computing | {'venue': 'Scientific Programming', 'journal': 'Scientific Programming', 'mag_field_of_study': ['Computer Science']} | 82,514 |
Vi beskriver trädredigeringsmodeller för att representera sekvenser av trädomvandlingar med komplexa omordningsfenomen och visar att de erbjuder en enkel, intuitiv och effektiv metod för att modellera par av semantiskt relaterade meningar. För att effektivt extrahera sekvenser av redigeringar använder vi en trädkärna som en heuristisk i en girig sökrutin. Vi beskriver en logistisk regressionsmodell som använder 33 syntaktiska funktioner i redigeringssekvenser för att klassificera meningsparen. Metoden leder till konkurrenskraftiga resultat när det gäller att erkänna textförståelse, parafrasidentifiering och svarsval för svar på frågor. | Heilman och Smith REF utvecklade en förbättrad trädredigeringsavståndsmodell för att lära trädomvandlingar i ett q/a par. | 279,533 | Tree Edit Models for Recognizing Textual Entailments, Paraphrases, and Answers to Questions | {'venue': 'Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,515 |
Konvolutionella neurala nätverk (CNN) är i sig begränsade till modeller geometriska omvandlingar på grund av de fasta geometriska strukturer i sina byggmoduler. I detta arbete introducerar vi två nya moduler för att förbättra CNN:s omvandlingsmodelleringsförmåga, nämligen deformerbar konvolution och deformerbar RoI-poolning. Båda bygger på idén att utöka de rumsliga provtagningsplatserna i modulerna med ytterligare kompensationer och lära sig kompensationer från måluppgifterna, utan ytterligare övervakning. De nya modulerna kan enkelt ersätta sina vanliga motsvarigheter i befintliga CNN och kan enkelt tränas end-to-end med standardback-propagation, vilket ger upphov till deformerbara konvolutionsnätverk. Omfattande experiment bekräftar resultatet av vårt tillvägagångssätt. För första gången visar vi att lära sig tät rumslig omvandling i djupa CNNs är effektivt för sofistikerade vision uppgifter som objektdetektering och semantisk segmentering. Koden släpps på https://github.com | Dai m.fl. I REF föreslogs den deformerbara konvolutionen för att lära sig ytterligare förskjutningar, som kan öka den rumsliga provtagningsplatsen och fungera bra i objektdetektering. | 4,028,864 | Deformable Convolutional Networks | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 82,516 |
Abstract-Vi presenterar en stereobaserad tät kartalgoritm för storskaliga dynamiska stadsmiljöer. I motsats till andra befintliga metoder rekonstruerar vi samtidigt den statiska bakgrunden, de rörliga objekten och de potentiellt rörliga men för närvarande stationära objekten separat, vilket är önskvärt för mobila robotiska uppgifter på hög nivå såsom banplanering i trånga miljöer. Vi använder både exempel-medveten semantisk segmentering och gles scenflöde för att klassificera objekt som antingen bakgrund, flytta, eller potentiellt flytta, vilket säkerställer att systemet kan modellera objekt med potential att övergå från statiska till dynamiska, såsom parkerade bilar. Med tanke på att kameran är uppskattad utifrån visuell odometri rekonstrueras både bakgrunden och de (potentiellt) rörliga föremålen separat genom att man sammanställer de djupkartor som beräknas från stereons ingång. Förutom visuell odometri, sparse scenflöde används också för att uppskatta 3D-rörelser av de upptäckta rörliga objekt, för att rekonstruera dem korrekt. En kartbeskärningsteknik utvecklas vidare för att förbättra återuppbyggnadsnoggrannheten och minska minnesförbrukningen, vilket leder till ökad skalbarhet. Vi utvärderar vårt system noggrant på den välkända KITTI-datauppsättningen. Vårt system är kapabelt att köra på en PC på cirka 2,5 Hz, med den primära flaskhalsen är den instans-medvetna semantiska segmentering, vilket är en begränsning vi hoppas att ta itu med i framtida arbete. Källkoden är tillgänglig från projektets hemsida a. | Barsan m.fl. REF presenterade nyligen ett liknande tillvägagångssätt, som bygger på sparsamt scenflöde och RANSAC för att uppskatta stel kroppsrörelse för varje dynamiskt rörliga objekt. | 46,913,290 | Robust Dense Mapping for Large-Scale Dynamic Environments | {'venue': 'Proceedings of the 2018 IEEE International Conference on Robotics and Automation (ICRA), pages 7510--7517, 21-25 May 2018, Brisbane, QLD, Australia', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,517 |
Vi beskriver vår metod för att jämföra Semantic Webs kunskapsbassystem med avseende på användning i stora OWL-tillämpningar. Vi presenterar Lehigh University Benchmark (LUBM) som ett exempel på hur man utformar sådana riktmärken. LUBM har en ontologi för universitetsdomänen, syntetiska OWL-data skalbara till en godtycklig storlek, fjorton förlängningsfrågor som representerar en mängd olika egenskaper, och flera prestandamått. LUBM kan användas för att utvärdera system med olika resonemangskapacitet och lagringsmekanismer. Vi visar detta med en utvärdering av två minnesbaserade system och två system med ihållande lagring. | Forskare använder Lehigh University Benchmark (LUBM) REF för att utvärdera skalbarheten hos kunskapsbaser. | 9,754,025 | LUBM: A benchmark for OWL knowledge base systems | {'venue': 'Semantic Web Journal', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,518 |
Vi föreslår ett ABE-system (Multi-Authority Attribute-Based Encryption). I vårt system kan vilken part som helst bli en auktoritet och det finns inget krav på någon global samordning annat än skapandet av en första uppsättning gemensamma referensparametrar. En part kan helt enkelt fungera som en ABE-myndighet genom att skapa en offentlig nyckel och utfärda privata nycklar till olika användare som återspeglar deras attribut. En användare kan kryptera data i termer av en boolesk formel över attribut som utfärdas från en vald uppsättning myndigheter. Slutligen kräver vårt system ingen central myndighet. När vi bygger vårt system är vårt största tekniska hinder att göra det kollusionsbeständigt. Tidigare Attributbaserade krypteringssystem uppnådde samverkansmotstånd när ABE-systemets myndighet "tog" samman olika komponenter (som representerar olika attribut) av en användares privata nyckel genom att randomisera nyckeln. Men i vårt system kommer varje komponent att komma från en potentiellt annorlunda myndighet, där vi inte antar någon samordning mellan sådana myndigheter. Vi skapar nya tekniker för att knyta samman viktiga komponenter och förhindra samverkansattacker mellan användare med olika globala identifierare. Vi bevisar vårt system säkert med hjälp av den senaste dubbla systemkryptering metodologin där säkerhetsbeviset fungerar genom att först konvertera utmaningen chiffertext och privata nycklar till en semifunktionell form och sedan argumentera säkerhet. Vi följer en ny variant av den dubbla systemsäkra tekniken på grund av Lewko och Waters och bygger vårt system med hjälp av tvålinjära grupper av sammansatt ordning. Vi bevisar säkerhet under liknande statiska antaganden som LW papper i den slumpmässiga oraklet modellen. | Till exempel föreslog Lewko och Waters Ref en multiauthority ABE som inte kräver en global myndighet för att samordna decentraliserade attributmyndigheter. | 10,803,554 | Decentralizing attribute-based encryption | {'venue': 'In EUROCRYPT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,519 |
Mycket djupa konvolutionella nätverk med hundratals eller fler skikt har lett till betydande minskningar av fel på konkurrenskraftiga riktmärken som ImageNet eller COCO uppgifter. Även om den oöverträffade expressiviteten hos de många djupa skikten kan vara mycket önskvärd vid provtillfället, kommer träning mycket djupa nätverk med sina egna utmaningar. Lutningarna kan försvinna, framflödet minskar ofta och träningstiden kan vara smärtsamt långsam även på moderna datorer. I detta dokument föreslår vi stokastiskt djup, ett utbildningsförfarande som gör det möjligt för det till synes motsägelsefulla upplägget att utbilda korta nät och få djupa nätverk. Vi börjar med mycket djupa nätverk men under träningen, för varje mini-batch, slumpmässigt släppa en delmängd av lager och kringgå dem med identitetsfunktionen. De resulterande nätverken är korta (i förväntan) under utbildning och djupt under testning. Utbildning Restuella nätverk med stokastiskt djup är övertygande enkelt att genomföra, men ändå effektivt. Vi visar att detta tillvägagångssätt på ett framgångsrikt sätt tar itu med utbildningssvårigheterna i de djupa nätverken och kompletterar de senaste framgångarna för Residual- och Highway Networks. Det minskar träningstiden avsevärt och förbättrar testfelen på nästan alla datamängder avsevärt (CIFAR-10, CIFAR-100, SVHN). Förvånansvärt nog, med stokastiskt djup kan vi öka djupet av kvarvarande nätverk även bortom 1200 lager och ändå ge meningsfulla förbättringar i testfel (4.91%) på CIFAR-10. | Dessutom föreslogs stokastiskt djup REF som en framgångsrik metod för att träna en över 1000-lager ResNet genom att slumpmässigt släppa några lager under träningen. | 6,773,885 | Deep Networks with Stochastic Depth | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 82,520 |
MapReduce har använts i stor skala för dataanalys i molnet. Systemet är väl känt för sin elastiska skalbarhet och finkorniga feltolerans även om dess prestanda har noterats vara suboptimal i databassammanhang. Enligt en nyligen genomförd studie [19] är Hadoop, en öppen källkodsimplementering av MapReduce, långsammare än två toppmoderna parallella databassystem när det gäller att utföra en mängd olika analytiska uppgifter med en faktor 3.1 till 6.5. MapReduce kan uppnå bättre prestanda med tilldelning av mer beräkna noder från molnet för att påskynda beräkning; dock är detta tillvägagångssätt att "hyra fler noder" inte kostnadseffektivt i en pay-as-you-go miljö. Användarna vill ha ett ekonomiskt elastiskt skalbart databehandlingssystem och är därför intresserade av om MapReduce kan erbjuda både elastisk skalbarhet och effektivitet. I detta dokument genomför vi en prestandastudie av MapReduce (Hadoop) på en 100-node kluster av Amazon EC2 med olika nivåer av parallellism. Vi identifierar fem designfaktorer som påverkar Hadoops prestanda och undersöker alternativa men kända metoder för varje faktor. Vi visar att genom att noggrant justera dessa faktorer kan Hadoops totala prestanda förbättras med en faktor på 2,5 till 3,5 för samma referensvärde som användes i [19], och är därmed mer jämförbar med den för parallella databassystem. Våra resultat visar att det därför är möjligt att bygga ett molndatasystem som är både elastiskt skalbart och effektivt. | MapReduce kan uppnå bättre prestanda med tilldelning av fler datornoder från rutnätet eller molnet för att påskynda beräkningen REF. | 186,987 | The Performance of MapReduce: An In-depth Study | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 82,521 |
Abstract-En smart kontrakt är svårt att lappa för buggar när den är utplacerad, oavsett de pengar som den innehar. Ett fel orsakade förluster till ett värde av omkring 50 miljoner cryptocurrency. Vi presenterar ZEUS-ett ramverk för att verifiera att smarta kontrakt är korrekta och validerar att de är rättvisa. Vi anser att korrekthet är att följa säkra programmeringsmetoder, medan rättvisa är att följa överenskomna affärslogik på högre nivå. ZEUS utnyttjar både abstrakt tolkning och symbolisk modellkontroll, tillsammans med befogenheten att begränsa hornklausuler för att snabbt kontrollera kontrakt för säkerhet. Vi har byggt en prototyp av ZEUS för Ethereum och Fabric blockchain plattformar, och utvärderat den med över 22.4K smarta kontrakt. Vår utvärdering visar att omkring 94,6 % av kontrakten (som innehåller kryptovaluta värd mer än 0,5 miljarder dollar) är sårbara. ZEUS är ljud med noll falska negativa och har en låg falsk positiv frekvens, med en storleksordning förbättring i analystid jämfört med tidigare konst. | Kalra m.fl. I Ref föreslogs en ram "ZEUS" för att kontrollera att smarta kontrakt är korrekta och validerar att de är rättvisa. | 3,481,056 | ZEUS: Analyzing Safety of Smart Contracts | {'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 82,522 |