src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Trädstrukturer används i stor utsträckning inom områden som beräkningsbiologi, mönsterigenkänning, XML-databaser, datornätverk och så vidare. Ett viktigt problem i gruvdatabaser av träd är att hitta ofta förekommande underträd. På grund av den kombinatoriska explosionen växer vanligtvis antalet täta delträd exponentiellt med storleken på täta delträd, och därför blir gruvdrift alla täta delträd ogenomförbara för stora trädstorlekar. I detta papper presenterar vi CMTreeMiner, en beräkningseffektiv algoritm som upptäcker endast stängda och maximalt frekventa delträd i en databas med märkta rotade träd, där rotade träd kan beställas eller oordnas. Algoritmen minerar både stängda och maximala frekventa delträd genom att traversera ett uppräkningsträd som systematiskt räknar upp alla frekventa delträd. Flera tekniker föreslås för att beskära grenarna av uppräkningsträdet som inte motsvarar slutna eller maximal frekventa delträd. Heuristiska tekniker används för att ordna beräkningsordningen så att relativt dyra beräkningar undviks så mycket som möjligt. Vi studerar vår algoritms prestanda genom omfattande experiment med hjälp av både syntetiska data och datauppsättningar från verkliga applikationer. De experimentella resultaten visar att vår algoritm är mycket effektiv för att minska sökytan och snabbt upptäcker alla stängda och maximalt frekventa underträd. Träd, grafalgoritmer, databrytning, gruvmetoder och algoritmer, frekventa delträd, stängda täta delträd, maximal frekvent delträd.
Chi och al. föreslagna CMTreeMiner REF, den första algoritmen att upptäcka alla stängda och maximal frekvent märkta inducerade underträd utan att först upptäcka alla frekventa underträd.
510,619
Mining Closed and Maximal Frequent Subtrees from Databases of Labeled Rooted Trees
{'venue': 'IEEE Trans. Knowl. Data Eng.', 'journal': 'IEEE Trans. Knowl. Data Eng.', 'mag_field_of_study': ['Computer Science']}
82,727
Få shot-lärande och självövervakad inlärning tar upp olika aspekter av samma problem: hur man utbildar en modell med lite eller ingen märkning av data. Få-shot lärande syftar till optimeringsmetoder och modeller som kan lära sig effektivt att känna igen mönster i lågdatasystemet. Självövervakad inlärning fokuserar istället på omärkt data och tittar in i det för övervakning signal för att mata hög kapacitet djupa neurala nätverk. I detta arbete utnyttjar vi komplementariteten mellan dessa två områden och föreslår en strategi för att förbättra lärandet med få resultat genom självövervakning. Vi använder självövervakning som en extra uppgift i ett par skott lärande pipeline, vilket gör det möjligt för funktionsextraktorer att lära sig rikare och mer överförbara visuella representationer samtidigt som de fortfarande använder få kommenterade prover. Genom självövervakning kan vårt tillvägagångssätt naturligtvis utvidgas till att använda olika omärkta data från andra dataset i den få-shot-inställningen. Vi rapporterar konsekventa förbättringar inom en rad arkitekturer, datauppsättningar och självövervakningstekniker. Vi tillhandahåller genomförandekoden på https://github.com/valeoai/BF3S.
Självövervakad rotation användes som en hjälpuppgift i REF för att lära sig rikare visuella representationer.
186,206,588
Boosting Few-Shot Visual Learning With Self-Supervision
{'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
82,728
Vi presenterar en autoencoder som utnyttjar inlärda representationer för att bättre mäta likheter i datarymden. Genom att kombinera en variantal autoencoder med ett generativt kontradiktoriskt nätverk kan vi använda inlärda funktionsrepresentationer i GAN-dicriminatorn som grund för VAE-rekonstruktionsmålet. Därmed ersätter vi elementvisa fel med funktionsvisa fel för att bättre fånga datadistributionen samtidigt som vi erbjuder invarians mot t.ex. Översättning. Vi tillämpar vår metod på bilder av ansikten och visar att det överträffar VAEs med elementvisa likheter i termer av visuell trohet. Dessutom visar vi att metoden lär sig en inbäddning där hög nivå abstrakta visuella egenskaper (t.ex. bära glasögon) kan ändras med hjälp av enkel aritmetik.
Larsen m.fl. REF presenterade en autokodare som utnyttjar inlärda representationer för att bättre mäta likheter i datarymden.
8,785,311
Autoencoding beyond pixels using a learned similarity metric
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,729
Vi presenterar en deterministisk näralinjär tidsalgoritm som beräknar kantkonnektiviteten och finner ett minsta snitt för en enkel oriktad oviktad graf G med n hörn och m kanter. Detta är den första o(mn) tid deterministiska algoritmen för problemet. I nästan linjär tid kan vi också konstruera den klassiska kaktus representation av alla minimala snitt. Den tidigare snabbast deterministiska algoritmen av Gabow från STOC'91 tog O(m + λ 2 n), där λ är kantanslutningen, men λ kunde vara och n. Vid STOC'96 Karger presenterade en randomiserad nära linjär tid Monte Carlo algoritm för minsta skär problemet. Som han påpekar finns det inget bättre sätt att certifiera minimaliteten i den returnerade skärningen än att använda Gabows långsammare deterministiska algoritm och jämföra storlekar. Vårt huvudsakliga tekniska bidrag är en nästan linjär tidsalgoritm som kontrakterar vertex uppsättningar av en enkel ingångsgraf G med minimal grad δ, som producerar en multigraf G med O (m/δ) kanter som bevarar alla minsta skärningar av G med minst två hörn på varje sida. I vår deterministiska näralinjära tidsalgoritm, kommer vi att bryta ner problemet via low-conductance nedskärningar som hittats med PageRank a la Brin och Page (1998), som analyserats av Andersson, Chung, och Lang på FOCS'06. Normalt sådana algoritmer för low-conductance skär är randomiserade Monte Carlo algoritmer, eftersom de förlitar sig på att gissa en bra start vertex. Men i vårt fall har vi så mycket struktur att det inte behövs några gissningar.
Kawarabayashi och Thorup REF ger en deterministisk näralinjär tidsalgoritm för minsta skärproblem, som körs i O(m log 12 n).
16,666,850
Deterministic Global Minimum Cut of a Simple Graph in Near-Linear Time
{'venue': "STOC '15", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,730
Ett ords evaluativa karaktär kallas dess semantiska orientering. Positiv semantisk orientering indikerar beröm (t.ex. "ärlighet", "intrepid") och negativ semantisk orientering indikerar kritik (t.ex. "störande", "överflödande"). Semantisk orientering varierar i både riktning (positiv eller negativ) och grad (mild till stark). Ett automatiserat system för mätning av semantisk orientering skulle ha tillämpning i textklassificering, textfiltrering, spårning av åsikter i onlinediskussioner, analys av enkätsvar och automatiserade chattsystem (chatbots). Denna artikel introducerar en metod för att härleda ett ords semantiska orientering från dess statistiska association med en uppsättning positiva och negativa paradigmord. Två fall av detta tillvägagångssätt utvärderas, baserat på två olika statistiska mått av ordassociation: punktvis ömsesidig information (PMI) och latent semantisk analys (LSA). Metoden testas experimentellt med 3 596 ord (inklusive adjektiv, adverb, substantiv och verb) som manuellt har märkts positiva (1 614 ord) och negativa (1 982 ord). Metoden uppnår en noggrannhet på 82,8% på den fullständiga testuppsättningen, men noggrannheten stiger över 95% när algoritmen tillåts avstå från att klassificera milda ord.
Turney och Littman REF introducerar metoden för att härleda ett ords semantiska orientering baserat på det statistiska sambandet mellan ett ord och den fasta uppsättningen positiva och negativa ord.
2,024
Measuring praise and criticism: Inference of semantic orientation from association
{'venue': 'TOIS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,731
Att upptäcka frekventa grafmönster i en grafdatabas ger värdefull information i en mängd olika tillämpningar. Men om grafdatasetet innehåller känsliga data från individer som mobilsamtalsgrafer och webbklicksgrafer, kan det utgöra ett hot mot individers integritet att släppa upptäckta frekventa mönster. Differentiell integritet har nyligen framgått som den faktiska standarden för privat dataanalys på grund av dess bevisbara integritetsgaranti. I detta dokument föreslår vi den första differentialt privata algoritmen för gruvdrift frekventa grafmönster. Vi visar först att tidigare tekniker på differentialt privat upptäckt av frekventa objekt inte kan tillämpas vid gruvdrift frekventa grafmönster på grund av den inneboende komplexiteten i hanteringen av strukturell information i grafer. Vi tar sedan itu med denna utmaning genom att föreslå en Markov Chain Monte Carlo (MCMC) provtagningsbaserad algoritm. Till skillnad från tidigare arbete med frekventa itemset gruvdrift, våra tekniker inte förlitar sig på resultatet av en icke-privat gruv algoritm. I stället observerar vi att både frekventa grafmönsterbrytningar och garantier för differentialintegritet kan förenas i ett MCMC-provtagningsramverk. Dessutom etablerar vi integritet och nyttogaranti för vår algoritm och föreslår en effektiv angränsande mönsterräkningsteknik också. Experimentella resultat visar att den föreslagna algoritmen kan producera frekventa mönster med god precision.
Shen och Yu REF tar upp problemet med gruvdrift frekventa grafer under differentiell integritet.
11,057,965
Mining frequent graph patterns with differential privacy
{'venue': "KDD '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,732
Produktlinjernas omfattning och komplexitet innebär att det är praktiskt omöjligt att utveckla en enda modell av hela systemet, oavsett vilka språk eller notationer som används. Den dynamiska karaktären hos verkliga system innebär att produktlinjemodeller måste utvecklas kontinuerligt för att möta nya kundkrav och för att återspegla förändringar av produktlinjeartefakter. För att möta dessa utmaningar måste produktlinjeingenjörer tillämpa olika strategier för att strukturera modelleringsutrymmet för att underlätta skapandet och underhållet av modeller. I detta dokument presenteras ett tillvägagångssätt som syftar till att minska underhållsarbetet genom att organisera produktlinjer som en uppsättning inbördes relaterade modellfragment som definierar variabiliteten i vissa delar av systemet. Vi ger stöd för att halvautomatiskt sammanfoga fragment till kompletta produktlinjemodeller. Vi ger också stöd för att automatiskt upptäcka inkonsekvenser mellan produktlinje artefakter och de modeller som representerar dessa artefakter efter ändringar. Dessutom stöder vår strategi co-evolution av modeller och deras respektive meta-modeller. Vi diskuterar strategier för att strukturera modelleringsutrymmet och visar nyttan av vårt arbetssätt med hjälp av verkliga exempel från vårt pågående branschsamarbete.
Dhungana m.fl. REF ger stöd för att halvautomatiskt sammanfoga modellfragment till kompletta produktlinjemodeller.
17,576,673
Structuring the modeling space and supporting evolution in software product line engineering
{'venue': 'J. Syst. Softw.', 'journal': 'J. Syst. Softw.', 'mag_field_of_study': ['Computer Science']}
82,733
Abstract-Redundant och irrelevanta funktioner i data har orsakat ett långsiktigt problem i nätverkstrafiken klassificering. Dessa funktioner fördröjer inte bara klassificeringsprocessen utan förhindrar också en klassificering från att fatta korrekta beslut, särskilt när man hanterar stora data. I detta dokument föreslår vi en ömsesidig informationsbaserad algoritm som analytiskt väljer den optimala funktionen för klassificering. Denna ömsesidiga informationsbaserade funktionsvalsalgoritm kan hantera linjärt och icke-linjärt beroende datafunktioner. Dess effektivitet utvärderas vid upptäckt av intrång i nätet. Ett intrusionsdetektionssystem (IDS), som heter Least Square Support Vector Machine-baserad IDS (LSSVM-IDS), byggs med hjälp av de funktioner som valts av vår föreslagna funktionsvalsalgoritm. LSSVM-IDS prestanda utvärderas med hjälp av tre datauppsättningar för bedömning av intrång, nämligen KDD Cup 99, NSL-KDD och Kyoto 2006+ datauppsättning. Utvärderingsresultaten visar att vår funktionsvalsalgoritm bidrar med mer kritiska funktioner för LSSVM-IDS för att uppnå bättre noggrannhet och lägre beräkningskostnader jämfört med de senaste metoderna.
I REF föreslås en ömsesidig informationsbaserad funktionsvalsalgoritm för att hantera linjärt och icke-linjärt beroende datafunktioner.
5,426,105
Building an Intrusion Detection System Using a Filter-Based Feature Selection Algorithm
{'venue': 'IEEE Transactions on Computers', 'journal': 'IEEE Transactions on Computers', 'mag_field_of_study': ['Computer Science']}
82,734
Personåteridentifiering (Re-ID) syftar till att matcha personbilder tagna från två icke-överlappande kameror. I detta dokument, en djup hybrid likhet lärande (DHSL) metod för person Re-ID baserat på en konvolution neurala nätverk (CNN) föreslås. I vårt tillvägagångssätt, en lätt CNN-inlärning funktion par för ingångsbild paret extraheras samtidigt. Därefter beräknas både den elementvisa absoluta skillnaden och multiplikationen av CNN inlärningsfunktionen par. Slutligen är en hybrid liknande funktion utformad för att mäta likheten mellan funktionen par, som realiseras genom att lära en grupp av viktkoefficienter för att projicera den elementvisa absoluta skillnaden och multiplikation till en likhet poäng. Följaktligen kan den föreslagna DHSL-metoden rimligen tilldela komplexa funktioner lärande och metrisk inlärning i ett CNN, så att prestandan hos person Re-ID förbättras. Experiment på tre utmanande person Re-ID databaser, QMUL GRID, VIPeR, och CUHK03, illustrerar att den föreslagna DHSL-metoden är överlägsen flera state-of-the-art person Re-ID metoder. Index Terms-Metrisk inlärning, konvolution neurala nätverk, djup hybrid likhet lärande, person om-identifikation (Re-ID).
Dessutom Zhu et al. REF föreslog en hybrid liknande funktionsinlärningsmekanism (DHSL) där funktionerna extraheras från en lätt (03 skiktade) konvolutionella neurala nätverk och likhetspoängen lärs med hjälp av hybrid likhetsfunktion.
6,882,063
Deep Hybrid Similarity Learning for Person Re-Identification
{'venue': 'IEEE Transactions on Circuits and Systems for Video Technology', 'journal': 'IEEE Transactions on Circuits and Systems for Video Technology', 'mag_field_of_study': ['Computer Science']}
82,735
Vi föreslår en ny hybrid rekommendation modell där användarens preferenser och objektfunktioner beskrivs i termer av semantiska begrepp definierade i domän ontologier. Utnyttjandet av metainformation som beskriver de rekommenderade objekten och användarprofilerna på ett allmänt, portabelt sätt, tillsammans med förmågan att dra slutsatser av de relationer som definieras i ontologierna, är de viktigaste aspekterna i det framlagda förslaget. Genom att dra nytta av den förbättrade semantik representationen jämförs användarprofiler med en finare kornstorlek än de är i vanliga recommender system. Mer specifikt samlas konceptet, objektet och användarutrymmen på ett samordnat sätt, och de resulterande kluster används för att hitta likheter mellan individer på flera semantiska lager. Sådana lager motsvarar implicita intressegrupper (CoI) och möjliggör samarbetsrekommendationer om ökad precision. Vår strategi är testad i två uppsättningar experiment: en inklusive profiler manuellt definierade av verkliga användare och en annan med automatiskt genererade profiler baserade på data från IMDb och MovieLens dataset.
Ett hybridrekommenderingssystem föreslås i REF där användarpreferenser och objektfunktioner beskrivs med semantiska begrepp för att erhålla användarkluster som motsvarar implicita intressegemenskaper.
8,943,255
A Multilayer Ontology-based Hybrid Recommendation Model
{'venue': 'HICSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,736
Djupt lärande verktyg har fått enorm uppmärksamhet i tillämpad maskininlärning. Sådana verktyg för regression och klassificering fångar dock inte upp modellosäkerheten. Som jämförelse erbjuder Bayesian modeller en matematiskt grundad ram för att resonera om modellosäkerhet, men vanligtvis kommer med en oöverkomlig beräkningskostnad. I denna uppsats utvecklar vi en ny teoretisk ram gjutning dropout utbildning i djupa neurala nätverk (NNs) som ungefärlig Bayesian slutsats i djupa Gaussiska processer. Ett direkt resultat av denna teori ger oss verktyg för att modellera osäkerhet med avhopp NNsextraktion information från befintliga modeller som har kastats bort hittills. Detta minskar problemet med att representera osäkerhet i det djupa lärandet utan att offra vare sig beräkningskomplexitet eller testnoggrannhet. Vi gör en omfattande studie av egenskaperna hos avhoppets osäkerhet. Olika nätverksarkitekturer och icke-linjäriteter bedöms utifrån regressions- och klassificeringsuppgifter med hjälp av MNIST som exempel. Vi visar en betydande förbättring i prediktiv log-likelihood och RMSE jämfört med befintliga state-of-the-art metoder, och avsluta genom att använda dropout osäkerhet i djup förstärkning lärande.
I synnerhet använder REF avhopp som ungefärlig Bayesiansk slutsats.
160,705
Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,737
Sammanfattning av denna webbsida: Service Level Agreements (SLA) är för närvarande en av de viktigaste forskningsämnena inom nätdata, eftersom de fungerar som en grund för ett tillförlitligt och förutsägbart jobbgenomförande på avlägsna nätplatser. I SLA-sammanhang spelar felåterställning en viktig roll eftersom det gör systemet mer tillförlitligt och stabilt, två framträdande tecken på ett system som stöder SLA för rutnätsbaserade arbetsflöden. I det här dokumentet beskriver vi en felåterställningsmekanism för arbetsflöde inom SLA-sammanhanget, som hanterar katastrofala fel när ett eller flera högpresterande datorcenter (HPCC) lossnar från rutnätet. Vi föreslog algoritmen för att upptäcka alla berörda deljobb när felet inträffar och algoritmen för att mappa dessa deljobb till de återstående friska resurshanteringssystem (RMS) med makespan optimera. Den föreslagna metodens effektivitet bevisas genom simulering. Experimentresultatet visar att vår mekanism upptäcker en lösning av högre kvalitet på kortare tid än andra befintliga metoder.
I samband med felåterställning för Grid-baserade arbetsflöden inom ramen för SLA beskrev vi en mekanism för att hantera det katastrofala felet hos en eller flera HPCC i REF.
2,110,781
Error recovery mechanism for grid-based workflow within SLA context
{'venue': 'International Journal of High Performance Computing and Networking (IJHPCN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,738
Abstract-Location delning är en grundläggande komponent i mobila online sociala nätverk (mOSNs), vilket också ger upphov till betydande integritet oro. MOSNs samlar in en stor mängd platsinformation över tid, och användarnas plats integritet äventyras om deras plats information missbrukas av motståndare som kontrollerar mOSNs. I detta dokument presenterar vi MobiShare, ett system som ger flexibel sekretessbevarande platsdelning i mOSNs. MobiShare är flexibel för att stödja en mängd olika lokaliseringsbaserade applikationer, genom att det möjliggör platsdelning mellan både betrodda sociala relationer och opålitliga främlingar, och det stöder räckvidd fråga och användardefinierade åtkomstkontroll. I MobiShare har varken den sociala nätverksservern eller platsservern fullständig kunskap om användarnas identiteter och platser. Användarens plats integritet skyddas även om någon av enheterna kolliderar med skadliga användare.
MobiShare REF är en plats integritetsram i mobila online sociala nätverk genom att separera användaridentiteter och anonymiserade platsuppdateringar.
6,802,866
MobiShare: Flexible privacy-preserving location sharing in mobile online social networks
{'venue': '2012 Proceedings IEEE INFOCOM', 'journal': '2012 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
82,739
Digitala annonser levereras i form av statiska bilder, animationer eller videor, med målet att främja en produkt, en tjänst eller en idé till stationära eller mobila användare. Således betalar annonsören en penningkostnad för att köpa annonsutrymme i en innehållsleverantörs medium (t.ex. hemsida) för att placera sin annons i konsumentens display. Men är det bara annonsören som betalar för annonsleveransen? Till skillnad från traditionella annonser i medier som tidningar, TV eller radio, i den digitala världen, betalar slutanvändarna också en kostnad för annonsleveransen. Även om kostnaden på annonsörens sida är klart monetär, på slutanvändaren, omfattar den både kvantifierbara kostnader, såsom nätförfrågningar och överförda bytes, och kvalitativa kostnader som integritetsförlust till annonsekosystemet. I denna studie strävar vi efter att öka användarens medvetenhet om de dolda kostnaderna för digital reklam i mobila enheter och jämföra användarens och annonsörens vyer. Speciellt byggde vi Open-DAMP, ett transparensverktyg som passivt analyserar användarnas webbtrafik och uppskattar kostnaderna på båda sidor. Vi använder ett årslångt dataset på 1270 riktiga mobila användare och genom att lägga kostnaderna på båda sidor identifierar vi en tydlig obalans: annonsörerna betalar flera gånger mindre för att leverera annonser, än den kostnad som betalas av användarna för att ladda ner dem. Dessutom upplever majoriteten av användarna en betydande integritet förlust, genom personlig annons leverans mekanik. • Informationssystem → Onlinereklam; Webblogganalys; • Säkerhet och integritet → Ekonomi för säkerhet och integritet;
I REF mäter de kostnaderna för marknadsföring av ekosystemet för användarna.
3,526,135
The Cost of Digital Advertisement: Comparing User and Advertiser Views
{'venue': 'WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,740
I naturliga bilder kan skalor (tjockhet) av objektskelett dramatiskt variera mellan objekt och objektdelar, vilket gör objektskelettdetektionen till ett utmanande problem. Vi presenterar en ny konvolutionell neurala nätverk (CNN) arkitektur genom att införa en ny hierarkisk funktion integrationsmekanism, som heter Hi-Fi, för att ta itu med problemet skelettdetektion. Den föreslagna CNN-baserade metoden har en kraftfull multi-skala funktion integration förmåga som i sig fångar hög nivå semantik från djupare lager samt låg nivå detaljer från grundare lager. Genom att hierarkiskt integrera olika CNN funktionsnivåer med dubbelriktad vägledning, vår strategi (1) möjliggör ömsesidig förfining mellan funktioner på olika nivåer, och (2) har den starka förmågan att fånga både rika objekt sammanhang och högupplösta detaljer. Experimentella resultat visar att vår metod avsevärt överträffar de senaste metoderna när det gäller effektiv sammansmältning av funktioner från mycket olika skalor, vilket framgår av en betydande förbättring av prestandan på flera riktmärken. Koden finns på http://mmcheng.net/hifi.
Dessutom presenterar Hi-Fi metoden REF hierarkisk funktion integration och dubbelriktade ömsesidiga förfiningsstrategier för skelettdetektion, som ökar förmågan att fånga berikande funktioner i objekt.
13,271,913
Hi-Fi: Hierarchical Feature Integration for Skeleton Detection
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,741
Djupa kvarvarande nätverk [1] har framträtt som en familj av extremt djupa arkitekturer som visar övertygande noggrannhet och fina konvergensbeteenden. I detta dokument analyserar vi förökningsformuleringarna bakom restbyggstenarna, vilket tyder på att framåt- och bakåtsignalerna kan spridas direkt från ett block till vilket annat block som helst, när identitetskartläggningar används som hoppanslutningar och aktivering efter addition. En rad ablation experiment stöder betydelsen av dessa identitetskartläggningar. Detta motiverar oss att föreslå en ny restenhet, vilket ytterligare gör utbildningen enkel och förbättrar generaliseringen. Vi rapporterar förbättrade resultat med hjälp av ett 1001-lagers ResNet på CIFAR-10 (4,62% fel) och CIFAR-100, och ett 200-lagers ResNet på ImageNet. Koden finns på https://github.com/KaimingHe/resnet-1k-layers.
Dessutom kan ett djupt resterande nät med identity skip-connections REF representeras som:
6,447,277
Identity Mappings in Deep Residual Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,742
I denna uppsats utforskar vi teoretiska egenskaper av utbildning en tvåskiktad ReLU nätverk g(x; w) = K j=1 σ(w j x) med centrerad d-dimensionella Gaussian ingång x (σ=ReLU). Vi tränar vårt nätverk med lutning nedstigning på w för att härma utgången av ett lärarnätverk med samma arkitektur och fasta parametrar w *. Vi visar att dess populationsgradient har en analytisk formel som leder till intressant teoretisk analys av kritiska punkter och konvergensbeteenden. För det första bevisar vi att kritiska punkter utanför det hyperplan som spänns över av lärarparametrarna ("utanför planet") inte är isolerade och bildar grenrör, och karakteriserar i planet kritiska punktfria regioner för två ReLU-fall. Å andra sidan garanteras konvergens till w * för en ReLU-nod med minst (1 − )/2 sannolikhet, om vikterna initieras slumpmässigt med standardavvikelse övre gräns av O( / ε d), i enlighet med empirisk praxis. För nätverk med många ReLU noder, visar vi att en oändligt liten perturbation av vikt initialisering resulterar i konvergens mot w * (eller dess permutation), ett fenomen som kallas spontan symmetrisk-brytande (SSB) i fysik. Vi utgår från att ReLU-aktiveringarna inte är oberoende. Simuleringen verifierar våra resultat.
Mer specifikt, REF visat att för två lager ReLU nätverk med endast en dold neuron, GD med godtycklig initiering på befolkningen förlust kan återställa den dolda lärarnätverket.
14,147,309
An Analytical Formula of Population Gradient for two-layered ReLU network and its Applications in Convergence and Critical Point Analysis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,743
Abstract-Vi anser att blockkoder vars hastighet konvergerar till kanalens kapacitet med ökande blocklängd vid en viss hastighet och undersöka bästa möjliga förfall av sannolikheten för fel. För diskreta minneslösa kanaler bevisar vi att en måttlig avvikelseprincip gäller för alla konvergensnivåer mellan den stora avvikelsen och den centrala gränsteoremet.
Altug och Wagner REF studerade måttliga avvikelser för diskreta minneslösa kanaler.
14,826,466
Moderate Deviations in Channel Coding
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,744
Abstract-This paper beskriver en ny hög kapacitet steganografi algoritm för att inbädda data i inaktiva ramar av låg bithastighet ljudströmmar kodade av G.723.1 source codec, som används i stor utsträckning i Voice over Internet Protocol (VoIP). Denna studie visar att, tvärtemot existerande tanke, de inaktiva ramar VoIP strömmar är mer lämpliga för data inbäddning än de aktiva ramar av strömmarna; det vill säga, stelanografi i inaktiva ljudramar uppnår en större data inbäddning kapacitet än den i de aktiva ljudramarna under samma omärklighet. Genom att analysera döljandet av steganografi i inaktiva ramar av låg bithastighet ljudströmmar kodade av G.723.1 codec med 6.3 kb/s, författarna föreslår en ny algoritm för steganografi i olika talparametrar för inaktiva ramar. Resultatutvärderingen visar att inbäddade data i olika talparametrar ledde till olika nivåer av döljande. En förbättrad detekteringsalgoritm för röstaktivitet föreslås för att upptäcka inaktiva ljudramar med hänsyn till paketförlust. Experimentella resultat visar vår föreslagna steganografialgoritm inte bara uppnått perfekt omärklighet utan också fick en hög data inbäddningshastighet upp till 101 bits/frame, vilket tyder på att data inbäddningskapaciteten hos den föreslagna algoritmen är mycket större än tidigare föreslagna algoritmer. Index Terms-Audio strömmar, inaktiva ramar, steganografi, Voice over Internet Protocol (VoIP).
Huang m.fl. studerade den dolda algoritmen för att inbädda hemlig information i den inaktiva ramen och fann att den inaktiva ramen var mer lämplig för information gömmer än den aktiva ramen REF.
15,096,702
Steganography in Inactive Frames of VoIP Streams Encoded by Source Codec
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']}
82,745
ABSTRACT Tillförlitlighet är en av de viktigaste kommunikationsmåtten i trådlösa kroppsnätverk, särskilt för medicinska applikationer. De traditionella metoderna för överföringseffektkontroll i ett enda steg kunde dock inte garantera tillförlitligheten när överföringsavståndet är stort. Två-hop reläöverföring kan ge tillförlitlig överföring, men energiförbrukningen för relänoder är hög vilket resulterar i en minskning av nätverkets livslängd. I detta dokument föreslås en relästödd kraftkontrollmetod för att ge tillförlitlig överföring och samtidigt minska reläbördan på relänoder. Den föreslagna metoden växlar automatiskt sändarens överföringsstrategi mellan den direkta transmissionen och den relästödda transmissionen baserat på kanalens tillstånd för att hantera långdistansproblem och justerar sedan transmissionseffekten efter den mottagna signalstyrkans indikator återkoppling för att garantera tillförlitlig överföring och spara energin från relänoder så mycket som möjligt. Parametrarna i den föreslagna metoden är dessutom svåråtkomliga i enlighet med tillämpningsscenarierna för att göra en avvägning mellan tillförlitlighet och energieffektivitet. Simuleringsresultaten visar att den föreslagna metoden effektivt kan garantera transmissionens tillförlitlighet och spara energin från relänoder, vilket i sin tur förlänger nätverkets livslängd. INDEX TERMS Wireless body area networks, power control, relä-stödd, tillförlitlighet, energieffektivitet.
I REF utformades en relästödd överföringseffektkontrollmetod, som automatiskt kan växla sändarens överföringsstrategi mellan direkt överföring och relästödd överföring enligt villkoren för on-body kanal.
20,207,937
A Relay-Aided Transmission Power Control Method in Wireless Body Area Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
82,746
Sammanfattning av denna webbsida: I detta dokument presenteras numeriska metoder för att beräkna regioner med ändlig tidsinvariant (kanaler) kring lösningar av polynomiska differentialekvationer. För det första presenterar vi en metod som exakt certifierar tillräckliga villkor för invariant trots att vi förlitar oss på ungefärliga banor från numerisk integration. Vår andra metod avlastar den förstas begränsningar genom provtagning i tid. I applikationer kan detta återställa nästan identiska tratt men är mycket snabbare att beräkna. I båda fallen verifieras tratterna med hjälp av Sum-of-Squares programmering för att söka över en familj av tidsvarierande polynom funktioner Lyapunov. Initial kandidat Lyapunov funktioner är konstruerade med hjälp av linjärisering om banan, och tillhörande tidsvarierande Lyapunov och Riccati differentialekvationer. Metoderna jämförs på stabiliserade banor av en sexstatsmodell av en satellit.
Viktigt, kan samma idé användas i dator regioner av ändlig tid invariance ("funnels") runt tidindexerade banor i systemet REF.
119,632,369
Invariant Funnels around Trajectories using Sum-of-Squares Programming
{'venue': None, 'journal': 'arXiv: Dynamical Systems', 'mag_field_of_study': ['Mathematics']}
82,747
Vi anser att buller komplexiteten i differentially privata mekanismer i inställningen där användaren frågar d linjära frågor f : R n → R icke-adaptivt. Här representeras databasen av en vektor i R n och närheten mellan databaser mäts i 1-metrisk. Vi visar att buller komplexiteten bestäms av två geometriska parametrar i samband med uppsättningen av frågor. Vi använder denna anslutning för att ge snäva övre och nedre gränser på buller komplexitet för alla d ≤ n. Vi visar att för d slumpmässiga linjära frågor av känslighet 1, är det nödvändigt och tillräckligt att lägga till 2-fel
Nyligen gav Hardt och Talwar REF snäva övre och nedre gränser på den mängd buller som behövs för att säkerställa differential integritet för ett visst antal linjära frågor.
6,104,125
On the geometry of differential privacy
{'venue': "STOC '10", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,748
I linje med det berömda CLI-stackprojektet [2] syftar Verisoft-projektet [31] till en genomgripande verifiering av hela datorsystem, inklusive hårdvara, systemprogramvara, kompilator och kommunikationsapplikationer, med särskilt fokus på industriella tillämpningar. Det huvudsakliga programmeringsspråk som används i Verisoft-projektet är C0 (en undergrupp av C som liknar MISRA C [20] ). I detta dokument redovisas i) en praktisk liten steg semantik för C0 som formaliseras i Isabelle/HOL [25], ii) den formella specifikationen av en kompilator från C0 till DLX maskinspråk [14, 23] i Isabelle/HOL, iii) ett papper och penna korrekthetsbevis för denna kompilator och statusen för den formella verifieringen av detta bevis, och iv) genomförandet av kompilatorn i C0 och ett formellt bevis i Isabelle/HOL på att genomförandet ger samma kod som specifikationen.
Till exempel omfattar gruppens arbete att utveckla en verifierad kompilator för C0, en begränsad delmängd av C REF.
40,843,209
Towards the formal verification of a C0 compiler: code generation and implementation correctness
{'venue': 'SEFM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,749
I ett försök att stödja utvecklingen av sammanhangsmedvetna applikationer som använder arkiverade sensordata introducerar vi konceptet Context Cube baserat på tekniker för datalagring och datautvinning. Vår implementering av Context Cube ger ett system som stöder en flerdimensionell modell av kontextdata och med verktyg för att komma åt, tolka och aggregera data genom att använda konceptrelationer som definieras inom det verkliga sammanhanget för applikationen. Vi definierar Context Cube informationsmodellen, demonstrerar funktionella applikationer som vi har utvecklat med systemet, och utforskar möjliga applikationer som kan utvecklas lättare med hjälp av vårt verktyg.
Lagring av kontextdata med datakuber, så kallade sammanhangskuber, föreslås i REF för utveckling av sammanhangsmedvetna program som använder arkivsensordata.
12,098,131
Context Cube: Flexible and Effective Manipulation of Sensed Context Data
{'venue': 'Pervasive', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,750
Abstract-För trånga scener, noggrannheten i objektbaserade datorseende metoder minskar när bilderna är lågupplösning och objekt har allvarliga ocklusioner. Med räknemetoder till exempel, nästan alla de senaste state-of-the-art räknemetoder förbigå explicit upptäckt och anta regressionsbaserade metoder för att direkt räkna objekt av intresse. Bland regressionsbaserade metoder, densitet karta uppskattning, där antalet objekt inom en subregion är integralen av densitet kartan över den subregionen, är särskilt lovande eftersom det bevarar rumslig information, vilket gör det användbart för både räkning och lokalisering (detektion och spårning). Med kraften i djupa konvolutionella neurala nätverk (CNN) har räkneprestandan förbättrats stadigt. Målet med detta dokument är att utvärdera densitetskartor som genereras av metoder densitet estimering på en mängd olika crowd analys uppgifter, inklusive räkning, upptäckt, och spårning. De flesta befintliga CNN-metoder producerar täthetskartor med en upplösning som är mindre än de ursprungliga bilderna, på grund av de nedsprängda stegen i convolution/pooling-verksamheten. För att producera en täthetskarta med originalupplösning utvärderar vi också en klassisk CNN som använder en skjutfönsterregressor för att förutsäga densiteten för varje pixel i bilden. Vi överväger också en helt konvolutionell (FCNN) anpassning, med hoppa anslutningar från lägre konvolutionella lager för att kompensera för förlust i rumslig information under uppsampling. I våra experiment, fann vi att den lägre upplösning densitet kartor ibland har bättre räkning prestanda. Däremot förbättrade den ursprungliga upplösningen densitetskartor lokaliseringsuppgifter, såsom detektion och spårning, jämfört med bilinear uppampling av den lägre upplösningen densitetskartor. Slutligen föreslår vi också flera mått för att mäta kvaliteten på en densitet karta, och relatera dem till experimentresultat på räkning och lokalisering.
Olika metoder för uppskattning av densitet jämförs i REF.
19,706,288
Beyond Counting: Comparisons of Density Maps for Crowd Analysis Tasks - Counting, Detection, and Tracking
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,751
Googles borgsystem är en klusterchef som driver hundratusentals jobb, från många tusentals olika applikationer, över ett antal kluster vardera med upp till tiotusentals maskiner. Det uppnår ett högt utnyttjande genom att kombinera inträdeskontroll, effektiv uppgiftspackning, överengagemang och maskindelning med prestandaisolering på processnivå. Den stöder applikationer med hög tillgänglighet med runtime-funktioner som minimerar felåterställningstiden, och schemaläggningspolicyer som minskar sannolikheten för korrelerade fel. Borg förenklar livet för sina användare genom att erbjuda en deklarativ jobbspecifikation språk, namnservice integration, realtid jobbövervakning, och verktyg för att analysera och simulera systembeteende. Vi presenterar en sammanfattning av borgsystemets arkitektur och egenskaper, viktiga designbeslut, en kvantitativ analys av några av dess politiska beslut och en kvalitativ granskning av lärdomarna från ett decennium av operativ erfarenhet med det.
Borg REF, är Google kluster manager som kör tusentals olika program i ett antal kluster.
1,149,996
Large-scale cluster management at Google with Borg
{'venue': "EuroSys '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,752
Abstract-Svåra energibegränsningar och därmed kraven på låg effekt kommunikation förstärker betydelsen av energieffektiva och helst mellanlager fel kontrollmekanismer i trådlösa Sensor Networks (WSN). I detta dokument presenteras en tvärskiktsmetod för analys av system för felkontroll i WSN:er så att effekterna av multi-hop routing och den trådlösa kanalens sändningskaraktär undersöks. Mer specifikt beaktas korsskiktseffekterna av routing, medium åtkomst och fysiska lager. Denna analys möjliggör en omfattande jämförelse av framåt felkorrigering (FEC) och automatisk upprepade begäran (ARQ) i WSNs. FEC-system förbättrar feltåligheten jämfört med ARQ. I ett multi-hop-nätverk kan denna förbättring utnyttjas genom att minska sändningseffekten (överföringseffektkontroll) eller genom att bygga längre humle (hopplängdsförlängning), som kan uppnås genom kanal-medvetna routingprotokoll. Resultaten av vår analys visar att för vissa FEC-koder minskar förlängningen av humlelängden både energiförbrukningen och den endto-end latency som omfattas av ett mål per jämfört med ARQ. FEC-koder kan därför betraktas som en viktig kandidat för förseningskänslig trafik i WSN. Å andra sidan leder överföring av effektkontroll till betydande besparingar i energiförbrukningen till priset av ökad latens. Dessutom anges de fall där ARQ överträffar FEC-koder för olika end-to-end-avstånd och målper-värden.
I REF har man undersökt felkontrollsystemens inverkan på energiförbrukningen från end-to-end och latensen för multihopsensornätverk.
6,881,275
Cross-Layer Analysis of Error Control in Wireless Sensor Networks
{'venue': '2006 3rd Annual IEEE Communications Society on Sensor and Ad Hoc Communications and Networks', 'journal': '2006 3rd Annual IEEE Communications Society on Sensor and Ad Hoc Communications and Networks', 'mag_field_of_study': ['Computer Science']}
82,753
Syfte - Webb sökmotorer används ofta av människor för att hitta information på Internet. Men alla frågor har inte ett informativt mål. I stället för information, vissa människor kanske letar efter specifika webbplatser eller kan vilja genomföra transaktioner med webbtjänster. Detta dokument syftar till att fokusera på att automatiskt klassificera de olika användarnas avsikter bakom webbfrågor. Design / metodologi / approach -För den forskning som rapporteras i detta papper, 130.000 webbsökmotor frågor kategoriseras som informations-, navigerings-, eller transaktions- med hjälp av en k-medel klustering metod baserat på en mängd olika frågeegenskaper. Fynden -Forskningsresultaten visar att mer än 75 procent av webbfrågor (klustrade i åtta klassificeringar) är informativa till sin natur, med cirka 12 procent vardera för navigering och transaktion. Resultaten visar också att webbfrågor faller i åtta kluster, sex främst informativa, och en var av främst transaktions- och navigerings. Forskningens begränsningar/implikationer -Denna studie ger ett viktigt bidrag till webbsökningslitteraturen eftersom den ger information om sökarnas mål och en metod för att automatiskt klassificera syftet med användarnas frågor. Automatisk klassificering av användarens avsikt kan leda till förbättrade sökmotorer på webben genom att anpassa resultaten till specifika användarbehov. Praktiska konsekvenser -I tidningen diskuteras hur webbsökmotorer kan använda automatiskt klassificerade användarfrågor för att ge mer riktade och relevanta resultat i webbsökningen genom att implementera en realtidsklassificeringsmetod som presenteras i denna forskning. Originalitet/värde -Denna forskning undersöker en ny tillämpning av en metod för att automatiskt klassificera syftet med användarfrågor. Det har varit begränsad forskning hittills om automatiskt klassificera användarens avsikt med webbfrågor, även om pay-off för webb sökmotorer kan vara ganska fördelaktigt.
Kathuria m.fl. föreslog ett tillvägagångssätt för att gruppera användare i grupper baserat på syftet med webbsökningen eller söksträngen REF.
17,951,961
Classifying the user intent of web queries using k‐means clustering
{'venue': 'Internet Res.', 'journal': 'Internet Res.', 'mag_field_of_study': ['Computer Science']}
82,754
Abstract-Topology kontroll i ett sensornätverk balanserar belastningen på sensornoder och ökar nätverkets skalbarhet och livslängd. Klustersensorn noder är en effektiv topologi kontroll metod. I detta dokument föreslår vi en ny distribuerad klusterstrategi för långlivade ad hoc-sensornätverk. Vårt föreslagna tillvägagångssätt gör inga antaganden om förekomsten av infrastruktur eller om nodkapacitet, förutom tillgängligheten av flera effektnivåer i sensornoder. Vi presenterar ett protokoll, HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden enligt en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. HEED avslutas i Oð1 ska iterationer, ådrar sig låga budskap overhead, och uppnår ganska enhetlig kluster huvud distribution över nätverket. Vi bevisar att, med lämpliga gränser på nodtäthet och intrakluster och intercluster överföringsintervall, kan HEED asymptotiskt säkert garantera anslutning av klustererade nätverk. Simuleringsresultat visar att vårt föreslagna tillvägagångssätt är effektivt för att förlänga nätverkets livslängd och stödja skalbar dataaggregation.
Hybrid Energy-Efficient Distribuated clustering (HEED) REF är en annan distribuerad klusteralgoritm som väljer klusterhuvudena enligt restenergin i varje nod.
2,012,679
HEED: a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
82,755
Sammanfattning Kärnpunkten används för att anpassa fingeravtrycken i systemet för autentisering av fingeravtryck snabbare än de konventionella metoderna. För att påskynda behandlingen av realtidsapplikationerna är det enklare att implementera algoritmerna för bildbehandling med inbyggda moduler som kan användas i de bärbara systemen. För att göra detta bör algoritmen kännetecknas av en enkel design för enklare och mer genomförbar på de inbyggda modulerna. Det föreslagna arbetet, i detta dokument, presenterar en mask som lokaliserar kärnpunkten helt enkelt från åsens orienteringskarta. Den introducerade algoritmen detekterar kärnpunkten i slutet av den diskontinuerliga linjen som visas i orienteringskartan som presenteras av en gråskala. En egenskap presenteras och stöds med ett matematiskt bevis för att verifiera att de enskilda regionerna ligger i slutet av denna diskontinuerliga linje. De experimentella resultaten, i de offentliga databaserna FVC2002 och FVC2004, visar att den föreslagna masken uppvisar en genomsnittlig ökning av den korrekta kärnpunktens upptäckt per fingeravtryck med 17,35 %, med en minskning av den falska upptäckten med 51,23 %, jämfört med en snabb kantkartabaserad metod. Dessutom minskas verkställighetstiden med en genomsnittlig faktor på 1,8.
Sedan, Bahgat et al. REF använde en orienteringskarta som presenterades i gråskala för att lokalisera kärnpunkten.
61,148,906
Fast and accurate algorithm for core point detection in fingerprint images
{'venue': None, 'journal': 'Egyptian Informatics Journal', 'mag_field_of_study': ['Computer Science']}
82,756
ABSTRACT För närvarande sammanställer och lagrar läroanstalter enorma mängder data, till exempel inskrivnings- och närvarouppgifter för studenter, samt deras examinationsresultat. Utvinning av sådana uppgifter ger stimulerande information som är till stor nytta för dem som hanterar dem. Snabb tillväxt i utbildningsdata pekar på det faktum att destillering av massiva mängder data kräver en mer sofistikerad uppsättning algoritmer. Denna fråga ledde till framväxten av området för datautvinning på utbildningsområdet (EDM). Traditionella data mining algoritmer kan inte direkt tillämpas på utbildningsproblem, eftersom de kan ha ett specifikt mål och funktion. Detta innebär att en förbehandlingsalgoritm måste verkställas först och först då kan vissa specifika databrytningsmetoder tillämpas på problemen. En sådan förbehandlingsalgoritm i EDM är kluster. Många studier på EDM har fokuserat på tillämpningen av olika data mining algoritmer på pedagogiska attribut. Därför ger detta dokument över tre decenniers systematiska litteraturgranskning om klusteralgoritm och dess tillämplighet och användbarhet inom ramen för EDM. Framtida insikter beskrivs utifrån den litteratur som granskats, och vägar för ytterligare forskning identifieras. INDEX TERMS Data mining, klustering metoder, utbildningsteknik, systematisk utvärdering.
Många studier försöker utbildning data mining REF.
31,019,479
A Systematic Review on Educational Data Mining
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
82,757
Den ökade efterfrågan på användning av publika molnresurser har medfört många kompromisser mellan pris, prestanda och den senaste tidens tillförlitlighet. Amazons Spot Inspections (SI) skapar ett konkurrenskraftigt anbudsförfarande för offentliga molnanvändare till lägre priser utan att tillhandahålla tillförlitlighet på tjänster. Det anses allmänt att SI minskar de monetära kostnaderna för molnanvändarna, men det framgår av litteraturen att deras egenskaper inte har undersökts och rapporterats. Vi anser att karakterisering av SI:er är grundläggande för utformningen av stokastiska schemaläggningsalgoritmer och feltoleranta mekanismer i publika molnmiljöer för spotmarknaden. I detta dokument har vi gjort en omfattande analys av SI baserat på ett års prishistorik i fyra datacenter i Amazon EC2. För detta ändamål har vi analyserat alla olika typer av SI i termer av spotpris och mellanpristid (tid mellan prisförändringar) och bestämt tidsdynamiken för spotpris i timme-i-dag och dag-i-vecka. Dessutom har vi föreslagit en statistisk modell som passar väl in i dessa två dataserier. Resultaten visar att vi kan modellera spot prisdynamik samt mellanpristiden för varje SI genom en blandning av Gaussians distribution med tre eller fyra komponenter. Den föreslagna modellen valideras genom omfattande simuleringar som visar att vår modell uppvisar en god grad av noggrannhet under realistiska arbetsförhållanden.
Till exempel, i REF, författarna genomfört en omfattande analys av spot VM instanser baserat på ett års prishistorik i fyra datacenter i Amazon EC2.
16,525,847
Characterizing spot price dynamics in public cloud environments
{'venue': 'Future Gener. Comput. Syst.', 'journal': 'Future Gener. Comput. Syst.', 'mag_field_of_study': ['Computer Science']}
82,759
Abstract-Neural nätverk har blivit en allt populärare lösning för nät intrång detektionssystem (NIDS). Deras förmåga att lära sig komplexa mönster och beteenden gör dem till en lämplig lösning för att differentiera mellan normal trafik och nätverksattacker. En nackdel med neurala nätverk är dock den mängd resurser som behövs för att utbilda dem. Många nätverk gateways och routers enheter, som kan vara värd en NIDS, helt enkelt inte har minne eller processorkraft att träna och ibland även köra sådana modeller. Viktigare är att de befintliga neurala nätverkslösningarna utbildas på ett övervakat sätt. Det innebär att en expert måste märka nätverkstrafiken och uppdatera modellen manuellt då och då. I detta papper presenterar vi Kitsune: en plug and play NIDS som kan lära sig att upptäcka attacker på det lokala nätverket, utan övervakning, och på ett effektivt sätt online. Kitsunes kärnalgoritm (KitNET) använder en ensemble av neurala nätverk som kallas autoenkodrar för att kollektivt skilja mellan normala och onormala trafikmönster. KitNET stöds av en funktionsextraktion ram som effektivt spårar mönster i varje nätverkskanal. Våra utvärderingar visar att Kitsune kan upptäcka olika attacker med en prestanda jämförbar med offline anomali detektorer, även på en Raspberry PI. Detta visar att Kitsune kan vara en praktisk och ekonomisk NIDS.
Kitsune REF utnyttjar en ensemble autokodare för att upptäcka nätverksanomalier, vilket också kräver att utbildningsdata är rena (normala).
3,502,091
Kitsune: An Ensemble of Autoencoders for Online Network Intrusion Detection
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,760
Bildkluster, en viktig teknik för bildbehandling, har forskats aktivt under lång tid. Särskilt under de senaste åren, med den explosiva tillväxten av webben, bildkluster har till och med varit en kritisk teknik för att hjälpa användare att smälta den stora mängden online visuell information. Så vitt vi vet har dock många tidigare verk om bildkluster endast använt sig av antingen visuella funktioner på låg nivå eller omgivande texter, men sällan utnyttjat dessa två typer av information inom samma ram. För att ta itu med detta problem föreslog vi en ny metod som kallas konsistent bipartite graph co-partitioning i detta papper, som kan samla webbbilder baserat på en konsekvent sammanslagning av informationen i både lågnivåfunktioner och omgivande texter. I synnerhet formulerade vi det som ett begränsat multiobjektivt optimeringsproblem, som effektivt kan lösas genom semidefinit programmering (SDP). Experiment på en Realworld Web bildsamling visade att vår föreslagna metod överträffade metoderna endast baserat på låg nivå funktioner eller omgivande texter.
Gao Ref föreslog trepartsdiagrammodell för att representera förhållandet mellan lågnivåfunktioner, bilder och omgivande texter.
926,315
Web image clustering by consistent utilization of visual features and surrounding texts
{'venue': "MULTIMEDIA '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,761
Data-till-text generering kan begreppsmässigt delas in i två delar: beställa och strukturera informationen (planering), och generera flytande språk som beskriver informationen (realisering). Moderna neurala generationssystem omvandlar dessa två steg till ett enda differentialsystem. Vi föreslår att generationsprocessen delas upp i ett symboliskt textplaneringsstadium som är trogen inmatningen, följt av ett neural generationsstadium som endast fokuserar på förverkligande. För att träna en plan-till-text generator, presenterar vi en metod för att matcha referenstexter till deras motsvarande text planer. För inferenstid beskriver vi en metod för att välja högkvalitativa textplaner för nya indata. Vi genomför och utvärderar vår strategi för WebNLG-riktmärket. Våra resultat visar att frikoppling textplanering från neuralt förverkligande verkligen förbättrar systemets tillförlitlighet och tillräcklighet samtidigt som flytande utgång. Vi observerar förbättringar både i BLEU-poäng och i manuella utvärderingar. En annan fördel med vår strategi är förmågan att producera olika insikter av samma ingång, bana vägen för uttrycklig kontroll över den genererade textstrukturen.
Generationsprocessen av naturligt språk kan brytas ned i två steg: innehållsplanering och ytförverkligande (även kallad meningsgenerering) REF.
102,350,767
Step-by-Step: Separating Planning from Realization in Neural Data-to-Text Generation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,762
Nyligen, graf neurala nätverk (GNNs) har revolutionerat fältet graf representation lärande genom effektivt inlärda node inbäddningar, och uppnått state-of-the-art resultat i uppgifter som nod klassificering och länk förutsägelse. De nuvarande GNN-metoderna är emellertid i sig platta och lär sig inte hierarkiska representationer av grafer-en begränsning som är särskilt problematisk för uppgiften att klassificera grafer, där målet är att förutsäga den märkning som är förknippad med en hel graf. Här föreslår vi DIFFPOOL, en differential graf pooling modul som kan generera hierarkiska representationer av grafer och kan kombineras med olika graf neurala nätverk arkitekturer i ett end-to-end mode. DIFFPOOL lär sig en differential mjuk kluster uppdrag för noder vid varje lager av en djup GNN, kartläggning noder till en uppsättning kluster, som sedan bildar den grövre indata för nästa GNN lager. Våra experimentella resultat visar att kombination av befintliga GNN-metoder med DIFFPOOL ger en genomsnittlig förbättring på 5-10% noggrannhet på grafklassificeringsriktmärken, jämfört med alla befintliga pooling metoder, uppnå en ny state-of-the-art på fyra av fem referensdatauppsättningar. En stor begränsning av de nuvarande GNN-arkitekturerna är dock att de i sig är platta eftersom de bara sprider information över grafens kanter och inte kan dra slutsatser och aggregera informationen på ett hierarkiskt sätt. Till exempel, för att framgångsrikt koda grafstrukturen av organiska molekyler, skulle man helst vilja koda den lokala molekylära strukturen (t.ex. individuell 32nd
Dessutom ignorerar de flesta av dem den hierarkiska representationen av grafer, och har därmed begränsade möjligheter att fånga de naturliga strukturerna i den verkliga världen grafer REF.
49,420,315
Hierarchical Graph Representation Learning with Differentiable Pooling
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,763
I detta dokument överväger vi gemensamt kommunikation, caching och beräkning i ett system med flera användare cache-assisterade mobila edge computing (MEC) som består av en basstation (BS) av caching och datorkapacitet och flera användare med beräkningsintensiva och latenskänsliga applikationer. Vi föreslår en gemensam caching- och avlastningsmekanism som innebär att uppgifter laddas upp och utförs för uppgifter med ofångade beräkningsresultat samt beräkningsresultatet nedladdning för alla uppgifter på BS, och effektivt använder multi-user mångfald och multicasting möjligheter. Sedan formulerar vi den genomsnittliga totala energiminimering problem med förbehåll för caching och deadline begränsningar för att optimalt fördela lagringsresursen vid BS för caching beräkningsresultat samt uppladdning och nedladdning tidsperioder. Problemet är en utmanande blandad diskret-kontinuerlig optimering problem. Vi visar att stark dualitet håller, och få en optimal lösning med hjälp av en dubbel metod. För att minska komplexiteten i beräkningen föreslår vi ytterligare en suboptimal lösning med låg komplexitet. Slutligen visar numeriska resultat att den föreslagna suboptimala lösningen överträffar befintliga jämförelsesystem.
REF utformar en optimal cachelagrings- och datoravlastningspolicy för att minimera den genomsnittliga energiförbrukningen.
4,136,520
Energy-Efficient Resource Allocation for Cache-Assisted Mobile Edge Computing
{'venue': '2017 IEEE 42nd Conference on Local Computer Networks (LCN)', 'journal': '2017 IEEE 42nd Conference on Local Computer Networks (LCN)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,764
I denna uppsats undersöker vi empiriskt relationen mellan objektorienterade designmått och klasstestbarhet. Vi tar itu med testbarhet när det gäller enhetstestning. Vi samlade in data från tre Java-programsystem med öppen källkod för vilka det finns JUnit-testfall. För att fånga testarbetet av klasser använde vi mätvärden för att kvantifiera motsvarande JUnit testfall. Klasserna klassificerades i två kategorier, både höga och låga, i enlighet med den föreskrivna enhetsprovningsinsatsen. För att utvärdera förhållandet mellan objektorienterade konstruktionsmått och enhetstester av klasser använde vi logistiska regressionsmetoder. Vi använde den univariata logistiska regressionsanalysen för att utvärdera den individuella effekten av varje mätvärde på klassens enhetstester. Den multivariata logistiska regressionsanalysen användes för att undersöka den kombinerade effekten av mätvärdena. Prestanda hos de prediktiva modellerna utvärderades med hjälp av mottagaroperativ karakteristisk analys. Resultaten visar att: 1) komplexitet, storlek, sammanhållning och (i viss mån) koppling hittades betydande prediktorer av enheten testning ansträngning av klasser och 2) multivariata regressionsmodeller baserade på objektorienterade konstruktionsmått kan exakt förutsäga enheten testning ansträngning av klasser.
I ett annat verk, Badri et al. REF genomförde en empirisk undersökning för att studera förhållandet mellan objektorienterade konstruktionsmått och klassernas testbarhet.
30,653,294
Empirical Analysis of Object-Oriented Design Metrics for Predicting Unit Testing Effort of Classes
{'venue': None, 'journal': 'Journal of Software Engineering and Applications', 'mag_field_of_study': ['Computer Science']}
82,765
Detta dokument är en introduktion till naturligt språk gränssnitt till databaser (Nlidbs). En kort översikt över Nlidbs historia ges först. Några fördelar och nackdelar med Nlidbs diskuteras sedan, jämföra Nlidbs med formella frågespråk, formbaserade gränssnitt och grafiska gränssnitt. En introduktion till några av de språkliga problem som Nlidbs måste ta itu med följer, till förmån för läsare som är mindre förtrogna med beräkningslingvistik. Diskussionen går sedan vidare till Nlidb-arkitekturer, portabilitetsfrågor, begränsade naturliga språkinmatningssystem (inklusive menybaserade Nlidbs) och Nlidbs med resonemangsförmåga. Några mindre utforskade områden av Nlidb forskning presenteras sedan, nämligen databasuppdateringar, meta-kunskap frågor, temporal frågor, och multi-modala Nlidbs. Tidningen avslutas med reflektioner över den aktuella tekniken. Leds de av JLB eller DS? Det förra. Syftet med detta dokument är att fungera som en introduktion till vissa nyckelbegrepp, problem, metoder och forskningslinjer inom området gränssnitt mot databaser i naturligt språk. Detta dokument är inte på något sätt en fullständig diskussion om alla frågor som är relevanta för Nlidbs. Läsaren hänvisas också till [29] och [79] för alternativa undersökningar inom samma område. 1 En detaljerad beskrivning av ett naturligt språk front-end som återspeglar den aktuella tekniken finns i [2] och [3]. Även om dokumentet innehåller tips om befintliga Nlidbs kapacitet, innehåller det inte fullständiga beskrivningar av särskilda system, och inte heller är syftet med detta dokument att jämföra vissa Nlidbs. Detta dokument grundar sig huvudsakligen på information från publicerade dokument. Författarna har inte personlig praktisk erfarenhet av de flesta av Nlidbs som kommer att nämnas. När ett systems funktion nämns innebär detta att de dokument som nämns anger att det särskilda systemet tillhandahåller denna funktion, och det är inte underförstått att andra system inte har liknande kapacitet. Slutligen förutsätter detta dokument att användarens önskemål förmedlas till Nlidb genom att skriva på ett tangentbord. Frågor som rör talbehandling diskuteras inte. I avsnitt 3 behandlas fördelarna och nackdelarna med Nlidbs; i avsnitt 4 presenteras några av de språkliga problem Nlidbs måste hantera; i avsnitt 5 beskrivs arkitekturer som antagits i befintliga Nlidbs; i avsnitt 6 diskuteras portabilitetsfrågor relaterade till Nlidbs; i avsnitt 7 introduceras Nlidbs som uttryckligen begränsar uppsättningen naturliga språkuttryck användaren tillåts att mata in, så att användaren kan få en tydligare bild av vilka typer av frågor systemet kan förstå; i avsnitt 8 beskrivs Nlidbs med resonemangsmoduler; i avsnitt 9 betonas några mindre utforskade områden av Nlidb-forskningen, nämligen databasuppdateringar, meta-kunskapsfrågor, temporalfrågor och multimodala gränssnitt; slutligen sammanfattas det aktuella läget i avsnitt 10. Prototyp Nlidbs hade redan dykt upp i slutet av sextiotalet och början av sjuttiotalet. Den mest kända Nlidb av denna period är Lunar [106], ett naturligt språkgränssnitt till en databas som innehåller kemiska analyser av månsten. Lunar och andra tidiga naturliga språkgränssnitt byggdes var och en med en särskild databas i åtanke, och kunde därför inte lätt ändras för att användas med olika databaser. (Även om de interna representationsmetoder som användes i Lunar hävdades underlätta oberoendet mellan databasen och andra moduler [105], var det sätt på vilket dessa användes något specifikt för projektets behov. Frågor om tillgänglighet diskuteras i avsnitt 6.) I slutet av sjuttiotalet hade flera Nlidbs dykt upp. Rendezvous [27] engagerade användaren i dialoger för att hjälpa honom/henne att formulera sina frågor. Stege [58] kan användas med stora databaser, och den kan konfigureras till gränssnitt mot olika underliggande databashanteringssystem (Dbmss). Stege använde semantisk grammatik (diskuteras i avsnitt 5.3), 1 Avsnitt 4 och 5 påverkades kraftigt av [79]. 2 Avsnitt 2 bygger till stor del på information från [29], [79] och [89].
Det finns språkliga problem som är vanliga i de flesta typer av NL-förståelsesystem, se REF för en översikt över den senaste tekniken.
3,033,151
Natural Language Interfaces to Databases - An Introduction
{'venue': 'ArXiv', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,766
Abstrakt. Vi studerar begreppet bindningstidsanalys för logiska program. Vi formaliserar utvecklingen av ett partiellt avdragssystem på nätet som ett prologprogram. Med hjälp av abstrakt tolkning samlar vi in information om programmets run-time-beteende. Vi använder denna information för att fatta kontrollbeslut om utvecklingen vid analystidpunkten och för att omvandla on-line-systemet till ett offline-system. Vi rapporterar om några inledande experiment.
Såvitt vi vet var den första bindningsanalysen för logikprogrammering REF.
3,264,760
A Polyvariant Binding-Time Analysis for Off-line Partial Deduction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,767
Bakgrund: Djuplärande modeller tränas vanligtvis med hjälp av stokastisk lutning nedstigning eller en av dess varianter. Dessa metoder uppdaterar vikterna med hjälp av sin lutning, beräknad utifrån en liten del av träningsdatan. Det har observerats att när man använder stora satsstorlekar det finns en ihållande nedbrytning i generalisering prestanda - känd som "generalization gap" fenomen. Att identifiera ursprunget till denna lucka och minska den hade förblivit ett öppet problem. Bidrag: Vi undersöker den inledande fasen med hög inlärningstakt. Vi finner att viktavståndet från dess initiering växer logaritmiskt med antalet viktuppdateringar. Vi föreslår därför en "slumpmässig promenad på slumpmässigt landskap" statistisk modell som är känd för att uppvisa liknande "ultra-slow" diffusion beteende. Efter denna hypotes utförde vi experiment för att empiriskt visa att "generaliseringsgapet" härrör från det relativt lilla antalet uppdateringar snarare än batchstorlek, och kan helt elimineras genom att anpassa det utbildningssystem som används. Vi undersöker vidare olika tekniker för att träna modeller i stor-batch regimen och presentera en ny algoritm som heter "Ghost Batch Normalization" som möjliggör betydande minskning av generalisering gapet utan att öka antalet uppdateringar. För att validera våra resultat utför vi flera ytterligare experiment på MNIST, CIFAR-10, CIFAR-100 och ImageNet. Slutligen omvärderar vi gemensamma metoder och övertygelser när det gäller utbildning av djupa modeller och antyder att de kanske inte är optimala för att uppnå god generalisering. * Lika bidrag arXiv:1705.08741v1 [stat.ML]
För distribuerad utbildning, är batch-statistiken vanligtvis uppskattas lokalt på en delmängd av utbildningen minibatch (" ghost batch normalization" REF ).
7,967,806
Train longer, generalize better: closing the generalization gap in large batch training of neural networks
{'venue': 'Advances in Neural Information Processing Systems 30 2017; pages 1729-1739; http://papers.nips.cc/paper/6770-train-longer-generalize-better-closing-the-generalization-gap-in-large-batch-training-of-neural-networks', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,768
Abstract-Vi analyserar konvergensen av gradient-baserade optimeringsalgoritmer som baserar sina uppdateringar på fördröjd stokastisk gradient information. Den huvudsakliga tillämpningen av våra resultat är att gradient-baserade distribuerade optimeringsalgoritmer där en master nod utför parameteruppdateringar medan arbetarnoder beräkna stokastiska gradienter baserat på lokal information parallellt, vilket kan ge upphov till förseningar på grund av asynkroni. Vi tar motivationen från statistiska problem där datans storlek är så stor att den inte får plats på en dator; med tillkomsten av enorma datamängder inom biologi, astronomi och internet är sådana problem nu vanliga. Vårt huvudsakliga bidrag är att visa att för smidiga stokastiska problem är förseningarna asymptotiskt försumbara och vi kan uppnå orderoptimala konvergensresultat. Vi visar n-node arkitekturer vars optimeringsfel i stokastiska problem- trots asynkrona fördröjningar-skalor asymptotiskt som O(1/ ε nT ) efter T iterationer. Denna hastighet är känd för att vara optimal för ett distribuerat system med n noder även i frånvaro av förseningar. Vi kompletterar dessutom våra teoretiska resultat med numeriska experiment på en logistisk regressionsuppgift. Vi fokuserar på stokastisk konvex optimering problem av formen min x.X f (x) för där X på R d är en sluten konvex uppsättning, P är en sannolikhetsfördelning över på, och F (· ; på) är konvexa för alla på, så att f är konvex. Klassiska stokastiska gradientalgoritmer [7, 6] iterativt uppdatera en parameter x(t) på X genom provtagning på P, beräkning g(t) = på F (x(t); och utföra uppdateringen x(t + 1) = Π X (x(t) − α(t)g(t)), där Π X betecknar projektion på uppsättningen X och α(t) R är en stegvis. I detta papper analyserar vi asynkrona gradientmetoder, där i stället för att ta emot aktuell information g(t), förfarandet får ut av datum gradienter g(t − τ (t)) = och F (x(t − τ (t)), där τ (t) är den (potentiellt slumpmässiga) fördröjningen vid tiden t. Det centrala bidraget av detta papper är att utveckla algoritmer som-under naturliga antaganden om funktionerna F i målet (1)-uppnå asymptotiskt optimala konvergenshastigheter för stokastisk konvex optimering trots förseningar. Vår modell av information om fördröjd gradient är särskilt relevant i distribuerade optimeringsscenarier, där en master upprätthåller parametrarna x medan arbetstagare beräknar stokastiska gradienter av målet (1) med hjälp av en lokal delmängd av data. gn(t − 1) Bild 1................................................................ Cyklisk försenad arkitektur. Arbetare beräknar lutningar i parallella, passerar ut-of-date (stokastiska) gradienter g i (t − τ ) = på i (x(t − τ )) för att bemästra. Befälhavaren svarar med aktuella parametrar. Diagram visar parametrar och gradienter som kommuniceras mellan v t och t + n − 1.
Ref ger ett konvergensresultat O( 1 ).
901,118
Distributed delayed stochastic optimization
{'venue': '2012 IEEE 51st IEEE Conference on Decision and Control (CDC)', 'journal': '2012 IEEE 51st IEEE Conference on Decision and Control (CDC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,769
Nuvarande state-of-the-art metoder för skelett-baserade åtgärdsigenkänning är främst baserade på återkommande neurala nätverk (RNN). I detta dokument föreslår vi en ny konvolutionell neurala nätverk (CNN) baserad ram för både åtgärdsklassificering och detektion. Råa skelett koordinater samt skele ton rörelse matas direkt in i CNN för etikett förutsägelse. En ny skeletttransformatormodul är utformad för att automatiskt omorganisera och välja viktiga skelettleder. Med ett enkelt 7-lagers nätverk får vi 89,3% noggrannhet vid validering av NTU:s RGB+D dataset. För att upptäcka åtgärder i otrimmade videor utvecklar vi ett fönsterförslagsnätverk för att extrahera förslag om tidssegment, som ytterligare är indelade i samma nätverk. På den senaste PKU-MMD dataset, uppnår vi 93,7% mAP, överträffar basvärdet med en stor marginal.
Europaparlamentets och rådets förordning (EG) nr 45/2001 av den 18 december 2000 om skydd för enskilda då gemenskapsinstitutionerna och gemenskapsorganen behandlar personuppgifter och om den fria rörligheten för sådana uppgifter (EGT L 8, 12.1.2001, s. 1). REF introducerar en skeletttransformatormodul för att välja viktiga skelettleder.
12,354,538
Skeleton-based action recognition with convolutional neural networks
{'venue': '2017 IEEE International Conference on Multimedia & Expo Workshops (ICMEW)', 'journal': '2017 IEEE International Conference on Multimedia & Expo Workshops (ICMEW)', 'mag_field_of_study': ['Computer Science']}
82,770
Ett centralt tema i distribuerade nätverksalgoritmer handlar om att förstå och hantera frågan om ort. Trots avsevärda framsteg har forskningsinsatser i denna riktning ännu inte resulterat i en solid grund i form av en grundläggande beräkningsmässig komplexitetsteori för orten. Inspirerad av sekventiell komplexitetsteori fokuserar vi på en komplexitetsteori för distribuerade beslutsproblem. I samband med lokalitet, lösa ett beslut problem kräver processorer att självständigt inspektera sina lokala stadsdelar och sedan kollektivt besluta om en given global input instans tillhör vissa angivna språk. Vi betraktar standard LOCAL modellen för beräkning och definierar LD(t) (för lokalt beslut) som den klass av beslutsproblem som kan lösas i t kommunikationsrundor. Vi studerar först den spännande frågan om randomisering hjälper i lokala distribuerade datorer, och i vilken utsträckning. Specifikt definierar vi motsvarande randomiserade klass BPLD(t, p, q), som innehåller alla språk för vilka det finns en randomiserad algoritm som körs i t rundor, accepterar korrekta fall med sannolikhet minst p och avvisar felaktiga sådana med sannolikhet minst q. Vi visar att p 2 + q = 1 är en tröskel för inneslutning av LD(t) i BPLD(t, p, q). Mer exakt visar vi att det finns ett språk som inte tillhör LD(t) för någon t = o(n) men som tillhör BPLD(0, p, q) för någon p, q på ett sådant sätt att p 2 + q ≤ 1. Å andra sidan visar vi att, begränsad till ärftliga språk, BPLD(t, p, q) = LD( O(t)), för alla funktioner t och alla p, q på (0, 1] sådan att p 2 + q > 1. Dessutom undersöker vi icke-determinismens inverkan på lokala beslut, och etablerar några strukturella resultat inspirerade av klassisk computational complexory. I synnerhet visar vi att icke-determinism hjälper, men att denna hjälp är begränsad, eftersom det finns språk som inte kan avgöras på ett icke-deterministiskt sätt. Kanske överraskande visar det sig att det är kombinationen av randomisering med icke-determinism som gör det möjligt att bestämma alla språk i konstant tid. Slutligen introducerar vi begreppet lokal minskning och fastställer vissa fullständighetsresultat.
Inspirerad av klassisk beräkning komplexitetsteori REF, föreslog att studien av beslutsproblem kan leda till nya strukturella insikter också i den mer komplexa distribuerade datorinställningen.
13,295,455
Local Distributed Decision
{'venue': '2011 IEEE 52nd Annual Symposium on Foundations of Computer Science', 'journal': '2011 IEEE 52nd Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Computer Science']}
82,771
Depression diagnostiseras vanligtvis som att vara närvarande eller frånvarande. Men depressionens svårighetsgrad tros vara ständigt fördelad snarare än dikotomös. Svårighetsgraden kan variera för en viss patient dagligen och säsongsmässigt som en funktion av många variabler som sträcker sig från livshändelser till miljöfaktorer. Upprepade populationsbedömningar av depressioner genom enkäter är dyra. I detta papper använder vi enkätsvar och statusuppdateringar från 28 749 Facebook-användare för att utveckla en regressionsmodell som förutspår användarnas grad av depression baserat på deras Facebook-statusuppdateringar. Vår prediktiv noggrannhet på användarnivå är blygsam, betydligt bättre än en genomsnittlig användarkänsla. Vi använder vår modell för att uppskatta användarförändringar i depression över säsonger, och finner, i enlighet med litteraturen, brukar graden av depression oftast ökar från sommar till vinter. Vi visar sedan potentialen att studera faktorer som driver individers nivå av depression genom att titta på dess mest korrelerade språkfunktioner.
REF byggde en regressionsmodell för att förutsäga graden av depression över säsonger baserat på språkfunktioner på Facebook.
18,498,622
Towards Assessing Changes in Degree of Depression through Facebook
{'venue': 'CLPsych@ACL', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Psychology']}
82,772
Mänskliga handlingar kan representeras av skelettledernas banor. Traditionella metoder modellerar i allmänhet den rumsliga strukturen och temporal dynamiken hos det mänskliga skelettet med handgjorda egenskaper och känner igen mänskliga handlingar genom väl utformade klassificeringar. I detta dokument, med tanke på att återkommande neurala nätverk (RNN) kan modellera den långsiktiga kontextuell information av temporal sekvenser väl, föreslår vi en end-to-end hierarkisk RNN för skelettbaserade åtgärder erkännande. Istället för att ta hela skelettet som ingång, delar vi upp det mänskliga skelettet i fem delar enligt människans fysiska struktur, och matar sedan dem separat till fem subnät. Allteftersom antalet lager ökar, är de representationer som extraheras av subnäten hierarkiskt sammansmälta för att vara ingångar av högre skikt. De slutliga representationerna av skelettsekvenserna matas in i ett enda lager perceptron, och den tidsmässigt ackumulerade produktionen av perceptronet är det slutliga beslutet. Vi jämför med fem andra djupa RNN-arkitekturer som härletts från vår modell för att verifiera effektiviteten i det föreslagna nätverket, och även jämföra med flera andra metoder på tre allmänt tillgängliga dataset. Experimentella resultat visar att vår modell uppnår den toppmoderna prestandan med hög beräkningseffektivitet.
REF föreslår en hierarkisk RNN som delar upp människokroppen i fem delar med varje del matas in i olika undernätverk och sammansmälter dem hierarkiskt.
8,040,013
Hierarchical recurrent neural network for skeleton based action recognition
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,773
ABSTRACT Ett centralt problem inom bioinformatik är hur man fångar information från den stora nuvarande vetenskapliga litteraturen i en form som lämpar sig för analys via dator. Vi tar upp det speciella fallet med information om protein-protein interaktioner, och visar att frekvensen av ord i Medline abstracts kan användas för att avgöra om ett givet papper diskuterar protein-protein interaktioner. För de dokument som är fast beslutna att diskutera detta ämne, kan relevant information fångas för databasen av interactive Proteins. Dessutom kan lämpliga genanmärkningar också fångas upp. Resultat: Vår Bayesian tillvägagångssätt poängsätter Medline abstracts för sannolikheten av att diskutera ämnet av intresse enligt frekvenserna av diskriminerande ord som finns i abstrakt. Mer än 80 diskriminerande ord (t.ex. Komplex, interaktion, tvåhybrid) fastställdes från en utbildning uppsättning 260 Medline abstracts motsvarande tidigare validerade poster i databasen av interactive Proteins. Med hjälp av dessa ord och en logsannolik poängfunktion identifierades 2000 Medline abstracts som beskriver interaktioner mellan jästproteiner. Detta tillvägagångssätt utgör nu grunden för den snabba expansionen av databasen över interaktiva proteiner. Kontaktuppgifter:
Marcotte m.fl. REF använde en logsannolik poängfunktion för att identifiera artiklar som diskuterade PPI.
10,943,306
Mining literature for protein-protein interactions
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,774
Med utvecklingen av sakernas Internet (IoT) ökar antalet mobila terminaler snabbt. På grund av hög överföringsfördröjning och begränsad bandbredd föreslår vi i detta dokument en ny treskiktsmodell för nätverksarkitektur som kombinerar molndata och kantdata (förkortat som CENAM). I kantdataskiktet föreslår vi ett beräkningssystem för ömsesidigt samarbete mellan kantenheterna och använder Kruskal-algoritmen för att beräkna det minsta spännträdet för viktad oriktad graf bestående av kantnoder, för att minska kommunikationsfördröjningen mellan dem. Sedan delar vi upp och tilldelar uppgifterna baserat på det begränsade optimeringsproblemet och löser beräkningsfördröjningen av kantknutor genom att använda Lagrange multiplikatormetoden. I molndataskiktet fokuserar vi på den balanserade överföringsmetoden för att lösa fördröjningen av dataöverföringen från kantenheter till molnservrar och få en optimal tilldelningsmatris, vilket minskar fördröjningen i datakommunikationen. Slutligen, enligt egenskaperna hos molnservrar, löser vi beräkningsfördröjningen av molndatalager. Simuleringar visar att CENAM har bättre prestanda i databearbetningsfördröjning än traditionella molntjänster.
Å andra sidan anser författarna i REF att databehandlingsfördröjningen i den mobila datormodellen är försenad.
19,165,194
Data Processing Delay Optimization in Mobile Edge Computing
{'venue': 'Wireless Communications and Mobile Computing', 'journal': 'Wireless Communications and Mobile Computing', 'mag_field_of_study': ['Computer Science']}
82,775
Abstrakt. I detta dokument behandlas problemet med att distribuera ett mobilt sensornätverk i en okänd miljö. Ett mobilt sensornätverk består av en distribuerad samling noder som var och en har avkänning, beräkning, kommunikation och rörelseförmåga. Sådana nätverk är kapabla till självdeployment; dvs., med början från några kompakta inledande konfiguration, noderna i nätverket kan sprida ut så att området "täcks" av nätverket maximeras. I detta dokument presenterar vi ett potentiellt fältbaserat tillvägagångssätt för utbyggnad. Fälten är konstruerade så att varje nod stöts bort av både hinder och andra noder, vilket tvingar nätverket att sprida sig i hela miljön. Metoden är både distribuerad och skalbar.
I REF, författarna anser problemet med att distribuera ett mobilt sensornätverk som består av en distribuerad samling av noder utrustade med locomotion förmåga.
9,296,810
Mobile Sensor Network Deployment using Potential Fields : A Distributed , Scalable Solution to the Area Coverage Problem
{'venue': 'Systems and Computers in Japan', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,776
Sammanfattning — I detta dokument överväger vi en ny, sessionsbaserad arbetsbörda för att mäta webbserverprestanda. Vi definierar en session som en sekvens av kundens individuella önskemål. Med hjälp av en simuleringsmodell visar vi att en överbelastad webbserver kan uppleva en allvarlig förlust av dataflöde mätt som ett antal avslutade sessioner jämfört med serverns dataflöde mätt i förfrågningar per sekund. Dessutom visar statistisk analys av avslutade sessioner att den överbelastade webbservern diskriminerar mot längre sessioner. För webbplatser för e-handel är längre sessioner typiskt de som skulle resultera i inköp, så de är just de för vilka företagen vill garantera slutförandet. För att förbättra webb-QoS för kommersiella webbservrar introducerar vi en sessionsbaserad behörighetskontroll (SBAC) för att förhindra att en webbserver blir överbelastad och för att säkerställa att längre sessioner kan slutföras. Vi visar att en webbserver förstärkt med inträdeskontrollmekanismen kan ge en rättvis garanti för slutförande, för varje accepterad session, oberoende av en sessionslängd. Detta ger en förutsägbar och kontrollerbar plattform för webbapplikationer och är ett kritiskt krav för alla e-affärer. Dessutom föreslår vi två nya adaptiva strategier för tillträdeskontroll, hybrida och prediktiva, som syftar till att optimera SBAC-mekanismens prestanda. Dessa nya adaptiva strategier bygger på en självgående funktion för inträdeskontroll, som anpassar sig i enlighet med variationer i trafikbelastningen.
Cherkasova m.fl. I REF föreslogs den sessionsbaserade inresekontrollen, som övervakade webbtjänsternas prestanda genom att räkna de avslutade sessionerna.
615,309
Session-based admission control: A mechanism for peak load management of commercial web sites
{'venue': 'IEEE Transactions on Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,777
Kartläggning av Internet består i allmänhet av provtagning av nätet från en begränsad uppsättning källor med hjälp av spårvägsliknande sonder. Denna metod, i likhet med sammanslagningen av olika spännande träd till en uppsättning destination, har hävdats för att införa okontrollerade provtagningsfördomar som kan ge statistiska egenskaper hos grafen som kraftigt skiljer sig från de ursprungliga [1, 2, 3]. I detta dokument undersöker vi dessa förutfattade meningar och ger en statistisk analys av deras ursprung. Vi härleder en analytisk approximation för sannolikheten för kant och vertex detektion som utnyttjar rollen av antalet källor och mål och tillåter oss att relatera de globala topologiska egenskaperna hos det underliggande nätverket med statistisk noggrannhet av den provade grafen. I synnerhet, Vi finner att kanten och vertex detektion sannolikhet beror på mellanhet centralitet av varje element. Detta gör att vi kan visa att kortaste vägen rutten provtagning ger en bättre karakterisering av underliggande grafer med breda distributioner av konnektivitet. Vi kompletterar den analytiska diskussionen med en genomgående numerisk undersökning av simulerade kartläggningsstrategier i nätverksmodeller med olika topologier. Vi visar att provade grafer ger en rättvis kvalitativ karakterisering av de statistiska egenskaperna hos de ursprungliga nätverken i ett rättvist utbud av olika strategier och prospekteringsparametrar. Dessutom karakteriserar vi graden av redundans och fullständighet i prospekteringsprocessen som en funktion av nätets topologiska egenskaper. Slutligen studerar vi numeriskt hur fraktionen av hörn och kanter som upptäcks i den provade grafen beror på de särskilda spridningarna av undersökningskällor. Resultaten kan tyda på steg mot effektivare kartläggningsstrategier.
Dall'Asta m.fl. REF visar att sannolikheten för kant- och vertexdetektering beror på mellanheten hos varje element och de föreslår förbättrade kartläggningsstrategier.
6,020,087
Exploring networks with traceroute-like probes: theory and simulations
{'venue': 'Theoretical Computer Science 355 (2006) 6', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Physics']}
82,778
Vi presenterar regionbaserade, helt konvolutionella nätverk för korrekt och effektiv objektdetektering. I motsats till tidigare regionbaserade detektorer som Fast/Faster R-CNN [6, 18] som tillämpar ett kostsamt delnätverk per region hundratals gånger, är vår regionbaserade detektor helt konvolutionell med nästan all beräkning delad på hela bilden. För att uppnå detta mål föreslår vi positionskänsliga poängkartor för att ta itu med ett dilemma mellan translation-invarians i bildklassificering och translation-varians i objektdetektering. Vår metod kan därför naturligt anta helt konvolutionella bild klassificera ryggrader, såsom de senaste Residual Networks (ResNets) [9], för objektdetektering. Vi visar konkurrenskraftiga resultat på PASCAL VOC dataset (t.ex., 83,6% mAP på 2007 uppsättningen) med 101-lager ResNet. Samtidigt, vårt resultat uppnås med en testtid hastighet på 170 ms per bild, 2,5-20× snabbare än Snabbare R-CNN motsvarighet. Koden görs tillgänglig för allmänheten på https://github.com/daijifeng001/r-fcn.
R-FCN REF ersätter fullt anslutna lager med positionskänsliga poängkartor för att förbättra detekteringen av objekt.
7,428,689
R-FCN: Object Detection via Region-based Fully Convolutional Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,779
Abstract-Tillsammans med den växande populariteten av cloud computing teknik, mängden tillgängliga molntjänster och deras användningsfrekvens ökar. För att tillhandahålla en mekanism för effektiv tillämpning av tjänster som är relevanta för molnmiljön, såsom upptäckt av tjänster, tillhandahållande av tjänster och hantering av tjänster, krävs en komplett och exakt modell för tjänstespecifikation. I detta dokument genomförde vi en enkät om befintliga tjänstebeskrivningsspråk som tillämpas i tre olika domäner-allmänna tjänster, Web/SOA-tjänster och molntjänster. Vi diskuterade och jämförde tidigare litteratur från sju viktiga aspekter, som är: (1) domän, (2) täckning, (3) syfte, (4) representation, (5) semantisk expressivitet, (6) avsedda användare, och (7) funktioner. Dessutom används två kärndimensioner - semantisk expressivitet och täckning - för att kategorisera och analysera de viktigaste tjänstebeskrivningsspråken med hjälp av Magic Quadrant-metodik. Dessa två dimensioner betraktas som de viktigaste faktorerna för utvärderingen av en modell för tjänstebeskrivning. Utifrån denna analys drog vi slutsatsen att Unid Service Description Language (USDL) är språket med den bredaste täckningen från affärsmässiga, tekniska och operativa aspekter, medan OWL-S är det språk som har den högsta semantiska expressiviteten. Äntligen identifieras och analyseras kritiska forskningsfrågor om molntjänstebeskrivningsspråk. Lösningen på dessa frågor kräver mer forskning om standardisering av specifikationer för molntjänster, vilket så småningom kommer att förbättra utvecklingen av molnindustrin.
Sol och al. REF har publicerat en undersökning av molndatabeskrivningsspråk.
39,706,822
Survey of Service Description Languages and Their Issues in Cloud Computing
{'venue': '2012 Eighth International Conference on Semantics, Knowledge and Grids', 'journal': '2012 Eighth International Conference on Semantics, Knowledge and Grids', 'mag_field_of_study': ['Computer Science']}
82,780
Abstrakt. Mikrobloggar är en utmanande ny informationskälla för datautvinningsteknik. Twitter är en mikrobloggningstjänst byggd för att upptäcka vad som händer när som helst, var som helst i världen. Twitter-meddelanden är korta och ständigt genererade och väl lämpade för kunskapssökning med hjälp av dataflödesutvinning. Vi diskuterar kortfattat de utmaningar som Twitter dataströmmar innebär, med fokus på klassificeringsproblem, och sedan överväga dessa strömmar för åsiktsutvinning och känsloanalys. För att hantera strömmande obalanserade klasser föreslår vi ett skjutfönster Kappa statistik för utvärdering i tidsförändrande dataströmmar. Med hjälp av denna statistik utför vi en studie på Twitterdata med inlärningsalgoritmer för dataströmmar.
REF beskriver ett datastreaming tillvägagångssätt för känsloanalys i Twitter-data.
18,644,719
Sentiment Knowledge Discovery in Twitter Streaming Data
{'venue': 'Discovery Science', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,781
Sammanhang spelar en viktig roll i detektionsarbetet. Med tanke på en kontextregion är dock inte all kontextuell information till nytta för den slutliga uppgiften. I detta dokument föreslår vi en ny pixel-wise kontextuell uppmärksamhet nätverk, dvs., PiCANet, att lära sig att selektivt delta i informativa sammanhang platser för varje pixel. Specifikt, för varje pixel, kan det generera en uppmärksamhet karta där varje uppmärksamhet vikt motsvarar den kontextuella relevansen på varje sammanhang plats. En närvarande kontextuell funktion kan sedan konstrueras genom att selektivt samla den kontextuella informationen. Vi formulerar det föreslagna PiCANet i både globala och lokala former för att delta i globala respektive lokala sammanhang. Båda modellerna är helt olika och kan integreras i CNN för gemensam utbildning. Vi införlivar även de föreslagna modellerna med U-Net-arkitekturen för att upptäcka viktiga objekt. Omfattande experiment visar att de föreslagna PiCANets kan konsekvent förbättra detektionsprestandan. De globala och lokala PiCANets underlättar inlärning av globala kontraster respektive homogenitet. Som ett resultat av detta kan vår soliditetsmodell upptäcka framträdande objekt mer exakt och enhetligt, och på så sätt prestera gynnsamt mot de toppmoderna metoderna. * Korresponderande författare Nyligen, konvolutionella neurala nätverk (CNN) har införts i Saliency detektion för att lära sig effektiv kontextuell representation. Specifikt, flera metoder [18, 24, 47] först direkt använda CNNs för att extrahera funktioner från flera bildregioner med varierande sammanhang och därefter kombinera dessa kontextuella funktioner för att sluta sig till sundhet. Några andra modeller [17, 19, 23, 22, 37, 9, 26, 45, 46, 38] antar helt konvolutionella nätverk [25] för funktionsrepresentation på varje bildplats och skapar en solid karta på ett konvolutionellt sätt. I dessa modeller, den första skolan extraherar kontextuella funktioner från varje indata bildregion, medan den andra ett extraherar funktioner på varje bild plats från dess motsvarande mottagliga fält. Alla befintliga modeller använder dock kontextregioner holistiskt för att konstruera kontextuella funktioner, där informationen på varje kontextuell plats är integrerad. Intuitivt, för en viss bild pixel, inte alla dess kontextuella information bidrar till sitt slutliga beslut. Vissa relaterade regioner är vanligtvis mer användbara, medan andra bullriga svar bör förkastas. Till exempel, för den röda prick pixel i den första raden i Figur 1, Vi måste jämföra det med bakgrunden för att dra slutsatsen sin globala kontrast. Om vi vill
PiCANet REF bäddar hierarkiskt in globala och lokala sammanhang.
4,534,041
PiCANet: Learning Pixel-Wise Contextual Attention for Saliency Detection
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,782
I detta dokument utvecklas en praktisk ram för att utnyttja de potentiella fördelarna med fysisk lagersäkerhet i tredimensionella trådlösa sensornätverk (WSN) med hjälp av stokastisk geometri. I sådana nätverk samlas avkänningsdata från fjärrsensorerna in av sänkor med hjälp av åtkomstpunkter, och de externa tjuvlyssnarna avlyssnar dataöverföringarna. Vi fokuserar på den säkra överföringen i två scenarier: 1) de aktiva sensorerna överför sina avkänningsdata till åtkomstpunkterna och 2) de aktiva åtkomstpunkterna vidarebefordrar data till sänkorna. Vi härleder nya kompakta uttryck för den genomsnittliga sekretessgraden i dessa två scenarier. Vi får också ett nytt kompakt uttryck för den totala genomsnittliga sekretessgraden. Numeriska resultat bekräftar vår analys och visar att flera antenner vid åtkomstpunkterna kan öka säkerheten för tre-tier WSNs. Våra resultat visar att ett ökat antal åtkomstpunkter minskar den genomsnittliga sekretessgraden mellan åtkomstpunkten och tillhörande diskbänk. Vi finner dock att en ökning av antalet åtkomstpunkter först ökar den totala genomsnittliga sekretessgraden, med ett kritiskt värde utöver vilket den totala genomsnittliga sekretessgraden sedan minskar. Vid ökning av antalet aktiva sensorer, både den genomsnittliga sekretessgraden mellan sensorn och dess tillhörande åtkomstpunkt, och den totala genomsnittliga sekretessgraden minskar. Att öka antalet sänkor förbättrar däremot både den genomsnittliga sekretessgraden mellan åtkomstpunkten och tillhörande diskbänk och den totala genomsnittliga sekretessgraden. Index Terms-Beamforming, avkoda-och-framåt (DF), fysisk lagersäkerhet, stokastisk geometri, trådlösa sensornätverk (WSN).
Baserat på denna modell föreslog författarna nya uttryck för den genomsnittliga sekretessgraden för att analysera överföringssäkerhet i praktiska WSNs REF.
3,408,099
Physical Layer Security in Three-Tier Wireless Sensor Networks: A Stochastic Geometry Approach
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,783
Abstract-Vi anser att problemet med att automatiskt känna igen mänskliga ansikten från frontalvyer med varierande uttryck och belysning, samt ocklusion och förklädnad. Vi kastar igenkänningsproblemet som ett av att klassificera bland flera linjära regressionsmodeller och hävdar att ny teori från gles signal representation erbjuder nyckeln till att ta itu med detta problem. Baserat på en sparsam representation som beräknas av'1 -minimering, föreslår vi en allmän klassificeringsalgoritm för (bildbaserad) objektigenkänning. Detta nya ramverk ger nya insikter i två viktiga frågor i ansikte erkännande: funktionsextraktion och robusthet till ocklusion. För funktionsextraktion visar vi att om sparsamheten i igenkänningsproblemet utnyttjas på rätt sätt, är valet av funktioner inte längre kritiskt. Vad som är avgörande är dock om antalet funktioner är tillräckligt stort och om den glesa representationen är korrekt beräknad. Okonventionella funktioner som ner sampled bilder och slumpmässiga projektioner utför precis som konventionella funktioner såsom Eigenfaces och Laplacianfaces, så länge dimensionen av funktionen utrymme överträffar vissa tröskel, förutspås av teorin om gles representation. Denna ram kan hantera fel på grund av ocklusion och korruption på ett enhetligt sätt genom att utnyttja det faktum att dessa fel ofta är glesa i förhållande till standarden (pixel). Teorin om sparsam representation hjälper till att förutsäga hur mycket ocklusion igenkänningsalgoritmen kan hantera och hur man väljer träningsbilder för att maximera robustheten till ocklusion. Vi utför omfattande experiment på allmänt tillgängliga databaser för att verifiera effektiviteten av den föreslagna algoritmen och bekräfta ovanstående påståenden.
I själva verket, så länge antalet icke-noll komponenter i 0 är en liten del av dimensionen M, kan l 1 -norm ersätta och återställa l 0 -norm effektivt REF.
7,677,466
Robust Face Recognition via Sparse Representation
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Medicine', 'Computer Science']}
82,784
Energiutgifterna har blivit en betydande del av driftskostnaderna för datacenter. Nyligen föreslogs en "geografisk lastbalansering" för att minska energikostnaderna genom att utnyttja skillnaderna i elpriser mellan olika regioner. Denna kostnadsminskning kan emellertid paradoxalt nog öka den totala energianvändningen. I detta dokument undersöks om den geografiska mångfalden av Internetsystem dessutom kan användas för att ge miljövinster. Vi undersöker särskilt om geografisk lastbalansering kan uppmuntra användningen av "grön" förnybar energi och minska användningen av "brun" fossil bränsleenergi. Vi gör två bidrag. Först härleder vi två distribuerade algoritmer för att uppnå optimal geografisk belastningsbalansering. För det andra visar vi att om elen är dynamiskt prissatt i förhållande till den momentana andelen av den totala energi som är brun, då ger geografisk belastningsbalansering betydande minskningar i brun energianvändning. Fördelarna beror dock i hög grad på i vilken utsträckning systemen accepterar dynamisk energiprissättning och vilken form av prissättning som används.
Begreppet geografisk belastningsbalansering REF har använts för att distribuera Internettrafik över distribuerade datacenter.
2,313,729
Greening geographical load balancing
{'venue': "SIGMETRICS '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,785
Ansiktsuttryck redigering är en utmanande uppgift eftersom det behöver en hög nivå semantisk förståelse av indata ansikte bild. I konventionella metoder, antingen parade träningsdata krävs eller det syntetiska ansiktets upplösning är låg. Dessutom kan endast kategorierna ansiktsuttryck ändras. För att ta itu med dessa begränsningar föreslår vi en expression Generative Adversarial Network (Exprgan) för fotorealistisk ansiktsuttrycksredigering med kontrollerbar uttrycksintensitet. En expression controller modul är speciellt utformad för att lära sig en expressiv och kompakt uttryck kod utöver encoder-dekoder nätverket. Denna nya arkitektur gör det möjligt att kontinuerligt justera uttrycksintensiteten från låg till hög. Vi visar vidare att vår Exprgan kan användas för andra uppgifter, såsom expression överföring, bildsökning, och dataförstärkning för utbildning förbättrad ansiktsuttryck modeller. För att ta itu med utbildningsdatabasens ringa storlek föreslås ett effektivt system för stegvist lärande. Kvantitativa och kvalitativa utvärderingar av de allmänt använda uppgifterna i Oulu-CASIA visar Exprgans effektivitet.
I REF föreslogs ett expression Generative Adversarial Network (Exprative Adversarial Network) där uttrycksintensiteten kunde kontrolleras kontinuerligt från svagt till starkt.
19,126,895
ExprGAN: Facial Expression Editing with Controllable Expression Intensity
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,786
Under de senaste åren har intresset för oövervakad inlärning av olika representationer ökat avsevärt. Det viktigaste antagandet är att verkliga data genereras av några förklarande faktorer för variation och att dessa faktorer kan återvinnas av oövervakade inlärningsalgoritmer. Ett stort antal oövervakade inlärningsmetoder som bygger på automatisk kodning och kvantitativa utvärderingsmått för disentangling har föreslagits, men ändå har effektiviteten i de föreslagna metoderna och nyttan av föreslagna begrepp om disentangling inte ifrågasatts i tidigare arbete. I detta dokument ger vi en nykter titt på den senaste tidens framsteg på området och utmanar vissa gemensamma antaganden. Vi visar först teoretiskt att det oövervakade lärandet av disentanglade representationer är i grunden omöjligt utan induktiva fördomar på både modeller och data. Sedan utbildar vi mer än 12 000 modeller som täcker de sex mest framträdande metoderna och utvärderar dem över sex disentanglingsmått i en reproducerbar storskalig experimentell studie på sju olika datamängder. På den positiva sidan observerar vi att olika metoder framgångsrikt genomdriva egenskaper "uppmuntrade" av motsvarande förluster. På den negativa sidan observerar vi i vår studie att välavskilda modeller till synes inte kan identifieras utan tillgång till mark-sanningsetiketter även om vi tillåts överföra hyperparametrar över datamängder. Dessutom tycks den ökade uppdelningen inte leda till en minskad urvals komplexitet när det gäller lärande för uppgifter i senare led. Dessa resultat tyder på att det framtida arbetet med att lösa inlärningen bör vara uttryckligt om rollen av induktiva fördomar och (implicit) övervakning, undersöka konkreta fördelar med att se till att de inlärda representationerna löses, och överväga en reproducerbar experimentell uppsättning som omfattar flera datauppsättningar.
REF har nyligen visat att utan tillgång till tillsyn eller induktiva förutfattade meningar är det omöjligt att lära sig lösa problem, eftersom det inte går att identifiera olika modeller.
54,089,884
Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations
{'venue': 'Proceedings of the 36th International Conference on Machine Learning (ICML 2019)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,787
Lärande inbäddningar av enheter och relationer är en effektiv och mångsidig metod för att utföra maskininlärning på relationella data såsom kunskapsgrafer. I detta arbete föreslår vi holografiska inbäddningar (HOLE) för att lära sig kompositionella vektorrymd representationer av hela kunskapsgrafer. Den föreslagna metoden är relaterad till holografiska modeller av associativt minne genom att den använder cirkulär korrelation för att skapa kompositions representationer. Genom att använda korrelation som kompositionsoperatör kan HOLE fånga rika interaktioner men samtidigt förbli effektivt att beräkna, lätt att träna och skalbara till mycket stora datauppsättningar. Experimentellt visar vi att holografiska inbäddningar kan överträffa toppmoderna metoder för länkförutsägelse på kunskapsgrafer och relationsbaserade referensdatauppsättningar.
För att skapa kompositionsrepresentationer använder HolE Ref korrelationen mellan enhetsinbäddningar.
6,071,257
Holographic Embeddings of Knowledge Graphs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,788
häst zebra zebra häst Sommar Vinter vinter vinter vinter sommar Fotografering Van Gogh Cezanne Monet Ukiyo-e Monet Bilder Monet foto foto Monet Figur 1: Med tanke på två oordnade bildsamlingar X och Y, vår algoritm lär sig att automatiskt "översätta" en bild från en till den andra och vice versa. Exempel ansökan (botten): med hjälp av en samling målningar av en berömd konstnär, lära sig att göra en användares fotografi i deras stil. Image-to-image översättning är en klass av vision och grafik problem där målet är att lära sig kartläggningen mellan en ingångsbild och en utgångsbild med hjälp av en utbildning uppsättning av anpassade bildpar. För många uppgifter kommer dock inte parade träningsdata att finnas tillgängliga. Vi presenterar ett tillvägagångssätt för att lära sig översätta en bild från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel. Vårt mål är att lära sig en kartläggning G : X → Y sådan att distributionen av bilder från G(X) är oskiljaktig från distributionen Y med hjälp av en kontradiktorisk förlust. Eftersom denna kartläggning är mycket underkonsekventa, vi par det med en invers kartläggning F : Y → X och införa en cykelkonsistens förlust att push F (G(X)) på X (och vice versa). Kvalitativa resultat presenteras på flera uppgifter där parade träningsdata inte finns, inklusive insamling stil överföring, objekttransfiguration, säsong överföring, fotoförbättring, etc. Kvantitativa jämförelser mot flera tidigare metoder visar hur överlägsen vår strategi är.
En av de första metoderna som formaliserar möjligheten att översätta bilder från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel föreslogs av REF och kallas CycleGAN.
206,770,979
Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
82,789
på - Accurate mjukvaruutveckling ansträngning uppskattning är en kritisk del av programvaruprojekt. Effektiv utveckling av programvara bygger på noggrann ansträngningsuppskattning. Även om många tekniker och algoritmiska modeller har utvecklats och implementerats av utövare är exakt förutsägelse om mjukvaruutveckling fortfarande en utmaning inom programvaruteknik, särskilt när det gäller att hantera osäkra och oprecisa ingångar och kollinjära egenskaper. För att ta itu med dessa frågor har tidigare forskare utvecklat och utvärderat ett nytt ramverk för mjuk databehandling. Syftet med vår forskning är att utvärdera förutsägelsen av den föreslagna neuro-fuzzy modellen med Systemutvärdering och Estimation of Resource Software Estimation Model (SEER-SEM) i programuppskattningspraxis och att tillämpa den föreslagna arkitekturen som kombinerar neuro-fuzzy teknik med olika algoritmiska modeller. I detta dokument beskrivs ett tillvägagångssätt som kombinerar neuro-fuzzy teknik och SEER-SEM ansträngning estimering algoritm. Denna föreslagna modell har positiva egenskaper som inlärningsförmåga, nedsatt känslighet, effektiv generalisering och kunskapsintegration för att introducera den neuro-fuzzy tekniken. Dessutom kan kontinuerliga betygsvärden och språkliga värden ingå i den föreslagna modellen för att undvika den stora skattningsavvikelsen mellan liknande projekt. Den föreslagna modellens resultat nås genom att man utformar och genomför utvärderingar med publicerade projekt och industridata. Utvärderingsresultaten visar att skattningen med vår föreslagna neuro-fuzzy modell innehållande SEER-SEM förbättras jämfört med de skattningsresultat som endast använder SEER-SEM algoritm. Samtidigt visar resultaten av denna forskning också att det allmänna neuro-fuzzy ramverket kan fungera med olika algoritmiska modeller för att förbättra prestandan för estimering av programvaruansträngningar.
Wei Lin Du m.fl. REF föreslog ett tillvägagångssätt som kombinerar neuro-fuzzy teknik och SEER-SEM ansträngning estimering algoritm.
8,732,545
Improving Software Effort Estimation Using Neuro-Fuzzy Model with SEER-SEM
{'venue': 'Global Journal of Computer Science and Technology, 10(12):52-64, 2010', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,790
ABSTRACT Wireless body area networks (WBAN) måste ta itu med störningsattacker för att stödja vårdapplikationer. I detta dokument presenterar vi ett förstärkande inlärningsbaserat kraftstyrningssystem för kommunikationen mellan sensorerna i kroppen och WBAN-samordnaren för att motstå störattacker. Detta system tillämpar Q-learning för att vägleda koordinatorn att uppnå en optimal effektstyrningsstrategi utan att vara medveten om sensorns transmissionsparametrar och WBAN-modellen av de andra sensorerna i den dynamiska anti-jamming transmissionen. Dessutom används en överföringsutbildningsmetod för att påskynda inlärningshastigheten. Stackelberg equilibria och deras existensförhållanden härleds i ett enda tidsintervall till övre gräns för prestandan hos det inlärningsbaserade sensorns effektstyrningssystem. Simuleringsresultat visar att det föreslagna systemet effektivt kan öka verktygen och minska energiförbrukningen för transmissionssensorerna i kroppen och WBAN-samordnaren, och samtidigt minska risken för störning jämfört med ett standardsystem för Q-lärande-baserat sensorkraftstyrningssystem. INDEX TERMS Trådlösa nätverk, strömkontroll, sensorer i kroppen, störattacker, spelteori.
Vårt tidigare arbete i REF antar RL för att hjälpa sensorerna och koordinatorn spara energi och motstå störattacker.
50,775,291
Reinforcement Learning Based Power Control for In-Body Sensors in WBANs Against Jamming
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
82,791
I Sydkorea byggs ett LTE-baserat nätverk för allmän säkerhet (PS)-LTE med 718 ~ 728 MHz för upplänk och 773 ~ 783 MHz för nedlänk. Samma band tilldelas dock också det LTE-baserade järnvägsnätet för höghastighetståg (LTE-R), vilket innebär att det är absolut nödvändigt med stora farhågor och praktiska undersökningar om förvaltningssystem för samkanalsinterferens (CCI). I detta dokument analyseras och utvärderas prestanda genom att man tar hänsyn till fall av icke-RAN (radioaccess network) delning och LTE-R RAN delning av PS-LTE användarutrustning (UE). Eftersom en tågstyrningssignal kräver hög tillförlitlighet och låg latens för att uppfylla sina uppdragskritiska servicekrav ger vi högre prioritet åt LTE-R UE under resurstilldelningen under LTE-R RAN-delningen av PS-LTE UE. Dessutom är interferenshanteringssystem effektivare när det gäller samexistensen mellan PS-LTE- och LTE-R-nätverk inom ramen för RAN-delningsmiljön. I detta dokument använder vi förbättrad intercellinterferenssamordning (eICIC) och ytterligare förbättrade ICIC-system (FeICIC) för att minska störningen från PS-LTE-nätverk till LTE-R-nätverk och samtidigt förbättra resursutnyttjandet av LTE-R eNodeB (eNB) genom att avlasta fler PS-LTE UEs till LTE-R-nätverk. Dessutom beaktas ett samordnat flerpunktsöverföringssystem (CoMP) bland LTE-R eNBs för att förbättra LTE-R-cellkantanvändarnas prestanda. Genom att använda FeICIC tillsammans med samordnad schemaläggning (CS) CoMP, kan den bästa genomströmningen uppnås när det gäller RAN-delning.
Till skillnad från referensreferensreferensdokumentet beaktas i detta dokument CS CoMP mellan PS-LTE och LTE-R eNBs, PS-LTE och PS-LTE eNBs och LTE-R och LTE-R eNBs.
8,387,269
Co-channel interference management using eICIC/FeICIC with coordinated scheduling for the coexistence of PS-LTE and LTE-R networks
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
82,792
Djupa neurala nätverk (DNN) är en av de mest framträdande teknikerna i vår tid, eftersom de uppnår state-of-the-art prestanda i många maskininlärning uppgifter, inklusive men inte begränsat till bildklassificering, textbrytning, och talbehandling. Den senaste tidens forskning om DNN har dock visat en allt större oro för robustheten i kontradiktoriska exempel, särskilt när det gäller säkerhetskritiska uppgifter som identifiering av trafikskyltar för autonom körning. Studier har avslöjat sårbarheten hos en vältränad DNN genom att visa förmågan att generera knappt märkbara (till både mänskliga och maskiner) motbilder som leder till felklassificering. Dessutom har forskare visat att dessa kontradiktoriska bilder är mycket överförbara genom att helt enkelt träna och attackera en alternativ modell byggd på målmodellen, känd som en black-box attack till DNNs. I likhet med fastställandet av utbildningssubstitut modeller föreslår vi i detta dokument en effektiv black-box attack som också endast har tillgång till indata (bilder) och resultat (förtroende poäng) av en riktad DNN. Däremot, skiljer sig från hävstång attack överförbarhet från ersättningsmodeller, föreslår vi noll orderoptimering (ZOO) baserade attacker för att direkt uppskatta lutningarna av den riktade DNN för att generera kontrarimala exempel. Vi använder nollordordning stokastisk koordinat nedstigning tillsammans med dimensionsreduktion, hierarkisk attack och betydelse provtagning tekniker till * Pin-Yu Chen och Huan Zhang bidrar lika till detta arbete. † Detta arbete utförs under praktik på IBM T. J. Watson Research Center angriper effektivt svart-box modeller. Genom att utnyttja noll-orderoptimering kan förbättrade attacker mot den riktade DNN åstadkommas, vilket sparar behovet av utbildningssubstitut modeller och undvika förlust av angrepp överförbarhet. Experimentella resultat på MNIST, CIFAR10 och ImageNet visar att den föreslagna ZOO-attacken är lika effektiv som den toppmoderna white-box-attacken (t.ex., Carlini och Wagners attack) och avsevärt överträffar befintliga black-box-attacker via alternativa modeller. KEYWORDS kontradiktoriskt lärande; Black-box attack; djupinlärning; neurala nätverk; substitut modell Session: Deep Learning AISec'17, November 3, 2017, Dallas, TX, USA
Chen och Al. REF föreslog Zeroth Order Optimization (ZOO), som approximerar gradientinformation genom den symmetriska differenskvoten för att generera kontradiktoriska exempel.
2,179,389
ZOO: Zeroth Order Optimization Based Black-box Attacks to Deep Neural Networks without Training Substitute Models
{'venue': "AISec '17", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,793
Sammanfattning Ett av de största problemen inom mönsterbrytning är explosionen av antalet resultat. Täta begränsningar avslöjar bara gemensam kunskap, medan lösa begränsningar leder till en explosion i antalet returnerade mönster. Detta orsakas av stora grupper av mönster som i huvudsak beskriver samma uppsättning transaktioner. I detta dokument närmar vi oss detta problem med hjälp av MDL-principen: den bästa uppsättningen mönster är som sätter som komprimerar databasen bäst. För denna uppgift introducerar vi Krimp algoritmen. Experimentell utvärdering visar att vanligtvis bara hundratals artiklar returneras; en dramatisk minskning, upp till sju storleksordningar, i antalet frekventa objektuppsättningar. Dessa val, som kallas kodtabeller, är av hög kvalitet. Detta visas med kompressionsförhållanden, swap-randomisering och noggrannheten hos den kodtabellbaserade Krimp-klassificeringen, som alla erhålls på ett brett spektrum av datauppsättningar. Vidare utvärderar vi i stor utsträckning de heuristiska val som gjorts i utformningen av algoritmen.
Problemen med frekvent objektuppsättning gruvdrift kan lösas med hjälp av MDL (Minimum Beskrivning Längd) princip: den bästa uppsättningen av frekventa objektuppsättningar är den uppsättning som komprimerar databasen bäst REF.
8,576,129
Krimp: mining itemsets that compress
{'venue': 'Data Mining and Knowledge Discovery', 'journal': 'Data Mining and Knowledge Discovery', 'mag_field_of_study': ['Computer Science']}
82,794
Att lära sig glesa funktioner representationer är ett användbart instrument för att lösa ett oövervakat inlärningsproblem. I detta papper, presenterar vi tre märkta handskrivna siffror dataset, kollektivt kallas n-MNIST genom att lägga till buller till MNIST dataset, och tre märkta dataset bildas genom att lägga till buller till offline Bangla numeral databas. Sedan föreslår vi en roman Detta är en utökad version av tidningen publicerad i ESANN 2015, [1]. 123 856 S. Basu m.fl. Ramverk för klassificering av handskrivna siffror som lär sig glesa representationer med hjälp av probabilistiska quadtrees och Deep Trof Nets. På MNIST, n-MNIST och bullriga Bangla dataset visar vårt ramverk lovande resultat och överträffar traditionella Deep Trof Networks. Nyckelord Djup neurala nätverk · Handskriven sifferklassificering · Probabilistiska quadtrees · Djup tro nätverk · Sparse funktion representation Djupt lärande har vunnit popularitet under det senaste årtiondet på grund av dess förmåga att lära sig data representationer på ett oövervakat sätt och generalisera till osynliga dataprover med hjälp av hierarkiska representationer. En av de populära oövervakade Deep learning modellerna är Deep Trofi Network [2]. I [3], Deep Trof Networks har använts för att modellera akustiska signaler och har visat sig överträffa traditionella metoder med Gaussian Blandning Modeller för automatisk Taligenkänning (ASR). En girig lagervis förträning med Restrikted Boltzmann Machine (RBM) används för att träna Deep Belief Network. En sparsam funktion inlärningsalgoritm för Deep Trof Networks föreslogs i [4]. Deras arbete var dock inriktat på att maximera informationsinnehållet i de inlärda representationerna. Begränsade Boltzmann maskiner, å andra sidan, tränas genom att minimera en kontrasterande term i förlustfunktionen. Deep Trof Networks har också använts för att analysera satellitbilder [5] samt texturdataset [6]. De viktigaste bidragen i vårt arbete är tvåfaldiga -(1) Vi presenterar först tre märkta handskrivna siffror dataset, kollektivt kallade n-MNIST, och tre märkta Bangla siffror dataset, skapade genom att lägga till vit gaussian buller, rörelse oskärpa och minskad kontrast till den ursprungliga MNIST dataset[7] och offline handskrivna Bangla siffror dataset [8]. (2) Därefter presenterar vi en ram för klassificeringen av handskrivna siffror som a) lär sig probabilistiska quadtrees från datasetet, b) utför en fördjupad första sökning på quadtrees för att skapa glesa representationer i form av linjära vektorer, och c) matar linjära vektorer till ett Deep Belief Network för klassificering. På MNIST, n-MNIST och bullriga Bangla dataset visar vårt ramverk lovande resultat och överträffar traditionella Deep Trof Networks. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Basu m.fl. REF presenterar n-MNIST-datasetet, som lägger till Gaussiskt brus, rörelseoskärpa och minskad kontrast till de ursprungliga bilderna av MNIST-datasetet.
1,278,554
Learning Sparse Feature Representations Using Probabilistic Quadtrees and Deep Belief Nets
{'venue': 'Neural Processing Letters', 'journal': 'Neural Processing Letters', 'mag_field_of_study': ['Computer Science']}
82,795
Stora pre-tränade neurala nätverk som BERT har haft stor framgång på senare tid i NLP, motivera en växande kropp av forskning undersöker vilka aspekter av språket de kan lära sig av omärkta data. Den senaste analysen har fokuserat på modellutgångar (t.ex. språkmodellen surprisal) eller interna vektorrepresentationer (t.ex. probing classifiers). Kompletterande till dessa arbeten föreslår vi metoder för att analysera uppmärksamhetsmekanismerna i förtränade modeller och tillämpa dem på BERT. BERT: s uppmärksamhet huvuden uppvisar mönster såsom att ta hand om avgränsa tokens, specifika positionsförskjutningar, eller i stort sett delta över hela meningen, med huvuden i samma lager ofta uppvisar liknande beteenden. Vi visar vidare att vissa uppmärksamhetshuvuden stämmer väl överens med språkliga begrepp om syntax och samreferens. Till exempel finner vi huvuden som sköter de direkta föremålen för verb, bestämmare av substantiv, objekt av prepositioner, och coreferent nämner med anmärkningsvärt hög noggrannhet. Slutligen föreslår vi en uppmärksamhetsbaserad klassificering och använder den för att ytterligare visa att väsentlig syntaktisk information fångas i BERT:s uppmärksamhet.
REF utbildar en probing klassificerare på uppmärksamhetshuvuden av BERT och visar att BERT:s uppmärksamhet huvuden fångar väsentlig syntaktisk information.
184,486,746
What Does BERT Look At? An Analysis of BERT's Attention
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,796
Med den snabba tillväxten av webbbilder har hashing fått allt större intresse för storskalig bildsökning. Forskningsinsatser har ägnats åt att lära sig kompakta binära koder som bevarar semantisk likhet baserad på etiketter. De flesta av dessa hashing metoder är dock utformade för att hantera enkel binär likhet. Den komplexa semantiska strukturen av bilder som förknippas med flera etiketter har ännu inte utforskats väl. Här föreslår vi en djup semantisk rankningsmetod för att lära sig hashfunktioner som bevarar semantisk likhet mellan multietikettbilder. I vårt förhållningssätt inkorporeras djupa konvolutionella neurala nätverk i hashfunktioner för att gemensamt lära sig funktionsrepresentationer och kartläggningar från dem till hashkoder, vilket undviker begränsningen av semantisk representationskraft av handgjorda funktioner. Samtidigt används en rankningslista som kodar informationen om likheter på flera nivåer för att vägleda inlärningen av sådana djupa hashfunktioner. Ett effektivt system baserat på surrogatförlust används för att lösa det svårhanterliga optimeringsproblemet med nonsmooth och multivariata rankningsåtgärder som är involverade i inlärningsprocessen. Experimentella resultat visar överlägsenheten i vårt föreslagna tillvägagångssätt jämfört med flera "state-of-theart hashing"-metoder när det gäller rankning av mätvärden när de testas på flermärkta bilddataset. 978-1-4673-6964-0/15/$31.00 ©2015 IEEE
Efter detta arbete har många inlärningsbaserade hashingtekniker föreslagits, t.ex. Deep Semantic Ranking Hashing (DSRH) REF som lär sig hashfunktionerna genom att bevara semantisk likhet mellan flermärkta bilder.
2,519,230
Deep semantic ranking based hashing for multi-label image retrieval
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,797
Detta dokument gör det möjligt att studera webbarkivisternas arbete, i ett försök att undersöka hur utövare formar bevarandet och underhållet av den arkiverade webben i dess olika former. Ett etnografiskt tillvägagångssätt tas genom användning av observation, intervjuer och dokumentära källor under loppet av flera veckor i samarbete med webbarkivister, ingenjörer och chefer på Internet Archive - ett privat, ideellt digitalt bibliotek som har arkiverat webben sedan 1996. Begreppet webbarkivarbete föreslås omfatta och belysa hur webbarkivister (som både nätverkade mänskliga och icke-mänskliga agenter) formar och upprätthåller den bevarade webben genom arbete som ofta är inbäddat i och fördunklat av de komplexa tekniska arrangemangen för insamling och åtkomst. Som ett resultat, detta engagemang positionerar webbarkiv som platser för kunskap och kulturell produktion i sin egen rätt, avslöjar nya insikter i den performativa karaktären av webbarkivering som har konsekvenser för hur dessa data används och förstås. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Ogden belyser beteendet och arbetet av webbarkivister REF.
7,287,254
Observing Web Archives: The Case for an Ethnographic Study of Web Archiving
{'venue': "WebSci '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,798
Genom-omfattande associationsstudier (GWAS) har blivit en populär metod för att analysera uppsättningar av DNA-sekvenser för att upptäcka den genetiska grunden för sjukdomen. Tyvärr kan statistik som publicerats som resultat av GWAS användas för att identifiera individer som deltar i studien. För att förhindra intrång i privatlivet har även tidigare publicerade resultat tagits bort från offentliga databaser, vilket hindrar forskares tillgång till data och hindrar forskningssamverkan. Befintliga tekniker för integritetsbevarande GWAS fokuserar på att besvara specifika frågor, såsom korrelationer mellan ett givet par SNP:er (DNA-sekvensvariationer). Detta passar inte in i den typiska GWAS-processen, där analytikern kanske inte i förväg vet vilka SNP:er som ska beaktas och vilka statistiska tester som ska användas, hur många SNP:er som är betydande för en viss datauppsättning osv. Vi presenterar en uppsättning praktiska, integritetsbevarande data mining algoritmer för GWAS datauppsättningar. Vårt ramverk stöder undersökande dataanalys, där analytikern inte på förhand vet hur många och vilka SNP:er som ska beaktas. Vi utvecklar integritetsbevarande algoritmer för beräkning av antal och plats för SNP:er som är väsentligt förknippade med sjukdomen, betydelsen av alla statistiska tester mellan en given SNP och sjukdomen, alla mått på korrelation mellan SNP:er, och blockstrukturen av korrelationer. Vi utvärderar våra algoritmer på verkliga datauppsättningar och visar att de ger betydligt mer exakta resultat än tidigare tekniker samtidigt som vi garanterar differentialintegritet.
I samma anda föreslår Johnson och Shmatikov REF algoritmer för integritetsbevarande för att beräkna olika statistik relaterade till SNPs, samtidigt som olika integritet garanteras.
13,188,847
Privacy-preserving data exploration in genome-wide association studies
{'venue': "KDD '13", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,799
Vi presenterar en metod för att uppskatta artikulerade mänskliga pose från en enda statisk bild baserad på en grafisk modell med nya parvisa relationer som gör adaptiv användning av lokala bildmätningar. Mer exakt anger vi en grafisk modell för mänsklig pose som utnyttjar det faktum att de lokala bildmätningarna kan användas både för att upptäcka delar (eller leder) och för att förutsäga de rumsliga sambanden mellan dem (Bildberoende parvisa relationer). Dessa rumsliga relationer representeras av en blandningsmodell. Vi använder Deep Convolutional Neural Networks (DCNN) för att lära oss villkorliga sannolikheter för närvaron av delar och deras rumsliga relationer inom bildplåster. Därför kombinerar vår modell representationsflexibiliteten hos grafiska modeller med DCNN:s effektivitet och statistiska kraft. Vår metod överträffar betydligt toppmoderna metoder på LSP- och FlIC-dataseten och presterar också mycket bra på Buffy-datasetet utan någon utbildning.
I REF utökar Chen och Yuille ytterligare detta genom att använda en grafisk modell och använda djupa CNNs för att lära sig de villkorliga sannolikheterna för närvaro av leder och deras rumsliga relationer.
6,619,926
Articulated Pose Estimation by a Graphical Model with Image Dependent Pairwise Relations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
82,800
Cloud computing leverantörer har inrättat flera datacenter på olika geografiska platser över Internet för att optimalt tillgodose behoven hos sina kunder runt om i världen. Befintliga system stöder dock inte mekanismer och policyer för dynamisk samordning av lastfördelning mellan olika molnbaserade datacenter för att fastställa optimal plats för hosting av applikationstjänster för att uppnå rimliga QoS-nivåer. Dessutom kan leverantörerna av molntjänster inte förutsäga geografisk distribution av användare som konsumerar sina tjänster, och därför måste belastningssamordningen ske automatiskt, och distributionen av tjänster måste förändras som svar på förändringar i belastningen. För att motverka detta problem förespråkar vi skapandet av federerad molndatamiljö (InterCloud) som underlättar just-in-time, opportunistisk och skalbar tillhandahållande av applikationstjänster, konsekvent uppnå QoS-mål under varierande arbetsbelastning, resurs- och nätverksförhållanden. Det övergripande målet är att skapa en datormiljö som stöder dynamisk expansion eller krympning av kapacitet (VM, tjänster, lagring och databas) för att hantera plötsliga variationer i servicekrav. I detta dokument presenteras visioner, utmaningar och arkitektoniska delar av InterCloud för verktygsorienterad federation av Cloud computing-miljöer. Den föreslagna InterCloud-miljön stöder skalning av applikationer över flera leverantörsmoln. Vi har validerat vår strategi genom att genomföra en rigorös utvärderingsstudie med hjälp av verktygslådan CloudSim. Resultaten visar att den federerade molndatamodellen har en enorm potential eftersom den erbjuder betydande resultatvinster när det gäller svarstid och kostnadsbesparingar under dynamiska arbetsbelastningsscenarier.
Syftet med en federerad molndatamiljö, t.ex. REF, är att "samordna lastfördelning mellan olika molnbaserade datacenter för att bestämma optimal plats för hosting applikationstjänster".
14,755,515
InterCloud: Utility-Oriented Federation of Cloud Computing Environments for Scaling of Application Services
{'venue': 'Proceedings of the 10th International Conference on Algorithms and Architectures for Parallel Processing (ICA3PP 2010, Busan, South Korea, May 21-23, 2010), LNCS, Springer, Germany, 2010.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,801
Säker tvåpartsberäkning gör det möjligt för två otillförlitliga parter att gemensamt beräkna en godtycklig funktion på sina respektive privata indata samtidigt som de inte avslöjar någon information utöver resultatet. Befintliga kryptografiska kompilatorer kan automatiskt generera säkra beräkningsprotokoll från högnivåspecifikationer, men är ofta begränsade i deras användning och effektivitet av genererade protokoll eftersom de är baserade på antingen förvrängda kretsar eller (additivt) homomorphic kryptering endast. I detta dokument presenterar vi TASTY, ett nytt verktyg för automatisering, dvs. att beskriva, generera, utföra, benchmarking, och jämföra, effektiva säkra tvåparts beräkning protokoll. TASTY är en ny kompilator som kan generera protokoll baserade på homomorfisk kryptering och effektiva förvrängda kretsar samt kombinationer av båda, som ofta ger de mest effektiva protokoll som finns tillgängliga idag. Användaren ger en beskrivning på hög nivå av de beräkningar som ska utföras på krypterade data på ett domänspecifikt språk. Detta omvandlas automatiskt till ett protokoll. TASTY erbjuder de senaste teknikerna och optimeringarna för praktisk säker tvåpartsberäkning med låg nätlatens. Dessutom gör det möjligt att effektivt utvärdera kretsar som genereras av den välkända Fairplay kompilatorn. Vi använder TASTY för att jämföra protokoll för säker multiplikation baserat på homomorfisk kryptering med dem baserade på förvrängda kretsar och högeffektiv Karatsuba multiplikation. Vidare visar vi hur TASTY förbättrar online-latensen för att säkert utvärdera AES-funktionaliteten i en storleksordning jämfört med tidigare programimplementeringar. TASTY gör det möjligt att automatiskt generera effektiva säkra protokoll för många integritetsbevarande program där vi överväger användningsfall för privata set skärningspunkt och ansiktsigenkänning protokoll.
Andra mer generella protokoll kombinerar delvis homomorf kryptering med förvrängda kretskonstruktioner REF.
7,276,194
TASTY: tool for automating secure two-party computations
{'venue': "CCS '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,802
Bakgrund: Exakt patientpositionering och därmed exakt positionering av planeringsmålet (PTV) är en förutsättning för effektiv behandling vid perkutan strålbehandling. Konventionella avbildningsmetoder som används för att säkerställa exakt positionering för behandling innebär vanligtvis ytterligare strålningsexponering för patienten. Ett annat sätt att närma sig patientens inställning utan ytterligare exponering tillhandahålls av optiska 3D-system för ytskanning och registrering. Vi undersökte två system (Catalyst och AlignRT), som gjorde det möjligt för oss att generera och validera ytbilder av 50 patienter som genomgick bestrålning på ett Tomoterapisystem. Vi jämförde de positioner som föreslås av dessa två ytavbildningssystem (SIS) med de faktiska justeringar i patientpositioner som görs på grundval av Megaspänning CT skanningar. Med de två SIS registrerades ytan på varje enskild patient upprepade gånger under hela behandlingen. Dessutom gjorde vi en systematisk analys av båda systemen med hjälp av en kroppsfantom. Resultat: Minst 10 ytbilder fanns tillgängliga från varje patient som ingick i analysen. Det stora antalet patienter tillät oss att dela upp studiepopulationen i tre grupper per kroppsregion som behandlades: huvud och hals, bröst och bäcken. Resultaten för var och en av dessa tre organregioner analyserades separat. Därför fokuserar vår undersökning på kroppsregioner registrerade med de två systemen snarare än tumörenheter. För AlignRT fann vi till exempel en förbättring av positioneringen för Pelvic-regionen på 0,9 mm i 75 % och 6,4 mm i 95 % av de insamlade uppgifterna jämfört med konventionell markörjustering. De två systemen var mest exakta i huvud- och halsregionen, där konventionell maskjustering redan är tillräckligt exakt. De andra två kroppsregionerna, bäcken och bröst, kan dra nytta av SIS-positionering. Men för båda systemen finns det fortfarande ett behov av förbättringar för att minska den statistiska variationen.
Referens-REF rapporterar om två kommersiella optiska sensorer (ytavbildningssystem) och jämför dem med de faktiska justeringar i patientpositioner som görs på grundval av megaspännings-CT-skanningar.
74,350,286
Clinical Validation of two Surface Imaging Systems for Patient Positioning in Percutaneous Radiotherapy
{'venue': None, 'journal': 'arXiv: Medical Physics', 'mag_field_of_study': ['Physics', 'Medicine']}
82,803
Modeller för att förutsäga bedömningar av kvaliteten på Spoken Dialog Systems har använts som övergripande utvärderingsmått eller som optimeringsfunktioner i adaptiva system. Vi beskriver ett nytt förhållningssätt till sådana modeller med hjälp av Hidden Markov Models (HMMs). Användarens åsikt betraktas som en kontinuerlig process som utvecklas över tiden. Vi presenterar datainsamlingsmetoden och de resultat som uppnåtts med HMM-modellen.
En strategi som presenterades av Engelbrecht m.fl. REF använder dolda Markov-modeller (HMM) för att modellera SDS som en process som utvecklas med tiden.
10,012,351
Modeling User Satisfaction with Hidden Markov Models
{'venue': 'Proceedings of the SIGDIAL 2009 Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,804
Abstract-Packet förlust och end-to-end fördröjning begränsa fördröjning känsliga program över bästa ansträngning paket bytte nätverk som Internet. I vårt tidigare arbete har vi visat att betydande minskning av paketförluster kan uppnås genom att skicka paket till en mottagare från flera avsändare, med hjälp av separata vägar, och genom att skydda paket med framåt felkorrigering. I detta dokument föreslår vi en Path Diversity with Forward felkorrigering (PDF) system för att fördröja känsliga applikationer över Internet där, åtskilda vägar från en avsändare till en mottagare skapas med hjälp av en samling relänoder. Vi föreslår ett skalbart, heuristiskt system för att välja en redundant väg mellan en avsändare och en mottagare, och visar att betydande minskning av paketförlust kan uppnås genom att dela paket mellan standardväg och redundant väg. NS-simuleringar används för att verifiera PDF-systemets effektivitet.
Arbetet utökas ytterligare i REF där ett skalbart, heuristiskt system för att välja en redundant väg mellan en ingressnod och en utgångsnod presenteras.
14,552,534
Path diversity with forward error correction (PDF) system for packet switched networks
{'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']}
82,805
Den villkorliga begränsade Boltzmann Machine (CRBM) är en nyligen föreslagen modell för tidsserier som har en rik, distribuerad dolda tillstånd och tillåter enkel, exakt slutsats. Vi presenterar en ny modell, baserad på CRBM som bevarar sina viktigaste beräkningsegenskaper och inkluderar multiplikativa trevägsinteraktioner som gör att den effektiva interaktionsvikten mellan två enheter kan moduleras av det dynamiska tillståndet hos en tredje enhet. Vi tar hänsyn till den trevägsvikt tensor som den multiplikativa modellen antyder, vilket minskar antalet parametrar från Resultatet är en effektiv, kompakt modell vars effektivitet vi demonstrerar genom att modellera människans rörelse. Precis som CRBM kan vår modell fånga olika rörelsestilar med en enda uppsättning parametrar, och de trevägsinteraktioner avsevärt förbättra modellens förmåga att blanda rörelsestilar eller att gå över smidigt bland dem.
REF föreslår att den villkorliga begränsade Boltzmann Machine (cRBM) används för att förutsäga nästa pose av kroppen under locomotion.
718,390
Factored conditional restricted Boltzmann Machines for modeling motion style
{'venue': "ICML '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,806
Abstrakt. I detta dokument presenteras en ny metod för säkerhetskontroll av hybridsystem. För att bevisa att alla banor i ett hybridsystem inte kommer in i en osäker region använder den föreslagna metoden en funktion av staten som kallas ett barriärcertifikat. Nollnivåuppsättningen av ett barriärcertifikat skiljer den osäkra regionen från alla möjliga banor från en given uppsättning ursprungliga förhållanden, vilket ger ett exakt bevis på systemsäkerheten. Ingen explicit beräkning av nåbara uppsättningar krävs vid konstruktion av barriärcertifikat, vilket gör att icke-linjäritet, osäkerhet och begränsningar kan hanteras direkt inom denna ram. Metoden är också beräkningsbart, eftersom barriärcertifikat kan konstrueras med summan av kvadrater sönderdelning och semidefinit programmering. Några exempel ges för att illustrera användningen av metoden.
Ett tillvägagångssätt som möjliggör säkerhetskontroll av hybridsystem med osäkra parametrar är användningen av barriärcertifikat som föreslås i REF.
16,339,818
Safety Verification of Hybrid Systems Using Barrier Certificates
{'venue': 'HSCC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,807
Vi introducerar en ny metod för representationsinlärning för domänanpassning, där data vid utbildning och testtid kommer från liknande men olika distributioner. Vårt förhållningssätt är direkt inspirerat av teorin om domänanpassning som antyder att för att en effektiv domänöverföring ska kunna uppnås måste förutsägelser göras utifrån egenskaper som inte kan diskriminera mellan utbildning (källa) och test (mål) domäner. Metoden implementerar denna idé i samband med neurala nätverksarkitekturer som är utbildade på märkta data från källdomänen och omärkta data från måldomänen (inga märkta måldomändata är nödvändiga). I takt med att utbildningen fortskrider främjar metoden uppkomsten av funktioner som är i) diskriminerande för den huvudsakliga inlärningsuppgiften på källdomänen och ii) urskillningslösa när det gäller övergången mellan domänerna. Vi visar att detta anpassningsbeteende kan uppnås i nästan alla feed-forward-modeller genom att utöka det med få standardlager och ett nytt gradientreverseringslager. Den resulterande utökade arkitekturen kan tränas med hjälp av standard backpropagation och stokastisk lutning nedstigning, och kan därmed genomföras med liten ansträngning med hjälp av någon av de djupa lärande paket. Vi demonstrerar framgången med vår strategi för två distinkta klassificeringsproblem (dokumentkänslor och bildklassificering), där toppmoderna domänanpassningsprestanda på standardriktmärken uppnås. Vi validerar också tillvägagångssättet för deskriptorinlärning i samband med personomidentifiering.
Till exempel Ganin et al. REF ) utförde domänanpassningen genom att lägga till en domänklassificerare och ett lutningsreverseringsskikt.
2,871,880
Domain-Adversarial Training of Neural Networks
{'venue': 'Journal of Machine Learning Research 2016, vol. 17, p. 1-35', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
82,808
Abstract-Automatisk självlokalisering är ett kritiskt behov av effektiv användning av ad hoc-sensornätverk i militära eller civila tillämpningar. I allmänhet innebär självlokalisering en kombination av absolut lokaliseringsinformation (t.ex. från ett globalt positioneringssystem) med relativ kalibreringsinformation (t.ex. avståndsmätningar mellan sensorer) över områden i nätverket. Dessutom är det i allmänhet önskvärt att fördela beräkningsbördan över nätet och minimera mängden intersensorkommunikation. Vi visar att den information som används för sensorlokalisering är i grunden lokal när det gäller nätverkets topologi och använder denna observation för att omformulera problemet inom en grafisk modellram. Därefter presenterar och demonstrerar vi nyttan av icke-parametrisk trosutbredning (NBP), en nyligen genomförd generalisering av partikelfiltrering, både för att uppskatta sensorplatser och för att representera platsosäkerheter. NBP har fördelen att det enkelt implementeras på ett distribuerat sätt, medger en mängd olika statistiska modeller och kan utgöra multimodal osäkerhet. Med hjälp av simuleringar av små till måttligt stora sensornätverk, visar vi att NBP kan göras robust för att överträffa mätfel genom en enkel modellförstärkning, och att omdömesgilla meddelandekonstruktioner kan resultera i bättre uppskattningar. Dessutom tillhandahåller vi en analys av NBP:s kommunikationskrav, som visar att normalt bara ett fåtal meddelanden per sensor krävs, och att även låg bithastighets approximationer av dessa meddelanden kan användas med liten eller ingen prestandapåverkan.
REF visar nyttan av icke-parametrisk trosutbredning (NBP) för självlokalisering i sensornätverk.
525,112
Nonparametric belief propagation for self-localization of sensor networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
82,809
Nätverksinbäddning tilldelar noder i ett nätverk lågdimensionella representationer och bevarar effektivt nätverksstrukturen. Nyligen har en betydande mängd framsteg gjorts mot detta framväxande nätverksanalysparadigm. I den här undersökningen fokuserar vi på att kategorisera och sedan se över den nuvarande utvecklingen på nätverksinbäddningsmetoder, och peka ut dess framtida forskningsinriktningar. Vi sammanfattar först motivationen för nätverk inbäddning. Vi diskuterar den klassiska grafen inbädda algoritmer och deras relation med nätverk inbäddning. Efteråt, och främst, ger vi en omfattande översikt över ett stort antal nätverk inbäddningsmetoder på ett systematiskt sätt, som omfattar struktur- och fastighetsbevarande nätverk inbäddning metoder, nätverket inbäddning metoder med sidoinformation, och avancerad information bevarande nätverk inbäddning metoder. Dessutom ses flera utvärderingsmetoder för nätinbäddning och vissa användbara onlineresurser, inklusive nätverksdatauppsättningar och programvaror, också över. Slutligen diskuterar vi ramen för att utnyttja dessa nätverk med metoder för att bygga upp ett effektivt system och peka på några potentiella framtida riktningar.
Nyligen har en betydande mängd framsteg gjorts mot nätverk inbäddning REF.
3,951,790
A Survey on Network Embedding
{'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']}
82,810
Lokala strukturer med skugggränser och komplexa interaktioner mellan bildregioner är fortfarande till stor del oexploaterade av tidigare metoder för skuggdetektering. I detta dokument presenterar vi en ny inlärningsbaserad ram för skuggregionens återhämtning från en enda bild. Vi utnyttjar lokala strukturer av skuggkanter genom att använda en strukturerad CNN-utbildningsram. Vi visar att användningen av strukturerad märkningsinformation i klassificeringen kan förbättra den lokala enhetligheten över pixeletiketter och undvika oäkta märkningar. Vi föreslår och formulerar vidare skugg-/ljusmått för att modellera komplexa interaktioner mellan bildregioner. Skuggan och ljusa mått på varje plåster beräknas från de skuggkanter som upptäcks av det föreslagna CNN. Med hjälp av de globala interaktionsbegränsningarna på patchar, formulerar vi ett problem med minst kvadratoptimering för skuggåterställning som kan lösas effektivt. Vår skuggåterhämtningsmetod uppnår toppmoderna resultat på stora skuggriktmärkesdatabaser som samlas in under olika förhållanden.
Shen m.fl. REF presenterade en djupt strukturerad skuggkantsdetektor och använde strukturerade etiketter för att förbättra den lokala konsekvensen i den förutsagda skuggkartan.
2,642,044
Shadow optimization from structured deep edge detection
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,811
Abstract-Traditional utförande miljöer distribuera adress Space Layout Randomization (ASLR) för att försvara mot minnes korruption attacker. Dock Intel Software Guard Extension (SGX), en ny betrodd körning miljö utformad för att tjäna säkerhetskritiska program på molnet, saknar en sådan effektiv, välstuderad funktion. I själva verket finner vi att tillämpa ASLR till SGX-program väcker icke-triviala frågor utöver enkel teknik av ett antal skäl: 1) SGX är utformad för att besegra en starkare motståndare än den traditionella modellen, vilket kräver att adressrymdslayouten döljs från kärnan; 2) de begränsade minnesanvändningarna i SGX-program utgör en ny utmaning när det gäller att tillhandahålla en tillräcklig grad av entropi; 3) fjärrintyg konflikter med den dynamiska förflyttning som krävs för ASLR; och 4) SGX specifikationen bygger på kända och fasta adresser för viktiga datastrukturer som inte kan randomiseras. I detta dokument presenteras SGX-Shield, ett nytt ASLR-system avsett för SGX-miljöer. SGX-Shield är byggd på en säker in-enklave lastare för att i hemlighet bootstrap minnesutrymme layout med en finare-kornig randomisering. För att vara kompatibel med SGX-hårdvara (t.ex. fjärrtillstånd, fasta adresser) är SGX-Shield utformad med en programvarubaserad mekanism för dataskydd genom en LLVM-baserad kompilator. Vi implementerar SGX-Shield och noggrant utvärdera det på riktig SGX hårdvara. Den visar en hög grad av slumpmässighet i minneslayouter och stoppar minneskorruption attacker med stor sannolikhet. SGX-Shield visar 7,61% prestanda overhead i kör gemensamma microbenchmarks och 2,25% overhead i kör en mer realistisk arbetsbelastning av en HTTPS-server.
SGX-Shield REF randomiserar minneslayouten, som liknar Address Space Layout Randomization (ASLR), för att förhindra kontrollflöde kapning och dölja enklavminneslayouten.
10,824,987
SGX-Shield: Enabling Address Space Layout Randomization for SGX Programs.
{'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,812
Stadgan om SRC är att främja både kunskapsläget och den senaste tekniken inom datasystem. Från vår etablering 1984 av Digital Equipment Corporation (numera Compaq) har vi bedrivit grundforskning och tillämpad forskning för att stödja företagets affärsmål. Våra intressen spänner över skalbara system (inklusive hårdvara, nätverk, distribuerade system, och programmering språk och teknik), Internet (inklusive webben, och internet apparater), och människa / dator interaktion. Vår strategi är att testa det tekniska och praktiska värdet av våra idéer genom att bygga maskin- och programvaruprototyper och använda dem som dagliga verktyg. Intressanta system är för komplexa för att utvärderas enbart i det abstrakta; utökad användning gör att vi kan undersöka deras egenskaper på djupet. Denna erfarenhet är användbar på kort sikt för att förfina vår design, och ovärderlig på lång sikt för att främja vår kunskap. De flesta av de stora framstegen i informationssystem har kommit genom denna strategi, inklusive personlig databehandling, distribuerade system och Internet. Vi utför också kompletterande arbete av en mer matematisk smak. En del av det är inom etablerade områden av teoretisk datavetenskap, såsom analys av algoritmer, beräkningsgeometri, och logik av programmering. Annat arbete utforskar ny mark som motiveras av problem som uppstår i vår systemforskning. Vi har ett starkt engagemang för att kommunicera våra resultat; att exponera och testa våra idéer i forsknings- och utvecklingsgemenskaperna leder till ökad förståelse. Vår forskningsrapportserie kompletterar publicering i professionella tidskrifter och konferenser medan vår tekniska anteckningsserie kompletterar forskningsrapporter och tidskrifts-/konferenspublikationer genom att möjliggöra snabb spridning av nya forskningsresultat. Vi söker användare för våra prototypsystem bland dem som vi har gemensamma intressen med, och vi uppmuntrar samarbete med universitetsforskare. David L. Detlefs, K. Rustan M. Leino, Greg Nelson, och James B. Saxe December 18, 1998 Författare Affiliations David L. Detlefs är en stab ingenjör på Sun Microsystems Laboratories. Han kan nås på [email protected]. Detta arbete slutfördes av honom och de andra författarna innan han lämnade SRC 1996. Detta verk får inte kopieras eller reproduceras helt eller delvis för något kommersiellt ändamål. Tillstånd att kopiera helt eller delvis utan betalning av avgift beviljas för ideella utbildnings- och forskningsändamål, förutsatt att alla sådana fullständiga eller partiella kopior omfattar följande: ett meddelande om att sådan kopiering sker genom tillstånd från System Research Center of Compaq Computer Corporation i Palo Alto, Kalifornien; ett erkännande av upphovsmännen och enskilda bidragsgivare till verket; och alla tillämpliga delar av meddelandet om upphovsrätt. Kopiering, återgivning eller återutgivning för något annat ändamål ska kräva licens med betalning av avgift till Systems Research Center. Alla rättigheter förbehållna. Papperet beskriver en mekanisk kontroll för programvara som fångar många vanliga programmeringsfel, i synnerhet array index begränsar fel, inga dereferensfel, och synkronisering fel i multi-trådade program. Kontrollen utförs vid kompileringstidpunkten. Kontrollen använder en automatisk teorem-provare för att resonera om semantiken av villkorliga uttalanden, loopar, procedur och metodanrop, och undantag. Kontrollen har implementerats för Modula-3. Den har tillämpats på tusentals rader av kod, inklusive mogen systemkod samt färsk oprövad kod, och den har funnit ett antal fel. Författarna till denna uppsats var fortfarande barn när de ledande ljusen i datorer förklarade att världen stod inför en "programvara kris". Medan hårdvaran förbättrades varje år, var mjukvaran fast i komplexitet, och programmeringen var dyr, felbenägen och ansträngande. Men dessa dystra observationer stoppade inte programvaruindustrin, som fortsatte att öka sina intäkter och vinster dramatiskt, och som har upprätthållit denna tillväxt med kontinuerlig innovation. Var programvarukrisen ett falskt alarm? Inte direkt. Även om lönsamma, skriva programvara är fortfarande dyrt, fel-bene, och hårda. Innovation inom programvaruindustrin har till största delen begränsats till att hitta nya saker som har att göra med programvara, och har inte hittat många nya sätt att producera programvara. Det är fortfarande vanligt att se mjukvarukatastrofer där miljontals dollar spenderas på att skriva ett program som överges innan release, eftersom implementatorerna helt enkelt inte kan få det att fungera. Det tragiska misslyckandet att etablera programvara som tillförlitlig teknisk disciplin framgår smärtsamt tydligt av studier som Leveson och Turners undersökning av Therac-25-olyckorna [31]. Även om intäkter och vinster har ökat, visar siffror från det ekonomiska konsultföretaget DRI/McGraw-Hill att produktiviteten i programvaruindustrin faktiskt har minskat under en period av allmänt ökande produktivitet under den senaste tiden [10]. Dessa beräkningar kanske inte är helt korrekta eftersom det är svårt att korrigera för inflationen, men det verkar säkert att säga att programvaruproduktiviteten inte har hållit jämna steg med produktiviteten inom andra områden inom dataindustrin såsom hårdvara. I själva verket skulle vi hävda att tillväxten av mjukvaruindustrin har trotsat stagnationen av programmeringsteknik bara på grund av den medvind som skapats av den miljonfaldiga förbättringen av pris / prestanda för processorer under de senaste trettio åren. När informationsrevolutionen lämnar sin späda barndom, och vi inom ingenjörsvärlden tar på oss ansvaret att uppfylla sina stora löften, från robotar till knowbots, anses det otillräckligt att våra framsteg skulle påskyndas enormt om programmeringstekniken avancerades på något som liknar samma kurva som mikroprocessorer. Många silverkulor har förebådats som lösningen på programvarukrisen. Om du har ett programvaruproblem är strukturerad programmering med PL/I svaret! Den objektorienterade revolutionen kommer att föra massproduktionsmetoder till programvara och göra programfragment till billiga återanvändbara pålitliga varor! Programverifiering kommer att eliminera alla fel! Programmering i naturligt språk kommer att eliminera behovet av arktiska språk; slutanvändare kommer att uttrycka sina krav direkt till datorn, och programmering som ett yrke kommer att vissna bort! Ingen av drömmarna bakom dessa slagord har uppfyllts. Vi anser att programplaneringen och dess svårigheter är här för att stanna. race villkor i multi-trådade program. Verktyget är användbart eftersom kostnaden för ett fel minskar kraftigt om det upptäcks tidigt i utvecklingsprocessen. Verktyget är avsett att vara som en typkontroll eller som C-verktyget lint [23]: dess varningar är avsedda att tolkas av programförfattaren som kontrolleras. Kontrollen genomförs med hjälp av tekniken för programverifiering. Programmet kommenteras med specifikationer; det kommenterade programmet presenteras för en "verifiering villkor generator", som producerar logiska formler som är bevisbara om och endast om programmet är fri från den särskilda klassen av fel som övervägs, och dessa formler presenteras för en automatisk teorem-prover. Detta låter som programverifiering, men det är inte: för det första eftersom vi inte försöker bevisa att ett program gör vad det är tänkt att göra, bara för att kontrollera vissa specifika typer av fel; för det andra eftersom vi är intresserade av misslyckade bevis bara, inte i framgångsrika. En avgörande punkt är att misslyckade bevis är mer användbara än framgångsrika, eftersom de varnar programmeraren för eventuella fel. Förutom att vara mer användbar är ESC mer genomförbart än fullskalig programverifiering. Till exempel är en osund fullskalig programkontrollant en oxymoron, men mängden osundhet att tolerera i en statisk kontroll är en fråga om teknisk bedömning: ingen förväntar sig en typkontroll eller ett lint verktyg för att hitta alla fel; dess verktyg bestäms av antalet fel den hittar vägs mot kostnaden för att köra verktyget. På samma sätt, eftersom vi inte lovar att ESK kommer att upptäcka alla fel, är vi fria att förklara att vissa typer av fel ligger utanför verktygets räckvidd. Denna idé om utökad statisk kontroll är inte ny. Den första doktorsavhandlingen som vi känner till tog upp idén var av Dick Sites för ett kvarts sekel sedan [44], och problemet har hållit sig som ett avhandlingsämne ända sedan dess. Men de forskningsprototypkontroller som har genomförts under årtiondena har gjort alltför många förenklade antaganden. De får inte hantera dynamiskt fördelade data eller objektorienterad programmering; de får inte hantera konvergens; de kan kräva källan för hela programmet för att kontrollera någon del av det; de kan kräva att användaren vägleder teoremet-provaren eller för att ge komplicerade loopinvarianter. Sådana förenklingsantaganden är ett sätt att skilja oron åt, vilket kan bidra till att fokusera på särskilda aspekter av problemet och på så sätt fördjupa insikten. Vårt arbete bygger på de djupa insikter som många tidigare forskare har skapat, men vårt ESC-projekt har följt ett kompletterande forskningssätt, där varje två ansträngning görs för att producera och testa en realistisk artefakt. Detta kompletterande forskningssätt kan ofta avslöja överraskningar. De flesta tidigare kontrollverktyg testades endast på små program skrivna av verktygsimplementatorerna själva. Däremot var vår plan att köra vår checker på betydande delar av Modula-3 runtime-systemet. Genom att ta itu med realistiska program som skrivits av andra (eller i vissa fall av ESK:s projektmedlemmar innan ESK-projektet inleddes) hoppades vi få svar på följande frågor: • Kan vi skapa kontrollvillkor för sådana "systemprogram"? • Skulle vi kunna omvandla misslyckade verifieringar till specifika felmeddelanden? • Hur stor börda skulle det vara att skriva de nödvändiga kommentarerna? • I vilken utsträckning kan vi automatisera den teorem-proving uppgiften? Sammanfattningsvis var vi fast beslutna att stresstesta en idé som länge varit i havandeskap. Vår kontroll hanterar multi-trådade multi-modul objektorienterade program. Vår kontroll fungerar på Modula-3 program [40], men teknikerna skulle fungera för alla språk på vilka adressen aritmetisk är begränsad, inklusive Java, Ada, Oberon, och FORTRAN. När detta dokument går till tryck, har ett uppföljningsprojekt kopierat tekniken i ett verktyg för Java. Vår kontroll utför modulär kontroll: du kan använda den för att kontrollera valda moduler i ett program utan att kontrollera hela programmet. Eftersom modern programmering är otänkbar utan bibliotek, anser vi att modulär kontroll är nödvändig. Kontrollen gör det också möjligt för dig att kontrollera valda klasser av fel; till exempel är det ofta användbart att kontrollera dödläge och tävlingsförhållanden utan att kontrollera för array indexgränser fel. När kontrollören ger falska varningar finns det en mängd olika sätt att undertrycka dem, det vill säga att få kontrollanten att ignorera de falska varningarna och fortsätta att rapportera verkliga fel. A Även om vår kontroll är en forskningsprototyp, med många grova kanter, anser vi att den visar löftet om tekniken tydligare än tidigare kontroller: ESC fångar fel som ingen typkontroll kan fånga, men det känns för programmeraren mer som en typkontrollör än en programkontrollant. De specifikationer som krävs är uttalanden av enkla fakta som ojämlikheter, felmeddelandena är specifika och korrekta med avseende på källposition och feltyp, och teorem-proving utförs bakom kulisserna automatiskt. Vårt huvudsakliga mål för detta papper är att förmedla till läsaren hur det känns att använda en kontroll som fungerar i denna mellanliggande nivå mellan typkontroll och verifiering. Dokumentet består därför till stor del av två exempel. Efter exemplen beskriver vi på en ganska allmän nivå några av de nya aspekterna av vår kontroll, men vi har förvisat många detaljer till andra papper. I detta avsnitt lägger vi grunden till de exempel som utgör kärnan i dokumentet genom att kortfattat presentera ESK:s språkspecifikation. Utformningen av specifikationsspråket återspeglar strukturen av väl utformade program. En pelare i programstrukturen är procedurmässig abstraktion, där en sammansatt operation namnges och parameteriseras och används av resten av programmet som om det vore en elementär operation. Procedural abstraktion gör statisk analys svår, så svår att många statiska analysmetoder som beskrivs i litteraturen endast gäller program utan procedurer, och många praktiska kompilatorer utför ingen interprocedural analys alls, även om de utför omfattande intra-procedural analys. Anledningen till detta är att upphovsmännen till kompilatorer och andra verktyg inte har velat förlita sig på specifikationer, men inter-förfarandeanalys kräver i grunden att man behandlar specifikationer, oavsett om de tillhandahålls av programmeraren eller kan härledas från verktyget. För att utföra en interprocessell analys använder sig ESC av specifikationer för programmerare som tillhandahålls av det formulär som visas i figur 0. För- och postvillkor är formler i en första-order teori som inkluderar Modula-3 inbyggda operatörer. En förfarandespecifikation är ett avtal mellan exploatören och kunden: klienten avtal att kalla förfarandet i ett tillstånd där förutsättningarna är sanna, och exploatören avtal (a) att ändra ingen variabel utom de i MODI-FIES-listan, och (b) att återvända endast i ett tillstånd som uppfyller postvillkoret. Vid kontrollen av förfarandets helhet utgår ESK från att förutsättningarna är uppfyllda från början och kontrollerar att när förfarandet återställs är villkoren uppfyllda och att endast dessa variabler i MODIFIES-klausulen har ändrats. Omvänt kontrollerar ESK vid kontroll av en kund att villkoret är uppfyllt vid ansökningsomgången och utgår från att ansökningsomgången respekterar både postvillkoret och MODIFIES-klausulen. Här finns till exempel en Modula-3-deklaration och ESC-specifikation för en enkel slumptalsgenerator: MODIFIES utsäde REQUES 0 < n OCH utsäde # 0 ENSURES 0 RES OCH RES < n OCH utsäde # 0 * > Exemplet illustrerar också flera andra punkter. För det första, för en variabel som förtecknas i MODIFIES-klausulen (t.ex. utsäde), kan förekomster i postvillkoret vara oprimerade eller primerade (frö). En primerad händelse betecknar värdet av variabeln i post-tillståndet, medan en oprimerad händelse betecknar värdet av variabeln i för-tillståndet. För det andra används det reserverade namnet förnybara energikällor för att ange resultatet av förfarandet, i förekommande fall. För det tredje omger Modula-3 pragma-fästen, <* *>, ESK-anteckningar för att skilja dem från vanliga Modula-3. Fjärde, x # y är Modula-3 syntax för att hävda att värdena för x och y är olika. En annan pelare i programstrukturen är dataabstraction, där en samling av programvariabler (eller konkreta variabler) anses begreppsmässigt representera en enda abstrakt variabel. Den abstrakta variabeln används av klienter för att resonera om verksamhetens semantiska effekt på abstraktionen, och de konkreta variablerna används av implementeringen för att fungera effektivt på staten. Till exempel, det abstrakta värdet av ett komplext tal z kunde representeras konkret i termer av två flyttal Cartesian koordinater z.x och z.y; alternativt samma abstraktion kan representeras i termer av polar koordinaterna z.r och z.theta. I allmänhet är modulstrukturen i ett program arrangerad så att den konkreta representationen av en abstraktion är osynlig (dvs utom räckhåll) inom de moduler som använder abstraktionen (dess kunder) [42]. Figur 1 visar ESK:s syntax för att förklara en abstrakt variabel och ange dess representation (även känd som dess abstraktionsfunktion). Till exempel, 5 < * SPEC VAR a: INTEGER *> VAR c: INTEGER; < * SPEC REP a = c * c * > förklarar ett abstrakt heltal variabel a, ett konkret heltal variabel c, och anger att kvadraten c representerar a. Vi har inte beskrivit hela specifikationsspråket, men vi har beskrivit tillräckligt för att ge det första exemplet. Båda de två utökade exemplen i detta papper använder Modula-3's standard I/O-bibliotek, som är utformat kring den viktiga abstraktionen av en övervakad objektorienterad buffrad ström. I synnerhet är en läsare en ingångsström och en författare är en utgångsström. Varje stream objekt innehåller en buffert och metoder för att hantera bufferten. Olika strömunderklasser åsidosätter metoderna på olika sätt, så att till exempel en filläsare fyller på bufferten från disken och en nätverksläsare fyller på bufferten från nätverket. Klassoberoende kod kan vara gemensam för alla underklasser; till exempel, Wr.PutInt skriver ASCII representation av ett heltal i en författares buffert. Modula-3 design beskrivs i kapitel 6 i Nelsons Modula-3 bok [40], den ursprungliga designen beskrivs av Stoy och Strachey [46]. Vi beskriver olika aspekter av de relevanta gränssnitten eftersom vi behöver dem för våra exempel. För varje typ av ström tillhandahåller Modula-3 I/O-biblioteket två gränssnitt, ett grundläggande gränssnitt för enkla kunder och ett avancerat gränssnitt som erbjuder ytterligare funktionalitet (särskilt tillgång till buffertstrukturen) till priset av ytterligare komplexitet. Det grundläggande skribentgränssnittet. Vårt första exempel använder bara det grundläggande skrivgränssnittet Wr, som presenteras i figur 2. Här är en översättning av figur 2 från Modula-3 till engelska. Författaren klass ges det globala namnet Wr.T, där Wr är namnet på gränssnittet och T är enligt överenskommelse den huvudsakliga typen som anges i gränssnittet. Klassen deklareras som en ogenomskinlig objekttyp, allmänt känd endast som en subtyp av den inbyggda klassen ROOT. (I Modula-3 motsvarar klasser objekttyper.) Den faktiska deklarationen av representationstyp är dold i det avancerade gränssnittet, och är osynlig för kunder i det grundläggande gränssnittet. Förfarandena PutChar, PutText och Stäng har givna signaturer och specifikationer (TEXT är Modula-3:s fördeklarerade strängtyp)..) Ett U-värdesatt fält f som deklareras i en klass T motsvarar semantiskt en karta från T till U. Således kan de giltiga och statliga deklarationerna betraktas som BOOLEAN-värderade och ANY-värderade fält av författare. Även Modula-3 använder syntax x.f för att beteckna f-fältet i ett objekt x, annotationsspråket använder syntax f[x] när f är abstrakt. Specifikationerna för skrivgränssnittet faller in i ett gemensamt mönster som vi kallar tillstånd/validitetsparadigm. I detta paradigm finns det två abstrakta variabler, giltiga och tillstånd. Tanken är att giltig [wr] representerar villkoret att wr är en korrekt initierad giltig författare, och stat[wr] representerar alla andra tillstånd av wr (till exempel dess innehåll och position). Om vi gjorde fullskalig programverifiering, det skulle finnas sidor av specifikationer om tillstånd, men eftersom vi gör utökad statisk kontroll bara, det finns nästan ingenting att säga om tillstånd, förutom att specificera att vissa förfaranden kan ändra det. (Inte ens typen av tillstånd är relevant, så vi använder den speciella ESC-typen NÅGON.) I tillstånd/validitetsparadigmet blir specifikationerna mycket stiliserade. En typisk procedur eller metod som fungerar på en författare wr (som PutChar) har specifikationen Eftersom giltig inte visas i MODIFIES-listan, innebär denna specifikation att giltigheten bevaras. Ofta några förfaranden kommer att ha några ytterligare kommentarer-till exempel PutText kräver att dess text argument är icke-NIL-men för enkla gränssnitt stiliserade specifikationer av tillstånd/validitet paradigm är lejonparten av vad som måste skrivas för en ESC-verifikation. Textförfattarens gränssnitt. Figur 3 illustrerar textförfattarens gränssnitt, en viss skrivarunderklass som förekommer i vårt exempel. En textförfattare är en författare som inte gör någon utmatning; den lagrar bara allt som har skrivits i en intern buffert och tillhandahåller en procedur GetText som returnerar innehållet i bufferten som en TEXT. Eftersom TextWr.T är en underklass av Wr.T, specifikationsvariabler giltiga och tillstånd gäller för textförfattare, och används i specifikationen av textförfattare gränssnittet. Metoden init initierar en textförfattare (etablerar giltig"[twt]) och returnerar den (etablerar RES=twt). Specifikationen är helt typisk för initieringsmetoder i tillstånd/validitetsparadigmet. Likaså, specifikationen av GetText är typisk för tillstånd/giltighet paradigm, med ytterligare en postvillkor conjunkct RES # NIL. Exempel. Vårt första exempelprogram är den typ av elementär programmeringsövning som kan tilldelas elever som först lär sig att programmera med utgångsströmmar, och vi har sått vårt program med elementära fel. Problemet är att programmera en procedur som tar en rad texter som argument och returnerar en enda text som innehåller konkatetering av alla texter i arrayen. Detta kan göras ganska enkelt genom att upprepade gånger kalla Modula-3 binär konkatetering operation Text.Kat, men att göra så leder till en prestanda fälla, eftersom med de flesta implementationer av text concatenation, den totala kostnaden i tid för denna enkla strategi kan vara proportionell mot kvadraten på längden på det slutliga resultatet. Ett bra sätt att undvika denna quadratic kostnad är att använda en text författare, vilket leder oss till förfarandet ArrayCat visas i Figur 4. Förfarandet allokerar en textförfattare, skriver elementen i arrayen till skribenten i ordning, och slutligen hämtar och returnerar en text som innehåller allt som skrivits. (Detta tillvägagångssätt undviker den kvadratiska kostnaden om textförfattare är väl genomförda.) Köra ESC på ArrayCat proceduren i Figur 4 ger en varning om en matris indexgränser fel: array index gränser fel, rad 4: (Det exakta formatet för ett ESC felmeddelande är identiskt med ett kompilator felmeddelande; i detta papper använder vi kursiv stil och understrykning för att förmedla samma information.) Felmeddelandet innehåller också en så kallad "terror kontext" som är en lång lista över atomformler som kännetecknar den situation där felet kan inträffa. Eftersom det är långt, kommer vi inte att visa fel sammanhang här, men vi noterar att en studie av sammanhanget avslöjar att det innebär formeln i=NUMBER(a), vilket i själva verket är det tillstånd i vilket matrisen gränser fel kan inträffa: i Modula-3, öppna matriser indexeras från 0, men FOR slingan skrevs som om de var indexerade från 1. Att korrigera felet på ett naturligt sätt ger följande En studie av felsammanhanget visar att det innebär formeln INTE giltig [twr]. Det vill säga, ESC har upptäckt och varnat för misslyckandet med att initiera twr (programmet tilldelade textförfattaren, men misslyckades med att initiera den). För att rätta till detta fel lägger vi till en uppmaning till initmetoden, som kräver att man infogar de sju tecknen ".init()": Denna korrigering eliminerar båda de tidigare varningarna, men ESC ger ytterligare en varning: förutsättningen misslyckades, rad 4: En studie av felsammanhanget visar att TEXT-argumentet till PutText är lika med NIL, vilket är förbjudet av förutsättningen för PutText men inte säkerställt av ArrayCat, som blint passerar a[i], oavsett om det är NIL eller inte. Detta fel tvingar en omprövning av utformningen för ArrayCat: vad ska vi göra om NIL poster i TEXT array? Två konstruktioner kommer genast att tänka på: att ignorera NILs eller att förbjuda NILs. Antingen design är lätt att ta sig igenom ESC. I den design där NILs ignoreras omkodas förfarandet enligt följande: och naturligtvis ESC, som förstår IF uttalanden, är helt nöjd med denna version. I den konstruktion där NIL är förbjudet förstärks specifikationen för ArrayCat med en kvantifierad förutsättning: ESC är också helt nöjd med denna design: den starkare förutsättningen undertrycker felmeddelandet. Dessutom kommer ESK att upprätthålla den starkare förutsättningen var ArrayCat än kallas. Vi vill göra flera kommentarer om detta exempel. För det första, även om det krävdes noggranna specifikationer för skribentens och textförfattarens gränssnitt, kunde den inledande programmeraren använda sig av ESC utan att alls skriva några specifikationer för sitt program. Inga förutsättningar eller loopinvarianter krävdes i ArrayCat. Vi anser att detta är som det bör vara: alla som är kvalificerade att utforma gränssnitten i ett strömmande bibliotek förstår förutsättningar och postvillkor och abstraktioner på någon nivå, och kommer att finna att en uttrycklig notation för deras designbeslut är ett användbart verktyg snarare än en börda. Å andra sidan kan och bör många enkla fel i program identifieras genom att läsa det oannoterade felaktiga programmet; att kräva en loop invariant för att kontrollera ArrayCat verkar pedagogisk och tunghänt. För det andra bör läsaren vara medveten om att vi, även om vi i detta exempel har koncentrerat oss på att kontrollera en klient till I/O-systemet, faktiskt också har använt ESK för att kontrollera genomförandet av textförfattare. Vid genomförandet görs en representationsförklaring för att ge den konkreta innebörden av giltig [twr] när det gäller de konkreta fälten för twr. Och denna representation används av ESC när man kontrollerar de förfaranden som PutText och GetText, som kräver giltighet som en förutsättning och vars genomförande beror på den konkreta betydelsen av giltighet. En tredje anmärkning som detta exempel tillåter oss att göra är att det är upp till användaren att välja en punkt på kontinuum mellan fullständig funktionskorrigering 12 och minimal utökad statisk kontroll. Det är till exempel sant att det är tomt att initiera en textskribent, men våra specifikationer återspeglade inte denna sanning. Om vi ville skulle vi kunna återspegla detta genom att stärka villkoren för init i följande riktningar:. Dessutom är notationen "" faktiskt inte korrekt för den tomma teckensekvensen.) Det skulle vara lätt att skapa ett konstgjort exempel där denna starkare specifikation skulle vara nödvändig för en viss ESC-kontroll. Till exempel, avsaknaden av array gränser fel i vissa klient kan bero på det faktum att en ny initierad text författare är tom. Men det här är en hal sluttning. Om dess effekt på staten är helt specificerad, varför inte PutChar's också? Utan disciplin kan du snabbt glida in i det svarta hålet med fullständig korrekthetsverifiering. Lyckligtvis har vår erfarenhet varit att många ESC-verifikationer med framgång kan slutföras med nästan inga specifikationer alls om innehåll och betydelser av abstrakta typer, förutom specifikationen av giltighet. Du kan gå en lång väg bara förlita sig på tillstånd / giltighet paradigm: det vill säga specifikationerna för varje förfarande registrera exakt hur förfarandet påverkar och kräver giltighet, men alla andra biverkningar sopas under den rikliga mattan av MODIFIES tillstånd [wr]. Vi anser att detta är ett viktigt skäl till att ESK:s kontroller kan vara mer kostnadseffektiva än fullständiga korrekthetskontroller. I detta avsnitt kommer vi att beskriva användningen av ESC på ett mer sofistikerat program, WhiteSpace. Läs mer. Exemplet är också ett kort klientprogram för Modula-3 I/O-systemet, men skiljer sig på flera sätt från exemplet i föregående avsnitt. En ganska liten skillnad är att detta program är en klient av inflöden snarare än utflöden. En viktigare skillnad är att vi i detta exempel kommer att uppmärksamma synkroniseringsprotokollet som är utformat för både läsare och författare. I det föregående exemplet utelämnade vi synkroniseringen för att förenkla utställningen. En annan viktig skillnad är att i detta avsnitt kommer vi att se ett program som använder det avancerade gränssnittet för att hantera buffertstrukturen i strömmen, istället för att uteslutande använda procedurerna i det grundläggande gränssnittet. PROTECT v BY mu delad variabel v är inte att komma åt utan att hålla låset mu PROTECT f BY SELF för varje objekt t, delade fält t.f inte ska nås utan att hålla låset t LL uppsättning lås som hålls av den aktuella tråden supremum (maximum) i programmeraren deklarerad låsordning Figur 5: Låsnivå syntax. Den andra formen av PROTECT kan endast användas när f är ett fält som deklareras i en underklass av MUTEX. Hur ESC kontrollerar synkroniseringsfel. Vår erfarenhet har varit att många synkroniseringsfel är misslyckanden att förvärva lås (orsakar rasförhållanden) eller förvärva lås ur ordning (orsakar dödläge). Därför har vi utformat ESK-anmärkningsspråket för att fånga upp dessa enkla fel; figur 5 visar syntaxen. Programmeraren förklarar vilka lås som skyddar vilka delade variabler och vilka lås som kan eller måste hållas vid inträde i olika förfaranden. Programmeraren deklarerar också en partiell ordning i vilken trådar tillåts förvärva lås. ESC kontrollerar att delade variabler aldrig nås utan att hålla låset som skyddar dem, och även kontrollerar att trådar förvärvar lås i strikt ökande ordning (Modula-3 har icke-mottagare lås). Detta bevisar inte korrekthet-dyrare tekniker som övervaka invarianter skulle krävas för det-men det fångar många vanliga fel. Låsordningen på mutexes betecknas med " <", och programmeraren anger den med hjälp av en allmän anordning för att lägga axioms till en ESC-verifiering: SPEC AXIOM. Till exempel, Modula-3 fönster systemet är baserat på ett objekt som kallas en VBT. VBTs arrangeras i träd, och kan låsas endast från ett blad av trädet mot roten, inte vice versa. Denna regel deklareras i VBT-gränssnittet enligt följande: Axioms om låsordningen uppstår endast i subtila situationer. I synnerhet, exemplet vi är på väg att presentera förvärvar endast en läsare lås i taget, så vi behöver inte deklarera axioms om låsordningen. Det grundläggande läsgränssnittet. Figur 6 visar det grundläggande Modula-3-gränssnittet Rd, inklusive dess ESC-specifikationer. De enda nya inslagen i figur 6 avser samstämmighet. Synkroniseringsprotokollet för läsarna är mycket stiliserat, vi kallar det för det övervakade objektparadigmet: Ett objekt behandlas som en övervakare i det att ömsesidig uteslutning tillhandahålls för trådar som fungerar på objektet via procedur 15 samtal och metodsamtal. Den ömsesidiga uteslutningen uppnås genom att själva objektet låses, vars typ är en subtyp av MUTEX, Modula-3s predeklarerade ömsesidiga uteslutningstyp. Att förvärva låset är detsamma som att gå in i monitorn. Texten i gränssnittet i figur 6 återspeglar det övervakade objektparadigmet på två sätt. För det första förklaras Rd.T vara en ogenomskinlig subtyp inte av ROOT utan av MU-TEX. För det andra har kontrollförfarandena det extra förhandsvillkoret supp(LL) < rd, vilket återspeglar kravet att de ska kallas från ett land där det är lagligt att förvärva låset rd. Det avancerade läsgränssnittet. Det grundläggande Rd-gränssnittet är det som används av de flesta enkla klienter, men det är otillräckligt för mer sofistikerade kunder. Till exempel, eftersom det döljer bufferten och metoden för påfyllning av bufferten, är det otillräckligt för kunder som implementerar nya klasser av läsare. Figur 7 visar RdrRep-gränssnittet, som ger de specifikationer som behövs för mer sofistikerade kunder. Med RdrRep gränssnittet kommer vi bortom pannplatta ESC specifikation paradigm, och börja sätta specifikationsspråket genom sina steg. Gränssnittet börjar med att avslöja representationen av typen Rd.T, som är ogenomskinlig i det grundläggande gränssnittet. Representationen är en objekttyp som innehåller ett buff-fält, vilket är en hänvisning till en rad tecken. Modula-3-nyckelordet BRANDED ersätter namnet ekvivalens för Modula-3:s standardstrukturell ekvivalens för typer. Förutom buff fältet, Rd.T innehåller också flera heltal och booleska fält. heltalsfälten bestämma den aktiva delen av bufferten, enligt en konvention illustrerad i figur 8. De booleska fälten är irrelevanta för detta exempel. Det fullständiga gränssnittet innehåller flera metoder, men vi visar bara sökmetoden, eftersom de andra är irrelevanta för vårt exempel. SPEC PROTECT-anteckningen anger att en läsares fält skyddas av läsaren själv, dvs. en tråd får inte läsa eller skriva något av läsarens fält om den inte har förvärvat läslåset. Denna kommentar är typisk för det övervakade objektparadigmet. Därefter kommer vi till specifikationen av sökandet. Denna metod är ansvarig för att utföra den klassspecifika beräkning som ingår i omplaceringen av bufferten: anropet rd.seek(n) ändrar bufferten så att byte nummer n av läsarens källa finns i bufferten. I synnerhet rd.seek (rd.hi) kommer att gå vidare till nästa buffert av data (eftersom rd.hi är indexet för den första byte som är bortom den nuvarande bufferten av data). Metoden returnerar SeekResult.Ready om omplaceringen är framgångsrik; om n är bortom slutet av läsaren, den returnerar SeekResult.Eof. (Om DontBlock är inställd och sökmetoden inte kan göra sitt jobb utan att riskera blockering, är det tillåtet att returnera SeekResult.
ESC/Java2 är ett system som tillämpar systemet Extended Static Checking REF på programmeringsspråket Java.
8,049,817
Extended static checking
{'venue': 'PROCOMET', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,813
Abstract-The Internet of Things (IoT) är storskalig till sin natur, vilket manifesteras av det massiva antalet uppkopplade enheter samt deras vidsträckta rumsliga existens. Mobila nätverk, som ger allestädes närvarande, tillförlitlig och effektiv trådlös tillgång, kommer att spela grundläggande regel för att leverera den första milen tillgång för data tsunamin som ska genereras av sakernas internet. Mobila nätverk kan dock ha skalbarhetsproblem för att tillhandahålla upplänkanslutning till ett stort antal uppkopplade saker. För att karakterisera skalbarheten av cellulär upplänk i samband med IoT-nätverk, utvecklar detta papper en trafik-medveten spatiotemporal matematisk modell för IoT-enheter som stöds av cellulär upplänk anslutning. Den utvecklade modellen är baserad på stokastisk geometri och köteori för att redogöra för trafikkrav per IoT-enhet, de olika överföringsstrategierna och den ömsesidiga störningen mellan IoT-enheter. För detta ändamål, den utvecklade modellen används för att karakterisera i vilken utsträckning cellulära nätverk kan rymma IoT-trafik samt för att bedöma och jämföra tre olika överföringsstrategier som innehåller en kombination av transmissionspersistens, backoff, och power-ramping. Analysen och resultaten illustrerar tydligt det skalbarhetsproblem som IoT medför för cellulära nätverk och ger insikter i effektiva scenarier för varje överföringsstrategi.
Med tanke på slumpmässigheten av UE i temporal dimension, Gharbieh et al. REF utvecklade en kömodell för trafikkrav per IoT-enhet, och föreslog tre överföringssystem: baslinjesystem, kraftupptagningssystem och reservsystem.
1,200,860
Spatiotemporal Stochastic Modeling of IoT Enabled Cellular Networks: Scalability and Stability Analysis
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,814
Självanpassning är ett lovande sätt att hantera komplexiteten i moderna mjukvarusystem. Ett självanpassat system kan självständigt anpassa sig till inre dynamik och förändrade miljöförhållanden för att uppnå särskilda kvalitetsmål. Vårt särskilda intresse ligger i decentraliserade självanpassningssystem, där central kontroll av anpassning inte är ett alternativ. En viktig utmaning i självanpassningssystem, särskilt de som har decentraliserad kontroll över anpassningen, är att ge garantier för de avsedda gångegenskaperna. I detta dokument presenterar vi en fallstudie där vi använder modellkontroll för att verifiera beteendeegenskaper hos ett decentraliserat självanpassningssystem. Konkret bidrar vi med en formaliserad arkitekturmodell av ett decentraliserat trafikövervakningssystem och visar på ett antal självanpassningsegenskaper för flexibilitet och robusthet. För att modellera huvudprocesserna i systemet använder vi tidsinställd automata, och för specifikationen av de egenskaper som krävs använder vi tidsinställda beräkningsträdslogik. Vi använder Uppaal-verktyget för att specificera systemet och verifiera flexibilitet och robusthet.
Modellkontroll av tidsinställd automata har använts av REF för att modellera och studera robustheten hos självanpassade decentraliserade system.
19,033,468
A Case Study on Formal Verification of Self-Adaptive Behaviors in a Decentralized System
{'venue': 'EPTCS 91, 2012, pp. 45-62', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,815
Abstrakt. Modellkontroll har historiskt sett varit ett viktigt verktyg för att verifiera modeller av många olika system. Typiskt en modell måste uppvisa vissa egenskaper för att klassas 'acceptabel'. I detta arbete använder vi modellkontroll i en ny inställning; parameteruppskattning. Vi karakteriserar en modells önskade beteende i en tidslogisk egenskap och ändrar modellen för att få den att överensstämma med egenskapen (bestämd genom modellkontroll). Vi har implementerat ett beräkningssystem kallat MC2(GA) som parar ihop en modellkontroll med en genetisk algoritm. För att beräkna parametern är lämpligheten hos en uppsättning parametrar i en modell omvänt av avståndet mellan dess faktiska beteende och det önskade beteendet. Den modellkontroll som används är den simuleringsbaserade Monte Carlo Model Checker för Probabilistic Linear-time Temporal Logic med numeriska begränsningar, MC2(PLTLc). Numeriska begränsningar och den totala sannolikheten för beteendet uttryckt i temporallogik används för att minimera beteendeavståndet. Vi definierar den teori som ligger till grund för vår parameteruppskattning i både stokastiska och kontinuerliga världar. Vi tillämpar vårt förhållningssätt till biokemiska system och presenterar ett belysande exempel där vi uppskattar de kinetiska hastighetskonstanterna i en kontinuerlig modell av en signalbana.
I REF, en modell kontroll tillsammans med en genetisk algoritm driva parameter-skattningsprocessen genom att minska avståndet mellan önskat beteende och det faktiska beteendet.
10,590,785
A Model Checking Approach to the Parameter Estimation of Biochemical Pathways
{'venue': 'CMSB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,816
Neurala nätverksmetoder har uppnått lovande resultat för känsloklassificering av text. Dessa modeller använder dock endast semantik av texter, samtidigt som de ignorerar användare som uttrycker den känsla och de produkter som utvärderas, vilka båda har stort inflytande på tolkningen av textens känslor. I detta dokument tar vi upp denna fråga genom att införliva information på användar- och produktnivå i ett neuralt nätverk för klassificering av dokumentnivå. Användare och produkter modelleras med hjälp av vektorrymdsmodeller, vars representationer fångar viktiga globala ledtrådar såsom individuella preferenser av användare eller övergripande kvaliteter av produkter. Sådana globala bevis underlättar i sin tur införandet av inlärningsförfaranden på dokumentnivå, vilket ger bättre textrepresentationer. Genom att kombinera bevis på användar-, produkt- och dokumentnivå i en enhetlig neural ram, den föreslagna modellen uppnår state-of-the-art prestanda på IMDB och Yelp datauppsättningar 1.
I REF föreslogs ett neuralt nätverk för användarprodukter för att införliva både användar- och produktinformation för känsloklassificering.
1,828,713
Learning Semantic Representations of Users and Products for Document Level Sentiment Classification
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,817
I detta dokument föreslår vi en ny domänanpassningsmetod som heter "blandad finjustering" för neural maskinöversättning (NMT). Vi kombinerar två befintliga metoder, nämligen finjustering och multidomän NMT. Vi tränar först en NMT-modell på en odomän parallell corpus, och sedan finjustera den på en parallell corpus som är en blandning av in-domain och out-to-domain corpora. Alla corpora är förstärkta med konstgjorda taggar för att indikera specifika domäner. Vi jämför empiriskt vår föreslagna metod mot finjusterings- och multidomänmetoder och diskuterar dess fördelar och brister.
REF utvidgade finjusteringsstrategin genom att utbilda modellen för out-of-domain data, som sedan finjusteras på en blandning av in-domän och out-to-domain data.
35,273,027
An Empirical Comparison of Domain Adaptation Methods for Neural Machine Translation
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,818
Den här artikeln undersökningar fungerar på Obesudlade Lärande av Morfologi. Vi definierar Obesudlat lärande av Morfologi som problemet med att framkalla en beskrivning (av något slag, även om det bara är morfem segmentering) av hur ortografiska ord byggs upp ges endast rådata textdata av ett språk. Vi går kort igenom detta problems historia och motiv. Därefter listas över 200 arbeten med en kort karakterisering, och de viktigaste idéerna inom området diskuteras kritiskt. Vi sammanfattar resultaten hittills och pekar på den framtida utvecklingen.
De flesta arbeten med oövervakad inlärning av morfologi har fokuserat på koncatenativ morfologi REF.
6,286,444
Unsupervised Learning of Morphology
{'venue': 'Computational Linguistics', 'journal': 'Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
82,819
Vi formulerar delay-tolerant nätverk routing problem, där meddelanden ska flyttas end-to-end över en konnektivitet graf som är tidsvarierande men vars dynamik kan vara känd i förväg. Problemet har de ytterligare begränsningarna av finita buffertar vid varje nod och den allmänna egenskapen att ingen samtidig end-to-end väg kan någonsin existera. Denna situation begränsar tillämpligheten av traditionella routing metoder som tenderar att behandla avbrott som misslyckanden och försöka hitta en befintlig end-to-end väg. Vi föreslår ett ramverk för att utvärdera routingalgoritmer i sådana miljöer. Vi utvecklar sedan flera algoritmer och använder simuleringar för att jämföra deras prestanda med avseende på den mängd kunskap de behöver om nätverkstopologi. Vi finner att algoritmerna som använder minst kunskap tenderar att prestera dåligt. Vi finner också att med begränsad ytterligare kunskap, långt mindre än fullständig global kunskap, kan effektiva algoritmer konstrueras för routing i sådana miljöer. Såvitt vi vet är detta den första undersökningen av routingfrågor i DTN.
Forskningen om routing i ett DTN kan ha sitt ursprung i Jain et al:s arbete. REF, där meddelanden ska flyttas end-to-end över en tidsvariation ansluten graf men topologidynamiken kan vara känd i förväg.
195,351,698
Routing in a delay tolerant network
{'venue': "SIGCOMM '04", 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,820
Abstract-Den snabba tillväxten av konsumentvideor kräver en effektiv och effektiv innehållssammanfattning metod för att ge ett användarvänligt sätt att hantera och bläddra i den enorma mängden videodata. Jämfört med de flesta tidigare metoder som fokuserar på sport- och nyhetsvideor, är sammanfattningen av personliga videor mer utmanande på grund av dess oinskränkta innehåll och avsaknaden av några pre-pålagda videostrukturer. Vi formulerar videosammanfattning som en ny ordbok urvalsproblem med sparity konsistens, där en ordbok av nyckelramar väljs så att den ursprungliga videon kan bäst rekonstrueras från denna representativa ordbok. En effektiv global optimeringsalgoritm introduceras för att lösa ordboken urvalsmodell med konvergenshastigheterna som (där är iterationsräknaren), i motsats till traditionella sub-gradient nedstigningsmetoder av. Vår metod ger en skalbar lösning för både nyckelramextraktion och videoskumgenerering, eftersom man kan välja ett godtyckligt antal nyckelramar för att representera de ursprungliga videorna. Experiment på en människomärkt referensdatauppsättning och jämförelser med de senaste metoderna visar fördelarna med vår algoritm. Index Terms-Group sparse, nyckelram, Lasso, scenanalys, videoanalys, videoskum, videosammanfattning.
Sparse kodning teori har också tillämpats på denna uppgift, som arbete Cong et al. REF som formulerade summeringen som ett ordlista urvalsproblem, och extrahera tangentramar med sparity konsekvens.
35,925,816
Towards Scalable Summarization of Consumer Videos Via Sparse Dictionary Selection
{'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']}
82,821
Parallel Boost Graph Library (Parallel BGL) är ett bibliotek med grafalgoritmer och datastrukturer för distribuerad minnesberäkning på stora grafer. Med hjälp av det allmänna programmeringsparadigmet är parallell-BGL mycket anpassningsbar, vilket stöder olika grafdatastrukturer, godtyckliga vertex- och kantegenskaper och olika kommunikationsmedier. I detta dokument beskriver vi genomförandet av två parallella varianter av Dijkstras kortaste banor med en enda källa i Parallel BGL. Vi tillhandahåller också en experimentell utvärdering av dessa implementationer med hjälp av syntetiska och verkliga referensdiagram från 9th DIMACS Implementation Challenge.
I Parallel Boost Graph Library REF Dijkstra algoritm är parallelliserad för en distribuerad minnesmaskin.
13,060,967
Single-Source Shortest Paths with the Parallel Boost Graph Library
{'venue': 'The Shortest Path Problem', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,822
Abstract-Även om multicast kommunikation är väl lämpad för delade trådlösa länkar, mottagaren heterogenitet hindrar användningen av multicast i trådlösa nätverk. I detta dokument undersöker vi ett tillvägagångssätt som tar upp problemet med mottagarens heterogenitet i cellulär multisändning med hjälp av ett ytterligare IEEE 802.11 ad hoc-nätverk. Grundidén är att låta de cellulära mottagare som upplever dåliga kanalförhållanden använda ad hoc-nätverket för att ansluta till de cellulära mottagare som upplever goda cellulära kanalförhållanden. De goda mottagarna (s.k. proxies) överför multisändningsdata till de fattiga mottagarna genom ad hoc-nätverket. Vi tar specifikt hänsyn till tredje generationens cellulära högdatahastighet (HDR) Broadcast/Multicast Services (BCMCS). Vi utvecklar en ny routingalgoritm för att hitta effektiva ad hoc-vägar från proxies till cellulära multicast-mottagare. Till skillnad från befintliga algoritmer [1] beaktar vår routingalgoritm effekten av ad hoc-vägsinterferens. Med hjälp av simuleringar av ett HDR BCMCS-nätverk tillsammans med ett IEEE ad hoc-nätverk, visar vi att vår algoritm förbättrar mottagarens goodput med upp till 280 % jämfört med det som erhålls utan ad hoc-vägar. Vi visar också att vår algoritm uppnår upp till 98% högre mottagare goodput jämfört med den giriga algoritm som föreslås i [1].
Baserat på UCAN, Park och Kasera REF utvecklat en ny proxy upptäckt algoritm för de cellulära multicast mottagare.
6,460,279
Enhancing cellular multicast performance using ad hoc networks
{'venue': 'IEEE Wireless Communications and Networking Conference, 2005', 'journal': 'IEEE Wireless Communications and Networking Conference, 2005', 'mag_field_of_study': ['Computer Science']}
82,823
Abstract-I detta papper anser vi att problemet med robotnavigering i enkla labyrintliknande miljöer där roboten måste förlita sig på sina inbyggda sensorer för att utföra navigeringsuppgiften. I synnerhet är vi intresserade av lösningar på detta problem som inte kräver lokalisering, kartläggning eller planering. Dessutom kräver vi att vår lösning snabbt kan anpassas till nya situationer (t.ex. ändrade navigeringsmål och miljöer). För att uppfylla dessa kriterier beskriver vi detta problem som en sekvens av relaterade förstärkande inlärningsuppgifter. Vi föreslår en efterföljare-feature-baserad djupt förstärka lärande algoritm som kan lära sig att överföra kunskap från tidigare behärskade navigeringsuppgifter till nya problematiker. Vår algoritm minskar avsevärt den nödvändiga inlärningstiden efter att den första aktivitetsinstansen har lösts, vilket gör den lätt att anpassa till föränderliga miljöer. Vi validerar vår metod i både simulerade och riktiga robotexperiment med en Robotino och jämför den med en uppsättning grundläggande metoder inklusive klassisk planeringsbaserad navigering.
Zhang m.fl. REF fokuserar på problemet med robotnavigering i verkliga labyrintliknande miljöer och presenterar en efterföljare-feature-baserad djup RL-algoritm som kan överföra navigeringspolicyer över liknande miljöer.
17,141,050
Deep reinforcement learning with successor features for navigation across similar environments
{'venue': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2017 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Computer Science', 'Engineering']}
82,824
Robust inlärning i verkligheten bör dra nytta av både demonstrationer och interaktioner med miljön. Nuvarande metoder för att lära från demonstration och belöning utför övervakad inlärning på expertdemonstrationsdata och använder förstärkande lärande för att ytterligare förbättra prestanda baserat på den belöning som erhållits från miljön. Dessa uppgifter har olika förluster som är svåra att gemensamt optimera och sådana metoder kan vara mycket känsliga för bullriga demonstrationer. Vi föreslår en enhetlig förstärkning av inlärningsalgoritm, Normalized Actor-Critic (NAC), som effektivt normaliserar Q-funktionen, vilket minskar Q-värdena av åtgärder som inte syns i demonstrationsdata. NAC lär sig ett första politiskt nätverk av demonstrationer och förfinar miljöpolitiken och överträffar demonstratorernas resultat. Avgörande är att både lärande från demonstration och interaktiv förfining använder samma mål, till skillnad från tidigare metoder som kombinerar distinkta övervakade och förstärkningsförluster. Detta gör NAC robust till suboptimala demonstrationsdata, eftersom metoden inte tvingas härma alla exempel i datasetet. Vi visar att vår enhetliga förstärkande inlärningsalgoritm kan lära sig robust och överträffa befintliga baslinjer när den utvärderas på flera realistiska körspel.
REF beaktar scenariot när demonstrationer är ofullständiga och föreslår en normaliserad aktörskritisk algoritm.
3,307,812
Reinforcement Learning from Imperfect Demonstrations
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,825
I detta dokument föreslår vi en återkommande ram för gemensamt oövervakat lärande av djupa representationer och bildkluster. I vårt ramverk, på varandra följande operationer i en kluster algoritm uttrycks som steg i en återkommande process, staplas ovanpå representationer ut av en Convolutional Neural Network (CNN). Under utbildningen uppdateras bildkluster och representationer gemensamt: bildkluster utförs i det framåtgående passet, medan representationsinlärning i det bakåtpasset. Vår centrala idé bakom denna ram är att goda representationer är till nytta för bildkluster och klusterresultat ger övervakningssignaler till representationsinlärning. Genom att integrera två processer i en enda modell med en enhetlig viktad triplet förlust funktion och optimera den endto-end, kan vi få inte bara mer kraftfulla representationer, men också mer exakta bildkluster. Omfattande experiment visar att vår metod överträffar den senaste tekniken på bildkluster över en mängd olika bilddatauppsättningar. Dessutom generaliserar de lärda framställningarna väl när de överförs till andra uppgifter. Källkoden kan laddas ner från https: // github.com/ jwyang/ joint- unövervakad- learning.
Joint Unsendervised Learning (JULE) REF optimerar gemensamt ett konvolutionellt neuralt nätverk med klusterparametrarna på ett återkommande sätt med hjälp av en agglomerativ klustering metod, där bildkluster utförs i framåt pass och representation lärande utförs i bakåt pass.
8,105,340
Joint Unsupervised Learning of Deep Representations and Image Clusters
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
82,826
Vi fortsätter utredningen av problem med korrelationsklustring eller klusterbildning med kvalitativ information, vilket är en klusterformulering som har studerats nyligen [5, 7, 8, 3]. Grundinställningen här är att vi ges som inmatning en komplett graf på n noder (som motsvarar noder som ska klustras) vars kanter är märkta + (för liknande par av objekt) och − (för olika par av objekt). Således har vi bara som insats kvalitativ information om likhet och ingen kvantitativ avståndsmått mellan poster. Kvaliteten på en klusterering mäts i form av dess antal avtal, vilket helt enkelt är det antal kanter den korrekt klassificerar, det vill säga summan av antal - kanter vars ändpunkter det placerar i olika kluster plus antalet + kanter båda vars ändpunkter det placerar inom samma kluster. I detta dokument studerar vi problemet med att hitta kluster som maximerar antalet avtal, och den kompletterande minimeringsversionen där vi söker kluster som minimerar antalet meningsskiljaktigheter. Vi fokuserar på situationen när antalet kluster anges vara en liten konstant k. Vårt främsta resultat är att för varje k, det finns en polynom tid approximation system för både maximering avtal och minimera meningsskiljaktigheter. (Problemen är NPhard för varje k ≥ 2.) Det huvudsakliga tekniska arbetet är för minimering version, eftersom PTAS för maximering avtal följer i linje med fastighetstestaren för Max k-CUT från [13]. Däremot, när antalet kluster inte anges, problemet med att minimera meningsskiljaktigheter visade sig vara APX-hård [7], även om maximering versionen medger en PTAS.
V. Guruswami et al REF 2006 fokuserade på effekten av att hålla antalet kluster, k, fast för överensstämmelse Clustering problem.
1,196,261
Correlation clustering with a fixed number of clusters
{'venue': "SODA '06", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,827