src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
På senare tid har inlärningsbaserade hashingtekniker lockat till sig breda forskningsintressen eftersom de kan stödja effektiv lagring och hämtning för högdimensionella data som bilder, videor, dokument, etc. En stor svårighet när det gäller att lära sig hasch ligger dock i att hantera de diskreta begränsningar som åläggs de eftersträvade haschkoderna, vilket vanligtvis gör haschoptimering mycket utmanande (NPhard i allmänhet). I detta arbete föreslår vi en ny övervakad hashing ram, där inlärningsmålet är att generera optimala binära hash koder för linjär klassificering. Genom att införa en hjälpvariabel omformulerar vi målet så att det kan lösas betydligt effektivt genom att använda en legaliseringsalgoritm. Ett av de viktigaste stegen i denna algoritm är att lösa en legalisering sub-problem i samband med NP-hård binär optimering. Vi visar att underproblemet medger en analytisk lösning via cyklisk koordinat nedstigning. Som sådan kan en diskret lösning av hög kvalitet så småningom erhållas på ett effektivt datoriserat sätt, vilket gör det möjligt att hantera massiva datamängder. Vi utvärderar det föreslagna tillvägagångssättet, dubbade Supervised Discrete Hashing (SDH), på fyra stora bilddatauppsättningar och visar sin överlägsenhet mot de senaste hashmetoderna i storskalig bildsökning. | Övervakad diskret hashing (SDH) REF utnyttjar en linjär regressionsmodell för att generera optimala binära koder. | 11,307,479 | Supervised Discrete Hashing | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 507 |
Sortimentoptimering är ett viktigt problem som uppstår i många praktiska tillämpningar såsom detaljhandel och online-reklam. I ett sortiment optimering problem, är målet att välja en delmängd av objekt som maximerar de förväntade intäkterna i närvaro av substitution beteende konsumenter som anges av en val modell. I detta dokument överväger vi den kapacitetsbegränsade versionen av problemet med optimering av sortimentet under flera olika modeller, inklusive Multinomial Logit (MNL), Nested Logit (NL) och blandningen av Multinomial Logit (MMNL) modeller. Målet är att välja en intäktsmaximerande delmängd av objekt med total vikt eller kapacitet som mest en given bunden. Vi presenterar ett helt polynom tid approximationsschema (FPTAS) för dessa modeller när antalet blandningar eller bon är konstant. Våra FPTAS använder idéer som liknar FPTAS för Knapsack-problemet. Drifttiden för vår algoritm beror exponentiellt på antalet blandningar i MMNL-modellen. Vi visar att förvånansvärt nog är det exponentiella beroendet av antalet blandningar nödvändigt för en nästan optimal algoritm för MMNL:s valmodell. I synnerhet visar vi att det inte finns någon algoritm med körtid polynom i antalet objekt, n och blandningar, K som ger en approximation bättre än O(1/K 1−δ ) för alla δ > 0 för även den okonstruerade sortiment optimering över en allmän MMNL modell. Vår minskning ger en procedur för att bygga en naturlig familj av hårda riktmärken instanser för sortimentet optimeringsproblem över MMNL som kan vara av oberoende intresse. Dessa fall är ganska jämförbara med de övervägningsbaserade modellerna (Jagabathula och Rusmevitientong (2014)) där övervägningsuppsättningen härrör från en grafisk modell. Vi presenterar också några specialfall med MMNL- och NL-modeller där vi kan få ett FPTAS med polynomberoende av antalet blandningar. | När valfunktionen beskrivs av en blandning av multinomala logitmodeller är sortimentsproblemet NP-hård, men olika heltalsprogrammeringsmetoder och approximationsalgoritmer är kända [3, REF 15]. | 325,623 | Near-Optimal Algorithms for Capacity Constrained Assortment Optimization | {'venue': 'SSRN Electronic Journal', 'journal': 'SSRN Electronic Journal', 'mag_field_of_study': ['Mathematics']} | 508 |
Vi tar itu med problemet med axelsurfing attacker på autentiseringssystem genom att föreslå IllusionPIN (IPIN), en PIN-baserad autentiseringsmetod som fungerar på pekskärmsenheter. IPIN använder tekniken för hybrid bilder för att blanda två tangentbord med olika siffror beställningar på ett sådant sätt, att användaren som är nära enheten ser en knappsats för att ange hennes PIN-kod, medan angriparen som tittar på enheten från ett större avstånd ser bara den andra knappsatsen. Användarens knappsats blandas i varje autentiseringsförsök eftersom angriparen kan memorera det rumsliga arrangemanget av de pressade siffrorna. För att resonera om säkerheten hos IllusionPIN utvecklade vi en algoritm som bygger på människans visuella perception och uppskattar det minsta avstånd från vilket en observatör inte kan tolka användarens knappsats. Vi testade våra uppskattningar med 84 simulerade axelsurfing attacker från 21 olika personer. Ingen av attackerna lyckades mot våra beräkningar. Dessutom uppskattade vi det minsta avstånd från vilket en kamera inte kan fånga den visuella informationen från användarens knappsats. Baserat på vår analys verkar det praktiskt taget omöjligt för en övervakningskamera att fånga PIN-koden för en smartphone-användare när IPIN är i bruk. | Athanasios Papadopoulos, et.al., REF uppger att I-pin använder tekniken hybrid bilder för att blanda två knappsatser med olika beställning siffror. | 206,711,862 | IllusionPIN: Shoulder-Surfing Resistant Authentication Using Hybrid Images | {'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']} | 509 |
Abstract-Low-kraft lägen i moderna mikroprocessorer förlitar sig på låga frekvenser och låga spänningar för att minska energibudgeten. Ändå kan tillverkning inducerade parametervariationer göra SRAM-celler opålitliga producerar svåra fel vid matningsspänningar under Vccmin. De senaste förslagen ger en ganska låg feltäckning på grund av feltäckningen/övergången. Vi föreslår en ny feltolerant L1-cache, som kombinerar SRAM- och eDRAM-celler i L1-datacache för att ge 100% SRAM-feltäckning. Resultaten visar att, jämfört med en konventionell cache och antagande 50 % fel sannolikhet vid låg effekt läge, läckage och dynamisk energibesparingar är med 85 % respektive 62 %, med en minimal effekt på prestanda. | I REF föreslår författarna en hybrid L1-datacache byggd med SRAM- och eDRAM-banker. | 6,244,032 | Combining RAM technologies for hard-error recovery in L1 data caches working at very-low power modes | {'venue': "DATE '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 510 |
Inom den närmaste framtiden förväntas kommande kommunikations- och lagringsnät tolerera stora svårigheter som orsakas av enorma mängder data som genereras från sakernas Internet (IoT). För dessa typer av nätverk har strategier och mekanismer baserade på nätkodning visat sig vara ett alternativ för att övervinna dessa svårigheter på ett holistiskt sätt, t.ex. utan att offra fördelarna med ett visst nätmått när man förbättrar ett annat. Det har förekommit återkommande frågor om (i) att göra storskaliga utbyggnader som liknar sakernas Internet, (ii) att bedöma och (iii) replikera de erhållna resultaten i preliminära studier. Därför är det mycket nödvändigt och önskvärt att hitta testbäddar som kan hantera storskaliga utbyggnader och inte förlora historiska data för att kunna utvärdera dessa mekanismer ur ett forskningsperspektiv. Detta kan dock vara svårt att hantera, inte bara på grund av de inneboende kostnaderna för hårdvaran, men också på grund av underhåll utmaningar. I detta papper presenterar vi nödvändiga viktiga steg för att designa, installera och underhålla en billig testbädd med Raspberry Pi enheter för kommunikation och lagring nätverk med nätverkskodning kapacitet. Denna testbädd kan användas för alla applikationer som kräver resultat replikerbarhet. | I dokumentet REF presenterar författarna de nödvändiga stegen för att genomföra och konfigurera en billig testbädd. | 8,440,539 | Easy as Pi: A Network Coding Raspberry Pi Testbed | {'venue': None, 'journal': 'Electronics', 'mag_field_of_study': ['Engineering']} | 511 |
Abstract-In this paper, the Highly Elliptical Orbit (HEO), and the Low Earth Orbit (LEO) satellite layers, som inkluderar geostationary Earth Orbit (GEO), och Low Earth Orbit (LEO) satellite layers, som ger den nästan globala täckningen med 24 timmars oavbruten över områden som varierar från 75° S till 90° N. På grundval av denna satellite nätverk arkitektur, föreslår vi en on-demand QoS multicast routing protokoll (ODQMRP) för satellit IP-nätverk som använder konceptet logiska platser för att isolera rörligheten för LEO och HEO satelliter. I ODQMRP presenterar vi två strategier, dvs. den parallella kortaste vägen träd (PSPT) strategi och den lägsta kostnaden träd (LCT) strategi, för att skapa multicast träd under förutsättning att QoS krav, som innehåller fördröjning begränsning, och tillgänglig bandbredd begränsning, garanteras. PSPT- och LCT-strategin minimerar fördröjningen av banan respektive kostnaden för flera gjutna träd. Simuleringsresultat visar att prestandafördelarna med den föreslagna ODQMRP när det gäller end-to-end trädfördröjning, trädkostnaden och felförhållandet för multicasting anslutningar i jämförelse med den konventionella icke-QoS kortaste vägen träd (SPT) strategi. Index Terms-Satellite nätverk, multicast routing, kvalitet på tjänsten, låg jord omlopp (LEO), mycket elliptiska omlopp (HEO), geostationär jord omlopp (GEO). | På begäran QoS multicast routing protokoll (ODQMRP) för en treskiktad LEO / HEO / GEO satellitnät arkitektur presenteras i REF. | 1,618,247 | On-Demand QoS Multicast Routing for Triple- Layered LEO/HEO/GEO Satellite IP Networks | {'venue': 'JCM', 'journal': 'JCM', 'mag_field_of_study': ['Computer Science']} | 512 |
I detta dokument presenteras ett nytt tillvägagångssätt för att automatiskt generera bildbeskrivningar: visuella detektorer, språkmodeller och multimodala likhetsmodeller som man lärt sig direkt från en datauppsättning bildtexter. Vi använder flera instans lära sig att träna visuella detektorer för ord som ofta förekommer i bildtexter, inklusive många olika delar av tal såsom substantiv, verb och adjektiv. Ordet detektorutgångar fungerar som villkorliga ingångar till en maximal-entropisk språkmodell. Språkmodellen lär sig av en uppsättning på över 400.000 bildbeskrivningar för att fånga statistiken över ordanvändning. Vi fångar globala semantik genom att omvärdera bildtextkandidater med hjälp av funktioner på straffnivå och en djup multimodal likhetsmodell. Vårt system är toppmodernt på det officiella Microsoft COCO-riktmärket, vilket ger en BLEU-4-poäng på 29,1 %. När mänskliga domare jämför systemtexterna med dem som skrivits av andra människor på vår testuppsättning, har systemtexterna lika eller bättre kvalitet 34% av tiden. | I bildtextning forskning, Fang et al. REF utnyttjar en flera instans inlärning (MIL) metod för att träna visuella detektorer som identifierar en uppsättning ord med avgränsande ruta regioner av bilden. | 9,254,582 | From captions to visual concepts and back | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 513 |
Vi föreslår en statistisk åtgärd för graden av acceptans av ljus verbkonstruktioner, såsom ta en promenad, baserat på deras språkliga egenskaper. Vårt mått visar goda korrelationer med mänskliga värden på osedda testdata. Dessutom finner vi att vår åtgärd korrelerar starkare när de potentiella komplementen till konstruktionen (t.ex. gång, promenad eller löpning) är uppdelade i semantiskt liknande klasser. Vår analys visar den systematiska karaktären av halvproduktiviteten hos dessa konstruktioner. | En statistisk metod används för att mäta acceptansen av möjliga ljus verbkonstruktioner i REF, som relativt väl korrelerar med mänskliga bedömningar. | 6,344,468 | Statistical Measures Of The Semi-Productivity Of Light Verb Constructions | {'venue': 'Workshop On Multiword Expressions: Integrating Processing', 'journal': None, 'mag_field_of_study': ['Mathematics']} | 514 |
Vi introducerar en extremt beräkningseffektiv CNN-arkitektur som heter ShuffleNet, som är speciellt utformad för mobila enheter med mycket begränsad datorkraft (t.ex.). Den nya arkitekturen använder två nya operationer, punktvis gruppkonvolution och kanalblandning, för att kraftigt minska beräkningskostnaderna samtidigt som noggrannheten bibehålls. Experiment på ImageNet-klassificering och MS COCO-objektdetektering visar ShuffleNets överlägsna prestanda över andra strukturer, t.ex. lägre topp-1-fel (absolut 7,8 %) än senaste MobileNet [12] på Ima-geNet klassificering uppgift, under beräkningsbudgeten för 40 MFLOPs. På en ARM-baserad mobil enhet, uppnår ShuffleNet till och med 13× verklig upphastighet över AlexNet samtidigt som jämförbar noggrannhet upprätthålls. | ShuffleNet REF använder punktvis gruppkonvolution och kanalblandning för att minska FLOPs samtidigt som noggrannheten bibehålls. | 24,982,157 | ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 515 |
Djupt lärande ger toppmoderna resultat i många uppgifter inom datorseende och bearbetning av naturligt språk. På senare tid har det dock visat sig att djupa nätverk kan vara sårbara för motsträviga störningar som väcker allvarliga problem med de djupa nätens robusthet. Motståndskraftig träning, typiskt formulerad som ett robust optimeringsproblem, är ett effektivt sätt att förbättra robustheten i djupa nätverk. En stor nackdel med befintliga kontradiktoriska utbildningsalgoritmer är de beräkningsmässiga omkostnaderna för generering av kontradiktoriska exempel, vanligtvis mycket större än nätverksutbildningen. Detta leder till outhärdliga totala beräkningskostnader för kontradiktorisk utbildning. I den här artikeln visar vi att kontradiktorisk träning kan spelas som ett diskret tidsdifferentialspel. Genom att analysera Pontryagin's Maximum Principe (PMP) av problemet, observerar vi att motståndaren uppdateringen endast är kopplad med parametrarna i det första lagret av nätverket. Detta inspirerar oss att begränsa det mesta av den framåt- och bakåtutbredning inom första lagret av nätverket under motståndare uppdateringar. Detta minskar effektivt det totala antalet full framåt- och bakåtutbredning till endast en för varje grupp av motståndare uppdateringar. Därför hänvisar vi till denna algoritm YOPO (You Only Propagate En gång). Numeriska experiment visar att YOPO kan uppnå jämförbar försvar noggrannhet med cirka 1/5 GPU tid av den beräknade lutning nedstigning (PGD) algoritm [16]. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | YOPO REF finner att en motståndare uppdatering i stor utsträckning är kopplad till det första lagret. | 146,120,969 | You Only Propagate Once: Accelerating Adversarial Training via Maximal Principle | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 516 |
Abstract-Kernel-baserade shift (MS) spårare har visat sig vara ett lovande alternativ till stokastiska partikelfiltrering spårare. Trots sin popularitet, MS trackers har två grundläggande nackdelar: (1) Mallmodellen kan bara byggas från en enda bild; (2) Det är svårt att anpassa uppdatera mallmodellen. I detta arbete generaliserar vi de vanliga MS-spårarna och försöker övervinna dessa två begränsningar. Det är välkänt att modellering och underhåll av en representation av ett målobjekt är en viktig komponent i en framgångsrik visuell spårare. Det har dock inte gjorts mycket arbete med att bygga en robust mallmodell för kärnbaserad MS-spårning. I motsats till att bygga en mall från en enda ram, tränar vi en robust objekt representation modell från en stor mängd data. Spårning ses som ett binärt klassificeringsproblem, och en diskriminerande klassificeringsregel lärs för att skilja mellan objektet och bakgrunden. Vi använder en stödvektormaskin (SVM) för träning. Spåraren implementeras sedan genom att maximera klassificeringspoängen. Ett iterativt optimeringssystem som är mycket likt MS härleds för detta ändamål. Jämfört med den vanliga MS tracker, är det nu mycket lättare att införliva on-line mall anpassning för att hantera inneboende förändringar under loppet av spårning. För detta ändamål, en sofistikerad on-line stöd vektor maskin används. Vi demonstrerar framgångsrik lokalisering och spårning på olika datamängder. | Shen m.fl. REF föreslår en generell Kernel-baserad genomsnittlig skift tracker vars mallmodell kan byggas från en enda bild och adaptivt uppdateras under spårning. | 1,223,938 | Generalized Kernel-based Visual Tracking | {'venue': 'IEEE Transactions on Circuits and Systems for Video Technology, 2010', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 517 |
Abstract-I detta dokument anser vi ett team av mobila noder som är ansvariga för kooperativ målspårning. Vi föreslår kommunikationsmedvetna navigationsfunktioner som gör det möjligt för noderna att utföra sin uppgift samtidigt som deras anslutning till en fast basstation bibehålls och hinder undviks. Mer specifikt visar vi hur man integrerar åtgärder av länkkvaliteter i navigationsfunktionerna. Vi betraktar både centraliserade och decentraliserade scenarier. Vi undersöker dessutom hur stokastiska kanaler och kanaluppskattningsfel påverkar den totala prestandan. | Kommunikationsmedvetna navigationsfunktioner införs i REF. | 1,403,855 | Communication-aware navigation functions for cooperative target tracking | {'venue': '2009 American Control Conference', 'journal': '2009 American Control Conference', 'mag_field_of_study': ['Computer Science']} | 518 |
Hales, T.C., Sfären förpackningsproblem, Journal of Computational and Applied Mathematics 44 (1992) 41-76. Sfären förpackning problemet frågar om någon förpackning av sfärer med samma radie i tre dimensioner har densitet som överstiger den ansikte-centrerade-kubisk lattice förpackning (av densitet IT/V%). I detta dokument skisseras en lösning på detta problem. Nyckelord: Sphere packning; Delaunay triangulation; packning och beläggning; sfärisk geometri; Hilberts problem; Voronoiceller. Vi börjar med en allmän diskussion om strategin för beviset för att ingen förpackning av lika sfärer i tre dimensioner har densitet som överstiger 7 ~ / m. densiteten för varje förpackning kan förbättras genom att lägga till sfärer så länge det finns tillräckligt utrymme för att göra det. När det inte längre finns plats att lägga till ytterligare sfärer, säger vi att förpackningen är mättad. Vi antar att våra förpackningar är mättade. Vi tar våra sfärer till radien 1. Således i en mättad packning ingen punkt av rymden ligger mer än avstånd 2 från en sfär centrum. Sfärcentra kallas packningspunkter. Varje mättad förpackning ger upphov till en nedbrytning av rymden i simplier som kallas Delaunay nedbrytning. Simplerna kallas Delaunay simplices. Varje vertex av en simplex ligger på en förpackningsplats. Varje sfär (abstrakt sfär, inte förpackning sfär) omringande en simplex har egenskapen att ingen av packningspunkterna ligger i det inre av sfären. Faktum är att denna egendom är tillräckligt för att helt bestämma Delaunay nedbrytning utom för vissa degeneracies. När alla simplices dela en gemensam vertex grupperas, den resulterande polytopen kallas en Delaunay stjärna. Således varje Delaunay stjärna är föreningen av Delaunay simplices. | När man överväger tre dimensioner, är frågan om optimal nod positionering kallas sfären förpackning problem REF. | 17,459,181 | The sphere packing problem | {'venue': None, 'journal': 'Journal of Computational and Applied Mathematics', 'mag_field_of_study': ['Mathematics']} | 519 |
Abstract-Delay-tolerant nätverk (DTNs) ger en lovande lösning för att stödja omfattande tillämpningar i de regioner där end-to-end nätverksanslutning inte är tillgänglig. I DTNs, de mellanliggande noderna på en kommunikationsväg förväntas lagra, bära, och vidarebefordra in-transit meddelanden (eller buntar) på ett opportunistiskt sätt, som kallas opportunistiska data vidarebefordra. En sådan vidaresändningsmetod beror på hypotesen att varje enskild nod är redo att vidarebefordra paket för andra. Detta antagande kan emellertid lätt kränkas på grund av förekomsten av själviska eller till och med skadliga noder, som kan vara ovilliga att slösa bort sina värdefulla trådlösa resurser för att tjäna som buntreläer. För att ta itu med detta problem föreslår vi ett säkert flerskiktskreditbaserat incitamentssystem för att stimulera samarbete mellan DTN-noder för att främja paketöverföring. Det föreslagna systemet kan genomföras på ett fullständigt distribuerat sätt för att förhindra olika attacker utan att förlita sig på någon manipuleringssäker hårdvara. Dessutom introducerar vi flera effektivitetsoptimering tekniker för att förbättra den totala effektiviteten genom att utnyttja de unika egenskaperna hos DTNs. Omfattande simuleringar visar att det föreslagna systemet är effektivt och ändamålsenligt. | För att stimulera noder för DTNs, Zhu et al. föreslog ett säkert flerskiktskreditbaserat incitamentssystem, kallat SMART REF, som ger noder med virtuella mynt att ta betalt för och belöna tillhandahållandet av data vidaresändning. | 555,139 | SMART: A Secure Multilayer Credit-Based Incentive Scheme for Delay-Tolerant Networks | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 520 |
Även om bredbandsuppkoppling till bostäder är populär i många delar av världen, har endast ett fåtal studier undersökt egenskaperna hos sådan trafik. I detta dokument beskriver vi observationer från övervakningen av nätverksaktiviteten för mer än 20 000 DSL-kunder i ett urbant område. För att säkerställa integritet, all data är omedelbart anonymiserade. Vi utökar de anonymiserade paketspåren med information om DSL-nivåsessioner, IP (om)tilldelningar och DSL-länkbandbredd. Vår analys avslöjar ett antal överraskningar när det gäller de mentala modeller vi utvecklat ur mätlitteraturen. Till exempel, vi finner att HTTP-inte peer-to-peer-traffic dominerar med en betydande marginal, att oftast hemmaanvändarens omedelbara ISP-anslutning bidrar mer till tur och retur gånger användarens erfarenheter än WAN-delen av vägen, och att DSL-linjerna ofta inte är flaskhalsen i bulk överföring prestanda. | Författarna i REF jämför den trafik som 20 000 bostäder DSL-linjer genererade enligt bandbredden för nedladdning. | 10,935,192 | On dominant characteristics of residential broadband internet traffic | {'venue': "IMC '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 521 |
MLS-ytan [Livin 2003 ], som användes för modellering och rendering med punktmoln, definierades ursprungligen algoritmiskt som utgången av en viss meshless konstruktion. Vi ger en ny uttrycklig definition i termer av kritiska punkter i en energifunktion på linjer som bestäms av ett vektorfält. Denna definition avslöjar kopplingar till forskning inom datorseende och datatopologi. Varianter av MLS-ytan kan skapas genom att variera vektorfältet och energifunktionen. Som exempel definierar vi en liknande yta som bestäms av ett moln av surfar (punkter utrustade med normala), snarare än punkter. Vi noterar också att vissa förfaranden som beskrivs i litteraturen för att ta punkter i rymden på MLS-ytan misslyckas med att göra det, och vi beskriver ett enkelt iterativt förfarande som gör det. | En annan punktuppsättning ytdefinition i REF som utnyttjar de kritiska punkterna i en energifunktion på linjer som bestäms av ett vektorfält ges. | 13,939,126 | Defining point-set surfaces | {'venue': "SIGGRAPH '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 522 |
Abstract-Hybrid automatisk-repeat-request (ARQ) är en flexibel och effektiv teknik för dataöverföringar. I hybrida ARQ är subpacketsystem mer attraktiva för system med sprängfel än kompletta paketsystem. Även subpacket system föreslogs i ARQ-system, optimal subpacket överföring är mer effektivt för att maximera genomströmningen i en dynamisk kanal. Eftersom konvolutionskoder har egenskaper som sprängfel vid avkodning, kan den optimala subpacket appliceras på konvolutionskoder. I detta dokument undersöks prestandan hos subpacketöverföring för konvolutionellt kodade system. En effektiv metod föreslås för att uppskatta det optimala antalet subpackets, och adaptiva subpacket system, dvs. system som gör det möjligt för ett system att använda olika optimalt antal subpackets under olika förhållanden, föreslås för att uppnå maximal genomströmning av systemet. Numeriska och simuleringsresultat visar att adaptiv subpacket-systemet är mycket effektivt för det konvolutionellt kodade hybrid-ARQ-systemet, och det kan ge högre genomströmning, mindre fördröjning och lägre nedgångshastighet än kompletta paket-system. Dessutom kan adaptiv delpacket systemet flexibelt användas med paket kombinerar tekniker för att ytterligare förbättra systemets genomströmning. | Författarna till REF försöker maximera genomströmningen genom att föreslå ett adaptivt subpacket-system som optimerar blockstorleken. | 25,519,368 | Optimum subpacket transmission for hybrid ARQ systems | {'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']} | 523 |
Mobile Ad Hoc Networks är sårbara för en mängd olika nätverkslager attacker såsom svart hål, grått hål, sömnbrist och rusande attacker. I detta dokument presenterar vi en intrångsdetektering & adaptiv svarsmekanism för MANETS som upptäcker en rad attacker och ger en effektiv respons med låg nätnedbrytning. Vi betraktar bristerna i ett fast svar på ett intrång, och vi övervinner dessa brister med ett flexibelt svarssystem som är beroende av det uppmätta förtroendet för attacken, attackens svårighetsgrad och försämringen av nätverksprestandan. Vi presenterar resultat från ett genomförande av insatssystemet som har tre intrångsåtgärder. Simuleringsresultat visar effektiviteten hos de föreslagna detektions- och adaptiva responsmekanismerna i olika attackscenarier. En analys av effekterna av vårt föreslagna system visar att det möjliggör en flexibel strategi för hantering av hot och visar förbättrad nätprestanda med låga nätkostnader. | En intrångsdetektering och adaptiv reaktionsmekanism (IDAR) föreslogs av Nadeem och Howardth REF. | 16,919,868 | An intrusion detection & adaptive response mechanism for MANETs | {'venue': 'Ad Hoc Networks', 'journal': 'Ad Hoc Networks', 'mag_field_of_study': ['Computer Science']} | 524 |
Moderna laseromfång och optiska scanners behöver renderingsteknik som kan hantera miljontals punkter med hög upplösning texturer. Detta papper beskriver en punkt rendering och textur filtrering teknik som kallas ytsplatting som direkt gör ogenomskinliga och transparenta ytor från punktmoln utan anslutning. Den är baserad på en ny skärmrymdsformulering av filtret Elliptical Weighted Genomsnitt (EWA). Vår rigorösa matematiska analys utökar strukturomsamplingsramverket i Heckbert till oregelbundet fördelade punktprover. För att göra punkterna utvecklar vi en ytplatta primitiv som implementerar skärmen utrymme EWA filter. Dessutom visar vi hur man optimalt kan ta bilder och procedurstrukturer till oregelbundna punktdata under förbehandlingen. Vi jämför också den optimala algoritmen med ett mer effektivt visningsoberoende EWA förfilter. Ytbeläggning gör fördelarna med EWA texturfiltrering tillgänglig för punktbaserad rendering. Det ger hög kvalitet anisotropisk textur filtrering, dold yta borttagning, kant anti-aliasing, och orderoberoende transparens. | Point-baserade renderingsalgoritmer använder vanligtvis rekonstruktion filter som döljer utseendet på punkt representation REF. | 3,206,922 | Surface splatting | {'venue': "SIGGRAPH '01", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 525 |
Abstract-Många metoder som automatiskt identifierar objekt avbildade i skisser som beskrivits av ögonvittnen har genomförts, men deras prestanda försämras ofta när man använder verkliga kriminaltekniska skisser och utvidgade gallerier som efterliknar brottsbekämpning mugg-shot gallerier. Dessutom har lite arbete gjorts för att tillämpa djupt lärande för ansiktsfoto-sketch erkännande trots sin framgång inom många tillämpningsområden inklusive traditionell ansiktsigenkänning. Detta beror främst på det begränsade antalet tillgängliga skissbilder, som är otillräckliga för att på ett robust sätt utbilda stora nät. Detta brev syftar till att ta itu med dessa frågor med följande bidrag: 1) En toppmodern modell som är förtränad för ansiktsfotoigenkänning är inställd för ansiktsfoto-sketch erkännande genom att tillämpa överföring lärande, 2) en tredimensionell morfable modell används för att syntetisera nya bilder och artificiellt utöka utbildningsdata, vilket gör att nätverket för att förhindra övermontering och lära sig bättre funktioner, 3) flera syntetiska skisser används också i teststadiet för att förbättra prestanda, och 4) fusion av den föreslagna metoden med en toppmodern algoritm visas för att ytterligare öka prestanda. En omfattande utvärdering av flera populära och toppmoderna algoritmer görs också med hjälp av allmänt tillgängliga datauppsättningar, vilket fungerar som ett riktmärke för framtida algoritmer. Jämfört med en ledande metod har det föreslagna ramverket visat sig minska felfrekvensen med 80,7 % för betraktade skisser och sänker den genomsnittliga hämtningsgraden med 32,5 % för verkliga kriminaltekniska skisser. | Gallea och Farrugia REF använde en toppmodern modell som är förberedd för ansiktsigenkänning genom att tillämpa överföringsutbildning för att ta itu med problemet med kriminaltekniskt skissigenkänning. | 23,362,178 | Forensic Face Photo-Sketch Recognition Using a Deep Learning-Based Architecture | {'venue': 'IEEE Signal Processing Letters', 'journal': 'IEEE Signal Processing Letters', 'mag_field_of_study': ['Computer Science']} | 526 |
Vi presenterar NewsQA, en utmanande maskinförståelse datauppsättning på över 100.000 mänskliga-genererade frågesvar par. Crowdworkers ger frågor och svar baserade på över 10.000 nyhetsartiklar från CNN, med svar som består av text från motsvarande artiklar. Vi samlar in denna datauppsättning genom en process i fyra steg som syftar till att få fram undersökande frågor som kräver resonemang. En grundlig analys bekräftar att NewsQA kräver förmågor utöver enkel ordmatchning och igenkännande av textbegrepp. Vi mäter människans prestanda på datasetet och jämför det med flera starka neurala modeller. Prestandagapet mellan människor och maskiner (0.198 i F1) indikerar att betydande framsteg kan göras på NewsQA genom framtida forskning. Datasetet är fritt tillgängligt på https://datasets.maluuba.com/NewsQA. | NewsQA REF ) är en datauppsättning av nyhetsmeddelanden från CNN med frågor och svar skrivna av crowdsourcing-arbetare. | 1,167,588 | NewsQA: A Machine Comprehension Dataset | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 527 |
Bakgrund: Även om minnesförsämring är det huvudsakliga symtomet på Alzheimers sjukdom (AD), kan språkförsämring vara en viktig markör. Relativt få studier av språk i AD kvantifierar försämringar i uppkopplat tal med hjälp av beräkningstekniker. Mål: Vi strävar efter att visa toppmodern noggrannhet genom att automatiskt identifiera Alzheimers sjukdom från korta berättande prover som framkallas med en bildbeskrivning uppgift, och att avslöja de framträdande språkliga faktorerna med en statistisk faktoranalys. Metoder: Data härleds från DementiaBank corpus, från vilka 167 patienter som diagnostiserats med "möjlig" eller "sannolik" AD ger 240 berättande prover, och 97 kontroller ger ytterligare 233. Vi beräknar ett antal språkliga variabler från utskrifter, och akustiska variabler från tillhörande ljudfiler, och använder dessa variabler för att träna en maskin lär klassificerare för att skilja mellan deltagare med AD och friska kontroller. För att undersöka graden av heterogenitet av språkliga försämringar i AD, följer vi en undersökande faktor analys av dessa mått av tal och språk med en sned promax rotation, och ge tolkning för de resulterande faktorerna. Resultat: Vi får en toppmodern klassificeringsnoggrannhet på över 81% när det gäller att särskilja individer med AD från personer utan att basera sig på korta urval av deras språk på en bildbeskrivningsuppgift. Fyra tydliga faktorer framträder: semantisk försämring, akustisk abnormitet, syntaktisk försämring och informationsnedsättning. Slutsats: Modern maskininlärning och språklig analys kommer att bli allt mer användbar vid bedömning och klusterering av misstänkt AD. | En första analys Ref, baserad på en monolog corpus (DementiaBank), identifierade fyra olika språkliga faktorer som huvuddeskriptorer: syntaktisk, semantisk, och informationsnedsättningar, och akustisk abnormitet. | 7,357,141 | Linguistic Features Identify Alzheimer’s Disease in Narrative Speech | {'venue': "Journal of Alzheimer's disease : JAD", 'journal': "Journal of Alzheimer's disease : JAD", 'mag_field_of_study': ['Psychology', 'Medicine']} | 528 |
Omnämnande uppgifter: Wei, Q., Chen, T., Xu, R. m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. Erkännandet av sjukdoms- och kemiska namngivna enheter i vetenskapliga artiklar är en mycket viktig deluppgift vid informationsextrahering inom det biomedicinska området. På grund av sjukdomsnamnens mångfald och komplexitet är erkännandet av namngivna sjukdomar snarare svårare än av kemiska namn. Även om det finns några anmärkningsvärda kemiska namngivna system för igenkänning av enheter som finns tillgängliga online, såsom ChemSpot och tmChem, är de allmänt tillgängliga system för igenkänning av sjukdom namngivna enheter sällsynta. Denna artikel presenterar ett system för sjukdom som heter enhetsigenkänning (DNER) och normalisering. För det första utvecklas två separata DNER-modeller. En är baserad på villkorliga slumpmässiga fält modell med en regelbaserad efterbehandling modul. Den andra bygger på de dubbelriktade återkommande neurala nätverken. Sedan de namngivna enheter som erkänns av var och en av DNER-modellen matas in i en stöd vektor maskin klassificerare för att kombinera resultat. Slutligen, varje erkänd sjukdom namngivna enhet normaliseras till en medicinsk ämne rubrik sjukdom namn genom att använda en vektor utrymme modell baserad metod. Experimentella resultat visar att med hjälp av 1000 PubMed abstracts för utbildning uppnår vårt föreslagna system ett F1-mått på 0,8428 på omnämnandesnivå respektive 0,7804 på konceptnivå på testdata från den kemiska sjukdomsrelationen i BioCreative V. | Wei och Al. REF tillämpade en RNN på uppdrag av verksamhetsutvinning på det medicinska området. | 6,238,307 | Disease named entity recognition by combining conditional random fields and bidirectional recurrent neural networks | {'venue': 'Database: The Journal of Biological Databases and Curation', 'journal': 'Database: The Journal of Biological Databases and Curation', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 529 |
Vi presenterar en metod för att uppskatta artikulerade mänskliga pose från en enda statisk bild baserad på en grafisk modell med nya parvisa relationer som gör adaptiv användning av lokala bildmätningar. Mer exakt anger vi en grafisk modell för mänsklig pose som utnyttjar det faktum att de lokala bildmätningarna kan användas både för att upptäcka delar (eller leder) och för att förutsäga de rumsliga sambanden mellan dem (Bildberoende parvisa relationer). Dessa rumsliga relationer representeras av en blandningsmodell. Vi använder Deep Convolutional Neural Networks (DCNN) för att lära oss villkorliga sannolikheter för närvaron av delar och deras rumsliga relationer inom bildplåster. Därför kombinerar vår modell representationsflexibiliteten hos grafiska modeller med DCNN:s effektivitet och statistiska kraft. Vår metod överträffar betydligt toppmoderna metoder på LSP- och FlIC-dataseten och presterar också mycket bra på Buffy-datasetet utan någon utbildning. | Chen och Al. REF presenterade en djup graf modell, som utnyttjar djupa CNNs för att lära villkorlig sannolikhet för närvaron av delar och deras rumsliga relationer inom dessa delar. | 6,619,926 | Articulated Pose Estimation by a Graphical Model with Image Dependent Pairwise Relations | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 530 |
Distribuerad stokastisk lutning nedstigning är en viktig subrutin i distribuerat lärande. Ett särskilt intresse är när kunderna är mobila enheter, där två viktiga frågor är kommunikation effektivitet och integritet för kunderna. Flera nya verk har fokuserat på att minska kommunikationskostnaderna eller införa integritetsgarantier, men ingen av de föreslagna kommunikation effektiva metoder är kända för att bevara integriteten och ingen av de kända integritetsmekanismerna är kända för att vara kommunikation effektiv. I detta syfte studerar vi algoritmer som uppnår både kommunikationseffektivitet och differentialintegritet. För d-variabler och n på d-klienter använder den föreslagna metoden O(log log(nd)) bitar av kommunikation per klient per koordinat och säkerställer ständig integritet. Vi utökar och förbättrar också tidigare analys av Binom-mekanismen som visar att den uppnår nästan samma nytta som Gaussian-mekanismen, samtidigt som den kräver färre representationsbitar, vilket kan vara av oberoende intresse. | Baserat på DP-SDG, Agarwal et al. REF tillämpar differentialintegritet på distribuerad stokastisk lutning nedstigning för att uppnå både kommunicera effektivitet och integritet bevarande. | 44,113,205 | cpSGD: Communication-efficient and differentially-private distributed SGD | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 531 |
Under de senaste två decennierna har den kontinuerliga ökningen av datorkraft gett upphov till ett överväldigande dataflöde som har krävt ett paradigmskifte i datorarkitekturen och storskaliga databehandlingsmekanismer. MapReduce är en enkel och kraftfull programmeringsmodell som möjliggör enkel utveckling av skalbara parallella applikationer för att bearbeta stora mängder data på stora kluster av råvarumaskiner. Det isolerar programmet från detaljerna i att köra ett distribuerat program såsom frågor om datadistribution, schemaläggning och feltolerans. Det ursprungliga genomförandet av MapReduce-ramen hade dock vissa begränsningar som har åtgärdats av många forskningsinsatser i flera uppföljningsarbeten efter införandet. Denna artikel ger en omfattande undersökning för en familj av metoder och mekanismer för storskalig databehandling mekanismer som har genomförts baserat på den ursprungliga idén med MapReduce ramverket och för närvarande får en hel del fart i både forskning och industriella samhällen. Vi täcker också en uppsättning införda system som har införts för att tillhandahålla deklarativa programmeringsgränssnitt ovanpå MapReduce-ramverket. Dessutom granskar vi flera storskaliga databehandlingssystem som liknar några av idéerna i MapReduce-ramverket för olika ändamål och tillämpningsscenarier. Slutligen diskuterar vi några av de framtida forskningsinriktningarna för att genomföra nästa generations MapReduce-liknande lösningar. | I REF tillhandahålls en omfattande undersökning av storskaliga databehandlingsmekanismer baserade på MapReduce. | 2,269,759 | The family of mapreduce and large-scale data processing systems | {'venue': 'CSUR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 532 |
Binary klassificerare används ofta som discriminatorer i GAN-baserade oövervakade stil överföringssystem för att säkerställa att överförda meningar liknar meningar i måldomänen. En svårighet med detta tillvägagångssätt är att felsignalen från discriminatorn kan vara instabil och ibland otillräcklig för att träna generatorn för att producera flytande språk. I detta dokument föreslår vi en ny teknik som använder en måldomänspråksmodell som diskriminator, vilket ger rikare och stabilare återkoppling på token-nivå under inlärningsprocessen. Vi tränar generatorn för att minimera den negativa logsannolikheten (NLL) för genererade meningar, utvärderad av språkmodellen. Genom att använda en kontinuerlig approximation av diskret provtagning under generatorn kan vår modell tränas med back-propagation på ett end-to-end-sätt. Dessutom visar våra empiriska resultat att när man använder en språkmodell som en strukturerad discriminator är det möjligt att avstå från kontradiktoriska steg under utbildningen, vilket gör processen mer stabil. Vi jämför vår modell med tidigare arbete som använder konvolutionella nätverk (CNN) som discriminatorer, samt en bred uppsättning andra metoder. Resultaten visar att den föreslagna metoden uppnår bättre prestanda på tre uppgifter: ordsubstitution dechiffrering, känslomodifiering, och relaterade språköversättning. | Med hjälp av en måldomän språkmodell som en discriminator har också använts REF, ger rikare och mer stabil token-nivå återkoppling under inlärningsprocessen. | 44,061,800 | Unsupervised Text Style Transfer using Language Models as Discriminators | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 533 |
Eftersom datorer kan innehålla eller interagera med känslig information, är de ofta airgappad och på detta sätt hålls isolerade och kopplade från Internet. Under de senaste åren har förmågan hos malware att kommunicera över ett luftgap genom att överföra ljud- och ultraljudssignaler från en högtalare till en närliggande mottagare visats. För att eliminera sådana akustiska kanaler rekommenderar nuvarande bästa praxis eliminering av högtalare (inre eller yttre) i säkra datorer, vilket skapar ett så kallat "audio-gap". I detta papper presenterar vi Fansmitter, en malware som akustiskt kan exfiltrera data från airgappade datorer, även när ljud hårdvara och högtalare inte är närvarande. Vår metod använder det buller som avges från CPU och chassifläktar som finns i praktiskt taget varje dator idag. Vi visar att en programvara kan reglera den interna fläktens hastighet för att styra den akustiska vågform som avges från en dator. Binära data kan moduleras och överföras över dessa ljudsignaler till en fjärrmikrofon (t.ex. på en mobiltelefon i närheten). Vi presenterar Fansmitters designöverväganden, inklusive akustisk signaturanalys, datamodulering och dataöverföring. Vi utvärderar också den akustiska kanalen, presenterar våra resultat och diskuterar motåtgärder. Med hjälp av vår metod överförde vi med framgång data från luftfjädrad dator utan ljudutrustning, till en smartphone-mottagare i samma rum. Vi demonstrerade effektiv överföring av krypteringsnycklar och lösenord från ett avstånd av noll till åtta meter, med bithastighet på upp till 900 bits/timme. Vi visar att vår metod också kan användas för att läcka data från olika typer av IT-utrustning, inbyggda system, och IoT-enheter som inte har någon ljudhårdvara, men innehåller fans av olika typer och storlekar. Flygstyrda datorer hålls fysiskt isolerade från Internet eller andra mindre säkra nätverk. Sådan isolering upprätthålls ofta när känsliga eller konfidentiella uppgifter är inblandade, för att minska risken för dataläckage. I detta papper introducerar vi en akustisk kanal som inte kräver en högtalare eller annan ljudrelaterad hårdvara för att installeras i den infekterade datorn. Vi visar att det buller som avges från en dators interna CPU- och chassikylfläktar avsiktligt kan styras av programvara. Till exempel kan en skadlig kod på en förorenad dator avsiktligt reglera hastigheten hos en dators kylfläktar för att indirekt kontrollera dess akustiska vågform. På så sätt kan känsliga data (t.ex. krypteringsnycklar och lösenord) moduleras och överföras över den akustiska kanalen. Dessa signaler kan sedan tas emot av en fjärrmikrofon (t.ex. via en närliggande smartphone) och avkodas och skickas till en angripare. Vår nya metod är tillämplig för en mängd olika datorer och enheter utrustade med interna fläktar, inklusive enheter som servrar, skrivare, industriella och äldre system, och Internet of Things (IoT) enheter. Täckta kanaler har diskuterats i stor utsträckning i facklitteratur [20] [21] [22]. Vårt arbete fokuserar på hemliga kanaler som kan exfiltrera data från luftstyrda datorer utan att kräva nätverksanslutning. Under årens lopp har olika typer av out-of-band hemliga kanaler föreslagits, som syftar till att överbrygga luft-gap isolering. De föreslagna metoderna kan kategoriseras i elektromagnetiska, optiska, termiska och akustiska dolda kanaler. Elektromagnetiska utsläpp är förmodligen den äldsta typen av hemliga kanaler som har undersökts akademiskt. Kuhn och Anderson [7], i en pionjärverksamhet inom detta område, diskuterar dold dataöverföring med hjälp av elektromagnetisk strålning från ett videokort. Detta anslag är avsett att täcka utgifter för studier, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter och experter samt andra administrativa utgifter. Akustiska metoder Madhavapeddy et al [15] diskuterar "ljudnätverk", som gör det möjligt att överföra data mellan ett par stationära datorer, med hjälp av högtalare för 10 dollar och en mikrofon. Under 2013 utökar Hanspach och Goetz [33] en metod för näst intill ultrasoniskt nätverk mellan luftstyrda datorer med hjälp av högtalare och mikrofoner. De skapar ett mesh-nätverk och använder det för att implementera en luftgapad nyckelloggare för att demonstrera den dolda kanalen. Konceptet att kommunicera över hörbara ljud har undersökts utförligt av Lee et al [13], och har också utökats för olika scenarier med hjälp av bärbara datorer och smartphones [34]. Tabell 1 sammanfattar de olika typerna av dolda kanaler för luftstyrda datorer, inklusive vår Fansmitter-metod. Som kan ses kräver befintliga akustiska metoder installation av en extern eller intern högtalare i den sändande datorn. Detta anses vara ett restriktivt krav, eftersom talare i många fall är förbjudna på luftstyrda datorer som bygger på regler och säkerhetsrutiner [17]. Med vår metod behöver däremot inte sändardatorn utrustas med ljudutrustning eller en intern eller extern högtalare. Anfallsmodell | Under 2016 introducerade Guri et al Fansmitter, en malware som underlättar exfiltration av data från en luftfjädrad dator via buller som avsiktligt avges från PC-fans REF. | 12,421,514 | Fansmitter: Acoustic Data Exfiltration from (Speakerless) Air-Gapped Computers | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 534 |
I detta dokument föreslås en verktygsbaserad resursfördelningsalgoritm för upplänken OFDMA Intercell Interference (ICI) begränsade kooperativa relänät. Fullständig kanalstatsinformation (CSI) antas vara tillgänglig vid resurskontrollanten i inledningsskedet, då arbetet utökas för att överväga mer realistiska antaganden, dvs. endast partiell kanalstatsinformation (PCSI) är tillgänglig. Den föreslagna algoritmen syftar till att maximera det totala systemet nytta samtidigt som den uppfyller den enskilda användarens minimikrav för datahastighet. I den föreslagna algoritmen utförs reläval initialt baserat på beaktandet av ICI. Därefter, subcarrier allokering utförs för att uppnå maximal nytta antar lika effektallokering. Slutligen, baserat på mängden ICI, föreslås en modifierad effektfördelningsalgoritm för vattenfyllning och används för att optimera den per-transportör effekttilldelningen i den tilldelade uppsättningen av undertransportörer. Resultaten visar att den föreslagna algoritmen, jämfört med konventionella algoritmer, avsevärt förbättrar systemets prestanda i form av total datahastighet, sannolikhet för avbrott och rättvisa. | På liknande sätt föreslog REF en verktygsbaserad resursfördelningsalgoritm för upplänken OFDMA Intercell Interference (ICI) begränsade kooperativa relänät. | 39,251,103 | Utility-based resource allocation for interference limited OFDMA cooperative relay networks | {'venue': 'Phys. Commun.', 'journal': 'Phys. Commun.', 'mag_field_of_study': ['Computer Science']} | 535 |
Abstrakt. Organisationer som tillhandahåller elektroniska tjänster har ingen logiskt strukturerad strategi för att genomföra kundkunskapshantering via sociala medier (SCKM). Genom att bedöma positionen för SCKM, kan organisationer ha en tydlig förståelse för sin mognadsnivå och hitta sina framtida investeringsintressen. Denna forskning undersökte mognadsbedömningen av SCKM med hjälp av ett suddigt expertsystem. Det bestod av ett förfarande i fyra steg. Momentmodellen bygger på 11 kritiska framgångsfaktorer, inklusive strategi, ledarskap, informationsteknik, kunskapshantering, kultur, process, resurser, affärsintelligens, säkerhet, social kund och bedömning. Resultaten visade att den studerade organisationen har omfattat 48,2 % av mognaden på den första nivån och 51,8 % på den andra nivån. För att öka produktiviteten är det därför nödvändigt att organisationer agerar på ett målinriktat sätt. Det fuzzy expertsystemet är inte särskilt utformat för en fallstudie, men kan användas som referens för en fördjupad analys av den organisatoriska beredskapen för SCKM implementering och utveckling inom organisationer, som tillhandahåller e-tjänster applikationer. | Dessutom presenterar REF en SCKM-mognadsmodell baserad på fördelningen av kritiska framgångsfaktorer. | 55,426,828 | Maturity assessment of social customer knowledge management (SCKM) using fuzzy expert system | {'venue': None, 'journal': 'Journal of Business Economics and Management', 'mag_field_of_study': ['Economics']} | 536 |
Abstracr-Mirrors webbplatser gör det möjligt för klientförfrågningar att betjänas av någon av ett antal servrar, vilket minskar belastningen på enskilda servrar och sprider nätverksbelastning. Vanligtvis en klient begär service från en enda spegel plats. Vi överväger att göra det möjligt för en klient att få tillgång till en fil från flera spegelplatser parallellt för att påskynda nedladdningen. För att eliminera komplexa klient-server förhandlingar som ett enkelt genomförande av detta tillvägagångssätt skulle kräva, utvecklar vi ett feedback-fri protokoll baserat på radering koder. Vi visar att ett protokoll som använder snabba Tornado-koder kan ge dramatiska uppfarter på bekostnad av att överföra ett måttligt antal ytterligare paket till nätverket. Vår skalbara lösning sträcker sig naturligt så att flera kunder kan få tillgång till data från flera spegelplatser samtidigt. Vårt tillvägagångssätt gäller naturligtvis även trådlösa nät och satellitnät. | Till exempel använder författarna i REF Tornado-koder för att ladda ner data samtidigt från flera spegelplatser. | 1,757,484 | Accessing multiple mirror sites in parallel: using Tornado codes to speed up downloads | {'venue': "IEEE INFOCOM '99. Conference on Computer Communications. Proceedings. Eighteenth Annual Joint Conference of the IEEE Computer and Communications Societies. The Future is Now (Cat. No.99CH36320)", 'journal': "IEEE INFOCOM '99. Conference on Computer Communications. Proceedings. Eighteenth Annual Joint Conference of the IEEE Computer and Communications Societies. The Future is Now (Cat. No.99CH36320)", 'mag_field_of_study': ['Computer Science']} | 537 |
Abstrakt. På senare tid har stora genombrott observerats när det gäller modellering av soliditet. Topppoängen på saliency-riktmärken har dominerats av neurala nätverksmodeller av saliency, och vissa utvärderingsresultat har börjat mättas. Stora hopp i prestanda i förhållande till tidigare modeller kan hittas över datauppsättningar, bildtyper och utvärderingsmått. Har soliditetsmodeller börjat konvergera på mänskliga prestationer? I detta dokument granskar vi den senaste tekniken med hjälp av en finkornig analys av bildtyper, enskilda bilder och bildregioner. Med hjälp av experiment för att samla annoteringar för högdensitet regioner av mänskliga ögonfixeringar på bilder i två etablerade saliency dataset, MIT300 och CAT2000, kvantifierar vi upp till 60% av de återstående felen i Saliency modeller. Vi hävdar att för att fortsätta att närma sig prestanda på mänsklig nivå, Saliency modeller kommer att behöva upptäcka högre nivå koncept i bilder: text, föremål för blick och handling, platser för rörelse, och förväntade platser för människor i bilder. Dessutom kommer de att behöva resonera om bildens relativa betydelse, såsom att fokusera på den viktigaste personen i rummet eller den mest informativa skylten på vägen. Mer exakt spårning prestanda kommer att kräva finer-grained utvärderingar och mätvärden. För att ytterligare öka prestandan krävs förståelse av bilder på högre nivå. | Dessutom visade Ref hur blickförutsägelser kan förbättra toppmoderna soliditetsmodeller. | 1,178,886 | Where Should Saliency Models Look Next | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 538 |
Vi överväger hur relativt enkla förlängningar av populära kanalaware schemaläggare kan användas för multicast skalbara videoströmmar i höghastighetsradionät. För att stödja utvärderingen beskriver vi först en modell av kanalens distorsion av skalbar videokodning och validerar den med hjälp av åtta vanliga testsekvenser. Vi använder distorsionsmodellen i en detaljerad simuleringsinställning för att jämföra prestandan hos sex schemaläggare, bland dem Max-Sum och Max-Prod schemaläggare, som syftar till att maximera summan och produkten av strömmande verktyg, respektive. Vi undersöker hur trafikbelastning, användarrörlighet, lagerstruktur och användares aversion av fluktuerande distorsion påverkar streamingprestandan. Våra resultat visar att Max-Sum schemaläggaren presterar bättre än andra övervägda system i nästan alla scenarier. Med Max-Sum schemaläggaren är vinsten av skalbar videokodning jämfört med icke-skalbar kodning betydande, även när användare inte tolererar frekventa förändringar i videokvalitet. | Författarna i REF syftade till att maximera summan och produkten av strömmande verktyg. | 15,635,271 | Multicast scheduling for scalable video streaming in wireless networks | {'venue': "MMSys '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 539 |
Abstract-Den utbredda framgången med provtagningsbaserade planeringsalgoritmer beror på deras förmåga att snabbt upptäcka anslutningen av ett konfigurationsutrymme. Tidigare forskning har visat att icke-uniform provtagning i konfigurationsutrymmet avsevärt kan överträffa enhetlig provtagning; en viktig strategi är att partiska provtagningsfördelningen baserat på funktioner som finns i den underliggande arbetsytan. I det här dokumentet förenar vi flera tidigare tillvägagångssätt för en partisk arbetsyta till en allmän ram för att automatiskt upptäcka användbara provtagningsdistributioner. Vi presenterar en ny algoritm, baserad på REINFORCE familjen av stokastiska policy gradient algoritmer, som automatiskt upptäcker en lokalt optimal viktning av arbetsytan funktioner för att producera en distribution som fungerar bra för en viss klass av provtagningsbaserade rörelseplanering frågor. Vi presenterar också en ny uppsättning funktioner i arbetsytan som vår adaptiva algoritm kan utnyttja för bättre konfigurationsutrymmesprovtagning. Experimentella resultat visar att vår algoritm är effektiv på en mängd olika robotplattformar och högdimensionella konfigurationsutrymmen. | I provtagningsbaserad planering, en metod partiska provtagning under en planeringsfråga baserat på tidigare erfarenhet REF. | 9,929,417 | Adaptive workspace biasing for sampling-based planners | {'venue': '2008 IEEE International Conference on Robotics and Automation', 'journal': '2008 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Computer Science']} | 540 |
Den överbelastade Clique är en distribuerad modell för en-hop nätverk med begränsad bandbredd som har studerats mycket intensivt nyligen. Den modellerar ett nätverk med en n-vertex graf där varje par hörn kan kommunicera en med en annan genom att överföra O(log n) bitar i varje runda. Olika problem har studerats i denna miljö, men för vissa av dem är de mest kända resultaten de för allmänna nätverk. För andra problem, resultaten för överbelastade klichéer är bättre än på allmänna nätverk, men fortfarande ådrar sig betydande beroende av antalet hörn n. Därför prestanda av dessa algoritmer kan bli dålig på stora klichéer, även om deras diameter är bara 1. I detta papper vi utformar betydligt förbättrade algoritmer för olika symmetri-brytande problem, såsom skog-nedbrytningar, vertex-färger, och maximal oberoende uppsättning. Vi analyserar drifttiden för våra algoritmer som en funktion av Arboricity a av en klick subgraph som ges som ingång. Arboriciteten är alltid mindre än antalet hörn n i subgrafen, och för många familjer av grafer är den betydligt mindre. I synnerhet träd, plana grafer, grafer med konstant genus, och många andra grafer har avgränsat arboricity, men obegränsad storlek. Vi får O(a)-skogsnedbrytningsalgoritm med O(log a) tid som förbättrar den tidigare kända O(log n) tid, O(a 2 + )-färgning i O(log * n) tid som förbättrar på en O(log n)-tidsalgoritm, O(a)-färgning i O(a) )-tid som förbättrar på flera tidigare algoritmer, och en maximal oberoende uppsättning algoritm med O( ε a) tid som förbättrar minst kvadratiskt på state-of-the-art för små och måttliga värden av a. Dessa resultat uppnås med hjälp av flera tekniker. Först producerar vi en skogsdekomposition med en användbar struktur som kallas H-partition inom O(logga a) rundor. I allmänhet grafer denna struktur kräver till (log n) tid, men i överbelastade klichéer kan vi beräkna det snabbare. Vi använder denna struktur i samband med partitionering tekniker som gör att vi kan lösa olika symmetri-brytande problem effektivt. | Barenboim och Khazanov REF presenterade deterministiska lokala algoritmer som en funktion av grafens arboricity. | 3,390,764 | Distributed Symmetry-Breaking Algorithms for Congested Cliques | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 541 |
Vi rapporterar karakteristika av citeringar i text i över fem miljoner fulltextartiklar från två stora databaser -PubMed Central Open Access undergrupp och Elsevier tidskrifter - som funktioner av tid, text progression, och vetenskapligt område. Syftet med denna studie är att förstå egenskaperna hos citeringar i text på ett detaljerat sätt innan andra studier inriktades på att besvara mer substantiella forskningsfrågor. Som sådan har vi analyserat citeringar i text på flera sätt och rapporterat många resultat här. Kanske mest påtagligt, vi finner att det finns stora fält-nivåskillnader som återspeglas i position inom texten, citeringsintervall (eller referensålder), och citering räknas referenser. I allmänhet har områdena biomedicin och hälsovetenskap, Life and Earth Sciences och Fysikal Sciences and Engineering liknande referensfördelningar, även om de varierar i sina specifika egenskaper. De två återstående områdena, matematik och datavetenskap samt samhällsvetenskap och humaniora, har olika referensfördelningar från de övriga tre fälten och sinsemellan. Vi visar också att inom alla områden har antalet meningar, referenser och omnämnanden i text per artikel ökat med tiden, och att det finns skillnader i fältnivå och temporal i antalet omnämnanden i text per referens. En sista slutsats är att de hänvisningar som nämns bara en gång tenderar att vara mycket mer citerade än de som nämns flera gånger. | Ref har analyserat citeringsegenskaperna i in-text i den större datauppsättningen av Elseviers artiklar i fulltexttidskrifter och PubMed Open Access Subset-artiklar. | 2,817,038 | Characterizing in-text citations in scientific articles: A large-scale analysis | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 542 |
Det senaste arbetet med högre-dimensionell typteori har utforskat kopplingar mellan Martin-Löf typteori, högre-dimensionell kategoriteori och homotopyteori. Dessa kopplingar tyder på en generalisering av beroende typteori för att ta hänsyn till beräkningsrelevanta bevis på propositionell jämlikhet-till exempel, med Id Set A B som isomorfism mellan A och B. Den avgörande iakttagelsen är att alla välbekanta typ och term konstruktörer kan utrustas med en funktoriell åtgärd som beskriver hur de bevarar sådana bevis. Den viktigaste fördelen med högre-dimensionell typteori är att programmerare och matematiker kan arbeta upp till isomorfism och högre likvärdighet, såsom likvärdighet av kategorier. I denna uppsats överväger vi ytterligare en generalisering av högre-dimensionell typteori, som associerar varje typ med en riktad uppfattning om omvandling mellan dess element. Riktad typteori står för fenomen som inte kan uttryckas i symmetrisk högre-dimensionell typteori, såsom en universumuppsättning av uppsättningar av uppsättningar och funktioner, och en typ Ctx som används i funktoriell abstrakt syntax. Vår formulering kräver två huvudingredienser: För det första måste själva typerna omtolkas för att ta hänsyn till varians; till exempel, en Π typ är contravariant i sitt område, men covariant i sitt sortiment. För det andra, medan i symmetriska typteorier bevis på likvärdighet kan internaliseras med Martin-Löf identitetstyp, i riktad typteori den tvådimensionella strukturen måste göras explicit på dömande nivå. Vi beskriver en 2-dimensionell riktad typteori, eller 2DTT, som valideras genom en tolkning i strikt 2-kategori Katt av kategorier, functors, och naturliga omvandlingar. Vi diskuterar också tillämpningar av 2DTT för programmering med abstrakt syntax, generalisera functorial förhållningssätt till syntax till beroendet typed och mix-variance fall. | Vår presentation här bygger på vårt tidigare arbete med 2DTT REF, en 2-dimensionell riktad typteori, som generaliserar likvärdighet till en asymmetrisk uppfattning om transformation. | 16,971,580 | 2-Dimensional Directed Type Theory | {'venue': 'MFPS', 'journal': 'Electr. Notes Theor. Comput. Sci.', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 543 |
Vi analyserar hela publikationsdatabasen av American Physical Society som genererar longitudinella (50 år) citeringsnätverk geolokaliserade på nivån för enskilda stadsområden. Vi definierar kunskapsspridningen proxy, och vetenskaplig produktion ranking algoritmer för att fånga spatiotemporal dynamik fysik kunskap över hela världen. Genom att använda kunskapsspridningsproxyn identifierar vi nyckelstäderna i produktionen och konsumtionen av kunskap i fysik som en funktion av tiden. Resultaten från den vetenskapliga produktionsrankningsalgoritmen gör att vi kan karakterisera de främsta städerna för vetenskaplig forskning inom fysik. Även om vi fokuserar på en enda datauppsättning inom ett specifikt område, öppnar den metodik som presenteras här vägen till jämförande studier av kunskapernas dynamik inom ämnesområden och forskningsområden. Under det senaste årtiondet har digitaliseringen av publikationsdata drivit fram bibliografiska studier som för första gången ger tillgång till den geospatiala distributionen av miljontals publikationer och citeringar vid olika granulariteter [1, 2, 3, 4, 5, 6, 7, 8] (se [9] för en genomgång). Mer exakt, författare namn, anknytningar, adresser och referenser kan aggregeras på olika skalor, och används för att karakterisera publikationer och citeringar mönster av enskilda papper [10, 11], tidskrifter [12, 13], författare [14, 15, 16], institutioner [17], städer [18], eller länder [19]. Den rena storleken på dataseten möjliggör också systemnivåanalys av forskningsproduktion och -konsumtion [20], migration av författare [21, 22], och förändring av produktionen i flera regioner i världen som en funktion av tid [5, 6], bara för att nämna några exempel. Samtidigt har dessa analyser stimulerat en intensiv forskningsverksamhet som syftar till att definiera mätvärden som kan fånga betydelsen/rangordna författare, institutioner eller till och med hela länder [23, 24, 14, 15, 17, 25, 26, 27, 28, 29]. Medan sådana stora datauppsättningar är mycket användbara för att förstå vetenskapliga nätverk och för att kartlägga skapandet av kunskap, pekar de också på gränserna för våra konceptuella och modellerande ramar [30] och kräver en djupare förståelse av den dynamik som styr spridningen och frukten av kunskap över det sociala och geografiska utrymmet. I denna artikel studerar vi citeringsmönster för artiklar publicerade i American Physical Society (APS) tidskrifter i ett femtioårigt tidsintervall [31]. Även om datauppsättningen under de första åren av denna period uppenbarligen var partisk mot den vetenskapliga verksamheten inom USA, så produceras under de senaste tjugo åren endast ca 35 % av tidningarna i USA. Samma mängd produktion har observerats i databaser som * Till vem korrespondens bör adresseras; e-post: a. inkluderar flera tidskrifter, och discipliner [19, 7]. APS:s tidskrifter betraktas i själva verket över hela världen som referenspubliceringsarenor som väl representerar den internationella forskningsverksamheten inom fysik. Dessutom buntar inte detta dataset ihop olika discipliner och publikationsspråk, vilket ger en homogen dataset om fysikvetenskaplig forskning. För varje papper geolokaliserar vi de institutioner som finns i författarnas tillhörigheter. På så sätt kan vi koppla varje dokument i databasen till specifika stadsområden. Detta definierar ett tidsbestämt, geolokaliserat citeringsnätverk som omfattar 2 307 städer runt om i världen som arbetar med produktion av vetenskapligt arbete inom fysikområdet. Efter tidigare arbeten [17, 8] utgår vi ifrån att antalet givna eller mottagna citeringar är ett mått på kunskapskonsumtion respektive produktion. Mer exakt antar vi att citeringar är den valuta som handlas mellan parter i kunskapsutbytet. Noder som får citeringar exporterar sin kunskap till andra. Noder som citerar andra verk, importerar kunskap från andra. Enligt detta antagande klassificerar vi noder med tanke på obalansen i deras handel. Kunskapsproducenter är noder som citeras (export) mer än de citerar, (import). Tvärtom, vi märker som konsumenter noder som citerar (import) mer än de anges (export). Med hjälp av denna klassificering definierar vi kunskapsspridningsproxyalgoritm för att undersöka hur vetenskaplig kunskap flödar från producenter till konsumenter. Detta verktyg utgår uttryckligen från ett systemperspektiv av kunskapsspridning och lyfter fram den globala strukturen för vetenskaplig produktion och konsumtion inom fysiken. Tidsanalysen avslöjar intressanta mönster och den gradvisa utlokaliseringen av kunskapsproducenter. I synnerhet anser vi att den geografiska spridningen av kunskapsproduktionen har förändrats drastiskt under de senaste tjugo åren. Ett av de viktigaste exemplen är övergången i USA från en kunskapsproduktion som är lokaliserad kring stora stadsområden på öst- och västkusten till en bred geografisk spridning där en betydande del av kunskapsproduktionen nu sker även i mellanvästern och sydstaterna i USA. Parallellt med detta kan vi konstatera att Storbritannien och norra Europa i början av 90-talet domineras av en ökning av produktionen från Frankrike, Italien och flera regioner i Spanien. Intressant nog visar det senaste årtiondet att flera av Kinas stadsområden växer fram som världens största kunskapskonsumenter. Orsakerna till detta fenomen kan vara relaterade till den betydande tillväxten i ekonomin och forsknings- och utvecklingsområdet i Kina i början av 2000-talet [32]. Denna positiva stimulans ökade också den vetenskapliga konsumtionen med ett stort antal papperscitat från andra delar av världen. Ja, ökningen av publikationer är förknippad med en ökning av citeringar obalans, flytta Kina till topp rang som konsumenter eftersom den senaste tidens tillströmning av sina nya papper har ännu inte haft tid att samla citeringar. Även om kunskapsspridningsproxyn ger ett mått på kunskapsproduktion och kunskapskonsumtion, kan den vara otillräcklig för att tillhandahålla en rang av de mest auktoritativa städerna för fysikforskning. En nyckelfråga när det gäller att på lämpligt sätt rangordna kunskapsproduktionen är att inte alla citeringar har samma vikt. Citationer som kommer från auktoritativa noder är tyngre än andra som kommer från mindre viktiga noder, vilket definierar en rekursiv spridning av rankning av noder i citeringsnätverket. För att inkludera detta element i rankningen av städer föreslår vi den vetenskapliga produktionsrankningsalgoritmen. Detta verktyg, inspirerad av PageRank [33], gör att vi kan definiera rangen av varje nod, som funktion av tiden, går bortom kunskapsspridning proxy eller enkla lokala åtgärder som citering räknas eller h-index [14]. I denna algoritm sprids betydelsen av varje nod genom citeringslänkarna. Rankningen av en nod bestäms av rangen av noderna som citerar den, rekursivt, alltså implicit vikta olika citeringar från högt (lågt) rankade noder. Också i detta fall ser vi märkbara förändringar i rankningen av städer under årens lopp. Till exempel ökar närvaron av både europeiska och asiatiska städer i topp 100-listan med 50 % under de senaste 20 åren. Dessa resultat tyder på att Internet, digitaliseringen och tillgängligheten av publikationer skapar en mer jämbördig spelplan, där dominansen av specifika områden i världen gradvis urholkas till förmån för en mer utbredd och komplex kunskapsproduktion och -konsumtionsdynamik. Vi fokuserar vår analys på APS dataset [31]. Den innehåller alla dokument som publicerats av APS från 1893 till 2009. Vi betraktar endast de senaste 50 åren på grund av den ofullständiga geolokaliseringsinformation som finns tillgänglig för de första åren. Under denna period innehåller den stora majoriteten av de indexerade tidningarna, 97,47 %, fullständig information såsom författares namn, publikationstidskrift, publiceringsdag, förteckning över anknytningar och förteckning över hänvisningar till andra artiklar som publicerats i APS-tidskrifter. Vi geolokaliserade 96,97 % av papperen på stadsnivå med en noggrannhet på 98,5%. Vi hänvisar läsaren till avsnittet Metoder och till Kompletterande Information (SI) för den detaljerade beskrivningen av datasetet och de tekniker som utvecklats för att geolokalisera anslutningarna. Totalt har endast 43 % av papperen producerats i USA. Intressant nog har denna fraktion minskat med tiden. På 60-talet var det till exempel 85,59 procent, medan de senaste 10 åren har minskat till bara 36,67 procent. Även om man kan anta att APS-datasetet är partiskt gentemot den amerikanska forskarvärlden, är andelen publikationer som USA bidrar med i APS-tidskrifter efter 1990 nästan densamma som i andra publikationsdataset [19, 7]. Dessa alternativa dataset innehåller tidskrifter som publiceras över hela världen och blandar olika vetenskapliga discipliner. Detta stöder idén att APS-tidskrifterna nu attraherar den globala fysikvetenskapliga gemenskapen oberoende av nationalitet, och rättvist representerar världens produktion och konsumtion av fysik. Det är inte möjligt att göra kvantitativa analyser av eventuella nationalitetsfördomar och skilja dem åt genom en faktisk förändring av kunskapsproduktionens dynamik. Av denna anledning och för att minimera eventuella fördomar i analysen fokuserar vi vår analys under de senaste 20 årens data. För att bygga det geolokaliserade citeringsnätet tar vi hänsyn till noder (stadsområden) och riktade länkar som representerar närvaron av citeringar från ett papper med anknytning till ett stadsområde till ett papper med anknytning till ett annat stadsområde. Till exempel, om ett papper skrivet i node jag citerar ett papper skrivet i node j det finns en länk från i till j, dvs j får en citering från i och jag skickar en citering till j. Varje papper kan ha flera tillhörigheter och därför citeringar måste fördelas proportionellt mellan alla noder av papper. Därför väger vi varje länk för att ta hänsyn till förekomsten av flera tillhörigheter och flera citeringar. I ett givet tidsfönster, det totala antalet citeringar för papper skrivna i j mottagna från papper skrivna i i, är vikten av länken i → j, och det totala antalet citeringar för de papper skrivna i j skickas till papper skrivna i k är vikten av länken j → k. Till exempel, om i ett tidsfönster t, det finns ett papper skrivet i node j, som citerar två papper skrivna i node k och citerades av tre papper skrivna i node i, sedan w jk = 2, w ij = 3, och vi lägger till alla sådana vikter för varje papper skrivna i den node j och få vikter för länkar. För papper skrivna i flera städer, säger j 1, j 2, vikten kommer att räknas lika. Tidsfönstret vi använder i det här manuskriptet är ett år. Vi visar ett exempel på nätverksbyggandet i Figur (För att definiera huvudaktörer i produktionen och konsumtionen av fysik, betraktar vi citeringar som en valuta i handeln. Denna analogi gör att vi omedelbart kan förstå innebörden och distinktionen mellan producenter och konsumenter av vetenskaplig kunskap. Noder som får citeringar exporterar sina kunskaper till citeringsnoderna. Istället noder som citerar, papper som produceras från andra noder i nätverket, importera kunskap från de citerade noderna. Genom att mäta obalansen i handeln mellan citeringar definierar vi producenter som städer som exporterar mer än de importerar, och konsumenter som städer som importerar mer än de exporterar. Mer exakt kan vi mäta den totala kunskap som importeras av varje stadsområde som j w ij och den totala exporten som j w ji under ett givet år. Dessa åtgärder får dock en särskild betydelse när de betraktas i förhållande till den totala handeln med fysikkunskaper över hela världen under samma år, dvs. det totala antalet citeringar över hela världen S = ij w ij. Den relativa handelsobalansen för varje stadsområde i är då: Ett negativt eller positivt värde för denna kvantitet anger om stadsområdet i är konsument respektive producent. I figur ( 2)-A visar vi den globala geografiska fördelningen av producent (röd) och konsument (blå) stadsområden för 1990 och 2009. Intressant nog var produktionen av fysikkunskaper under 90-talet i hög grad lokaliserad i några städer på USA:s östra och västra kuster och i några områden i Storbritannien och norra Europa. 2009 är bilden helt annorlunda med många producentstäder i centrala och södra delarna av USA, Europa och Japan. Det är intressant att notera att trots att andelen papper som produceras i USA i allmänhet minskar eller är stabila, får många fler städer i USA status som kunskapsproducenter. Detta innebär att kvaliteten på kunskapsproduktionen från USA ökar och därmed locka fler citeringar. Detta gör det tydligt att den kunskap som produceras i ett stadsområde inte bara kan bedömas med hjälp av det råa antalet papper. Omnämnanden är en mer lämplig proxy som kodar produkternas värde. De fungerar som en approximation av det faktiska flödet av kunskap. Figuren ( 2)-A visar också att städer i Kina spelar rollen som stora konsumenter både 1990 och 2009. Vi konstaterar också att städer i andra länder som Ryssland och Indien konsumerade mindre 2009 än 1990. Med andra ord är både produktion och konsumtion av kunskap under 2009 mindre koncentrerade till specifika platser och i allmänhet mer jämnt fördelade geografiskt. För att ge visuellt stöd till 4 denna slutsats visar vi i figur 2)-B den geografiska fördelningen av producenter och konsumenter inom USA. Från de två kartorna är det uppenbart att kunskapsproduktionen går från de två kustområdena i USA till mellanvästra, centrala och södra staterna. På samma sätt, i figur ( 2)-C vi ritar samma information för Västeuropa. År 1990 var bara ett fåtal stadsområden i Tyskland och Frankrike tydligt producenter. År 2009 har denna dominans konsekvent urholkats av Italien, Spanien och en mer utbredd geografisk distribution av producenter i Frankrike, Tyskland och Storbritannien. Kunskapsspridningsproxy. Definitionen av producenter och konsumenter bygger på en lokal åtgärd som inte gör det möjligt att fånga upp alla möjliga korrelationer och gränser mellan noder som inte är direkt kopplade. Detta kan resultera i en partiell vy och beskrivning av systemet, särskilt när konnektivitetsmönster är komplexa [36, 37, 38, 39, 40]. Intressant nog visar en noggrann analys av varje citeringsnätverk, se figur 3), tydligt att citeringsmönstren verkligen har alla kännetecken för komplexa system [36, 37, 38, 39, 40], särskilt under de senaste två decennierna. Systemet är självorganiserat, det finns inte någon central myndighet som tilldelar städer citeringar och papper, det finns ingen planritning av systemets interaktioner, och som tydligt framgår av figur 3)-C beskrivs systemets statistiska egenskaper med tunga detaljfördelningar [36, 37, 38, 39, 40]. Det är inte förvånande att systemets komplexitet har ökat med tiden. I figur 3)-A ritar vi de mest statistiskt signifikanta anslutningarna av citeringsnätet mellan städer inom USA 1960, 1990 och 2009. Vi filtrerar länkar genom att använda ryggraden extraktionsalgoritm [41] som bevarar relevanta anslutningar av viktade nätverk samtidigt ta bort de minst statistiskt signifikanta. Vi visualiserar varje filtrerat nätverk genom att använda en medföljande representation av länkar [42]. Riktningen för varje viktad länk går från blått (citing) till rött (cited). På samma sätt, i figur 3)-B, visualiserar vi de viktigaste kopplingarna mellan städer i Europa (EU:s 27 länder, liksom Schweiz och Norge). Det framgår tydligt av figur 3)-A att citeringsmönstren inom USA år 1960 var begränsade till ett fåtal städer, och i Europa var endast ett fåtal städer anslutna. I stället registrerar vi 1990 och 2009 en ökning av samspelet mellan ett större antal städer. Den observerade temporal trenden är välkänd och giltig inte bara för fysik [43]. Bland många faktorer som har förespråkats för att förklara denna tendens finner vi ökningen av forskningssystemet och utvecklingen inom teknik som gör samarbete och publicering enklare [44, 45, 46, 20]. För att uttryckligen beakta det komplexa flödet av citeringar mellan producenter och konsumenter föreslår vi algoritmen kunskapsspridningsproxy (se Metodavsnittet för den formella definitionen). I denna algoritm injicerar producenterna citeringar i systemet som flyter längs nätets kanter för att slutligen nå konsumentstäder där de injicerade citeringarna slutligen absorberas. Algoritmen gör det möjligt att kartlägga spridningen av kunskap, och går längre än lokala åtgärder. Hela topologin av nätverken utforskas avslöja icke-triviala korrelationer framkallade av globala citeringsmönster. Till exempel kan kunskap som produceras i en stad konsumeras av en annan producent som i sin tur producerar kunskap för andra städer som är konsumenter. Detta pekar på att den faktiska kunskapskonsumenten inte bara signaleras av bristande citeringar utan också av den övergripande topologin för produktion och konsumtion av kunskap i hela nätverket. Slutkonsumenten av varje injicerat citering kanske inte har någon direkt koppling till producenten. Citationer flödar längs alla möjliga vägar, ibland genom mellanliggande städer. I tabell 1 och tabell 2 rapporterar vi rankingen av de 10 bästa slutkonsumenterna som utvärderats av kunskapsspridningsproxyn för de tre bästa producenterna under 2009 respektive 1990. Vi listar också de 10 bästa grannarna enligt den lokala citeringen obalans. Från dessa två tabeller, är det tydligt att den slutliga rangen för varje konsument, som erhållits genom vår algoritm, kan vara mycket annorlunda från den rankning som erhållits genom att bara överväga lokala obalanser. Till exempel, 2009 Bratislava och Mainz 5 rankas i topp 10 konsumenter absorbera kunskap som produceras i Boston. Men enligt lokala mått på obalans, dessa två städer rankas ur topp 10 (visas i fetstil i tabell 1). Det är intressant att lägga märke till att även den bästa konsumenten för New Haven, Berlin, inte heller rankas bland de 10 bästa grannarna enligt citeringen obalans. Dessa resultat bekräftar att det är av avgörande betydelse att man tar hänsyn till hela nätverkets struktur och går längre än enkla lokala åtgärder för att upptäcka de komplexa förhållandena mellan städerna. I figuren ( Storleken på varje cirkel är proportionell mot hur många gånger varje injicerad citering absorberas av den konsumenten. I tomten visar vertikala gråa remsor att staden inte var en producent under dessa år (t.ex. Orsa i 2008). Resultaten visar att Peking i genomsnitt är den främsta konsumenten för alla dessa producenter under de senaste 20 åren. Eftersom Kina registrerade en stor ekonomisk tillväxt och ökning av forskningsbefolkningen i början av 2000, är det rimligt att anta att tack vare denna positiva stimulans, många fler papper skrevs i dess huvudstad, en dominerande stad för vetenskaplig forskning i Kina. Den snabba publiceringstillväxten ökade dock obalansen mellan utsända och mottagna citeringar. Varje tidning som publiceras i en viss stad importerar kunskap från de nämnda städerna. Att nå en balans kan kräva lite tid. Varje stad måste samla citeringar 6 tillbaka för att exportera sin kunskap till andra städer. Vi kan spekulera om att i den närmaste framtiden kan städer i Kina röra sig bland de starkaste producenterna om ett rättvist antal papper börjar få tillräckligt med citeringar, vilket uppenbarligen beror på kvaliteten på den forskning som utförts under de senaste åren. Detta är fallet med städer som Tokyo som gradvis har närmat sig referensbalansen under de senaste åren. Tabell 2 visar till exempel att Tokyo 1990 var bland de främsta konsumenterna. Men 2009 hade dess bidrag till citeringskonsumtionen blivit mindre betydande, vilket framgår av figur 4 och tabell 1. Ranking Städer. Författare, avdelningar, institutioner, myndigheter och många finansiärer är mycket intresserade av att definiera de viktigaste kunskapskällorna. Behovet av att hitta objektiva mått på vikten av papper, författare, tidskrifter och discipliner leder till en definition av en mängd olika rankningar [23, 24]. Åtgärder som impact factor, antal citeringar och h-index [14] används ofta för att bedöma betydelsen av vetenskaplig produktion. Dessa gemensamma indikatorer kan dock inte ta hänsyn till den faktiska betydelse och prestige som varje publikation har. För att övervinna dessa begränsningar har många olika åtgärder föreslagits [25, 26, 27, 28]. Här introducerar vi den vetenskapliga produktionsrankningsalgoritmen (SPR), en iterativ algoritm baserad på begreppet diffusing science credits. , och andra rankning mätvärden. I algoritmen får varje nod en kredit som omfördelas till sina grannar vid nästa iteration tills processen konvergerar i en stationär fördelning av kredit till alla noder (se Metodavsnittet för den formella definitionen). Krediter diffusa efter citeringar länkar självkonsekvent, vilket innebär att inte alla länkar har samma betydelse. Varje stad i nätverket kommer att vara mer framträdande i rang om den får citeringar från höga källor. Denna process säkerställer att rangen av varje stad är självkonsekvent bestäms inte bara av det råa antalet citeringar utan också om citeringar kommer från högt rankade städer. I figur (tabell 3) ger vi ett kvantitativt mått på förändringen i landskapet i de högst rankade städerna i världen genom att visa procentandelen städer i de 100 främsta leden för olika kontinenter. I figur (7), Vi jämför den rankning som erhållits av vår rekursiva algoritm med den rankning som erhållits genom att beakta den totala volymen av publikationer som produceras i varje stad. Eftersom vi endast överväger tidskrifter av APS, är impact factor konsekvent i alla städer och inkluderar inte oproportionerliga effekter som ofta händer när man blandar discipliner eller tidskrift med varierande läskunnighet. Det är då naturligt att överväga en rankning baserad på den råa produktiviteten på varje plats. Som vi ser i figuren även om de två ranking, även om uppenbarligen korrelerade, ger olika resultat. Ett antal städer vars ranking, enligt produktivitet, är i de 20 bästa städerna i världen, rankas en storleksordning lägre av SPR algoritm. Att värdera antalet citeringar och deras ursprung i rankningen av städer ger ofta resultat som inte stämmer överens med det råa antalet papper, vilket signalerar att en stor del av papperen på vissa platser inte producerar kunskap eftersom de inte nämns. Vi anser att den nuvarande algoritmen kan anses vara ett lämpligt sätt att rangordna vetenskaplig produktion med vederbörlig hänsyn till effekten av papper mätt genom citeringar. 7 I denna uppsats studerar vi de vetenskapliga kunskapsflödena mellan städer mätt med papper och citeringar i APS-tidskrifter [31]. För att tydliggöra innebörden och skillnaden mellan producenter och konsumenter inom ramen för kunskap föreslår vi en ekonomisk analogi som hänvisar till citeringar som en börshandlad valuta mellan stadsområden. Vi studerar sedan flödet av citeringar från producenter till konsumenter med kunskapsproduktionsproxyalgoritm. Slutligen rankar vi städernas betydelse som funktion av tiden med hjälp av den vetenskapliga produktionsrankningsalgoritmen. Vi finner också att vissa europeiska, ryska och japanska städer gradvis har förbättrat sina produkter och rang under de senaste tjugo åren. På samma sätt har King sett en sådan ökning av den vetenskapliga produktionen [19] i ISI:s databas. Som diskuteras i detalj i SI, genom att aggregera citeringar av städer till sina respektive länder, finner vi samma samband mellan antalet citeringar, liksom antalet papper, och BNP investerade på forskning och utveckling i flera länder som rapporterats av Pan et al. [7] Baserat på ISI-databasen. Denna analogi mellan våra resultat och många andra i litteraturen tyder på att APS-datauppsättningen, även om den är begränsad, är representativ för den övergripande vetenskapliga produktionen i de största länderna och städerna under de senaste 20 åren. Den metod som föreslås i detta dokument skulle lätt kunna utvidgas till större dataset där geolokalisering av flera tillhörighet är möjlig. Med tanke på att antalet publikationer och citeringar inom olika vetenskapliga områden skiljer sig åt anser vi dock att analysen av vetenskaplig kunskapsproduktion endast bör beakta homogena datauppsättningar. Detta skulle hjälpa förståelsen av kunskapsflöden inom olika områden och identifiera den heta platsen för varje disciplin över hela världen. Datauppsättning. Datasetet innehåller också 4, 710, 548 citeringar mellan artiklar publicerade i APS-tidskrifter. För att bygga citeringsnätverk på stadsnivå slår vi samman citeringslänkarna från samma källnod till samma målnod, och sätter de totala citeringar på denna länk som vikten. För artiklar med flera stadsnamn, kommer vikten att fördelas lika till länkarna till dessa noder. Det finns totalt 2, 765, 565 länkar för stad-till-stad citeringsnätverk från 1960 till 2009. (För fullständig information om tolkning av lands- och stadsnamn, samt byggnätverk, se Kompletterande Information (SI)) Kunskapsspridningsproxyalgoritm. Detta analysverktyg är inspirerad av dollar experimentet, som ursprungligen utvecklats för att karakterisera flödet av pengar i ekonomiska nätverk [48]. Formellt sett är det en partisk slumpmässig gång med källor och sänkor där en citering sprider sig i nätverket. Spridningen sker ovanpå nätet av nettohandelsflöden. Låt oss definiera w ij som antalet citeringar som node i ger till j och w ji som det motsatta flödet. Vi kan definiera den antisymmetriska matrisen T ij = w ij − w ji. Näthandelns nätverk definieras av matrisen F med F ij = och F ij = 0 för alla anslutna par (i, j) med T ij < 0 och F ij = 0 för alla anslutna par (i, j) med T ij ≥ 0. Det finns två typer av noder. Producenter är noder med en positiv handelsobalans i = s in i − s out i = j F ji − j F ij. Deras styrka är större än deras styrka. Å andra sidan är konsumenterna noder med negativ obalans. Ovanpå detta nätverk injiceras en hänvisning i en producentstad. Citatet följer utgående kanter med en sannolikhet proportionell mot deras intensitet, och sannolikheten att citeringen absorberas i en konsument stad j är lika med P abs (j) = på j /s i j. Genom att upprepa många gånger denna process från varje utgångspunkt (producenter) kan vi bygga en matris med element ij att mäta hur många gånger en citering injiceras i producentstaden i absorberas i en stad konsument j. | Dessutom Zhang et al. använde total kunskapsimport och total kunskapsexport för att beräkna den relativa handelsobalansen för varje enhet, om ett negativt eller positivt värde tyder på att enheten är en konsument eller producent REF. | 5,378,687 | Characterizing scientific production and consumption in Physics | {'venue': 'Nature Scientific Reports 3, 1640 (2013)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine', 'Physics']} | 544 |
Vi föreslår en enhetlig modell som kombinerar styrkan i utvinning och abstrakt sammanfattning. Å ena sidan kan en enkel utdragbar modell få uppmärksamhet på straffnivå med höga ROUGE-poäng men mindre läsbara. Å andra sidan kan en mer komplicerad abstraktionsmodell få dynamisk uppmärksamhet på ordnivå för att skapa en mer läsbar punkt. I vår modell används uppmärksamhet på straffnivå för att modulera uppmärksamheten på ordnivå så att ord i mindre närvarande meningar är mindre benägna att genereras. Dessutom införs en ny inkonsekvensfunktion för att bestraffa inkonsekvensen mellan två nivåer av uppmärksamhet. Genom end-to-end utbildning vår modell med inkonsekvens förlust och ursprungliga förluster av extraktiva och abstrakta modeller, vi uppnå state-of-t heart ROUGE poäng samtidigt som den mest informativa och läsbara sammanfattning på CNN/Daily Mail dataset i en solid mänsklig utvärdering. | I REF föreslås en enhetlig modell genom inkonsekvensförlust för att kombinera utvinnings- och abstraktionsmetoderna. | 21,723,747 | A Unified Model for Extractive and Abstractive Summarization using Inconsistency Loss | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 545 |
Abstract-Mobile edge computing (även känd som dimma computing) har nyligen dykt upp för att möjliggöra in-situ behandling av fördröjningskänsliga applikationer i utkanten av mobila nätverk. Det är dock dyrt och till och med ogenomförbart (i vissa stryktåliga eller underutvecklade områden) att tillhandahålla nätaggregat till stöd för mobila datortjänster, vilket innebär att förnybar energi på plats blir en stor eller till och med en enda strömförsörjning i allt fler scenarier. Icke desto mindre gör den höga intermittensen och oförutsägbarheten hos förnybar energi det mycket svårt att leverera en hög servicekvalitet till användare i energiskördande mobila datorsystem. I detta dokument tar vi itu med utmaningen att integrera förnybara energikällor i den mobila kantdatorn och föreslår en effektiv förstärkning av inlärningsbaserad resurshanteringsalgoritm, som lär sig i farten den optimala politiken för dynamisk avlastning av arbetsbelastning (till det centraliserade molnet) och kantserver för att minimera den långsiktiga systemkostnaden (inklusive både servicefördröjning och driftskostnad). Vår online-lärande algoritm använder en nedbrytning av (offline) värde iteration och (online) förstärkning lärande, vilket uppnår en betydande förbättring av inlärningsfrekvens och körtid prestanda jämfört med standard förstärkning lärande algoritmer som Q-lärande. Vi bevisar konvergensen av den föreslagna algoritmen och visar analytiskt att den inlärda politiken har en enkel monoton struktur som är mottaglig för praktiskt genomförande. Våra simuleringsresultat validerar effektiviteten hos vår algoritm, vilket avsevärt förbättrar prestandan i kantdata jämfört med fasta eller myopiska optimeringssystem och konventionella förstärkande inlärningsalgoritmer. | Xu och al. REF löste utmaningen att införliva förnybar energi i MEC och föreslog en effektiv förstärkning av inlärningsbaserad resurshanteringsalgoritm för att minimera långsiktiga systemkostnader (inklusive serviceförseningar och driftskostnader). | 18,453,286 | Online Learning for Offloading and Autoscaling in Energy Harvesting Mobile Edge Computing | {'venue': 'IEEE Transactions on Cognitive Communications and Networking', 'journal': 'IEEE Transactions on Cognitive Communications and Networking', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 546 |
Att ta bort regnstrimmor från en enda bild har dragit stor uppmärksamhet eftersom regnstrimmor kan allvarligt försämra bildkvaliteten och påverka utförandet av befintliga utomhusseende uppgifter. Även om de senaste CNN-baserade avläkarna har rapporterat lovande prestationer, är avvänjning fortfarande ett öppet problem av två skäl. För det första har befintliga syntetiserade regndataset endast begränsad realism när det gäller att modellera verkliga regnegenskaper såsom regnform, riktning och intensitet. För det andra finns det inga offentliga riktmärken för kvantitativa jämförelser av verkliga regnbilder, vilket gör den aktuella utvärderingen mindre objektiv. Kärnan utmaningen är att verkliga världen regn / ren bildpar inte kan fångas samtidigt. I det här dokumentet tar vi upp problemet med borttagning av enstaka bilder på två sätt. För det första föreslår vi en halvautomatisk metod som innehåller temporal tidigare och mänsklig övervakning för att generera en högkvalitativ ren bild från varje ingång sekvens av verkliga regnbilder. Med denna metod konstruerar vi ett storskaligt dataset av regn-/regnfria bildpar som täcker ett brett spektrum av naturliga regnscener. För det andra, för att bättre täcka den stokastiska fördelningen av verkliga regn strimmar, föreslår vi en ny SPATial Attentive Network (SPANet) att ta bort regn strimmar på ett lokalt till globalt sätt. Omfattande experiment visar att vårt nätverk presterar gynnsamt mot de toppmoderna avvänjningsmetoderna. | Wang m.fl.I REF föreslås rumsliga resterande block för att avlägsna regnstrimmor på ett lokalt till globalt sätt. | 91,184,545 | Spatial Attentive Single-Image Deraining With a High Quality Real Rain Dataset | {'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 547 |
Differentiell integritet har nyligen framträtt som den faktiska standarden för privat data release. Detta gör det möjligt att ge starka teoretiska garantier för integritet och nytta av utgivna data. Även om det är väl underförstått hur man släpper data baserat på räkningar och enkla funktioner enligt denna garanti, återstår det att ge allmänna ändamål tekniker som är användbara för en bredare variation av frågor. I detta dokument fokuserar vi på rumsliga data, dvs. alla flerdimensionella data som kan indexeras av en trädstruktur. Att direkt tillämpa befintliga differentiella integritetsmetoder på denna typ av data genererar helt enkelt buller. Vi föreslår istället klass av "privata rumsliga nedbrytningar": dessa anpassar standard rumsliga indexeringsmetoder såsom quadtrees och kd-trees för att ge en privat beskrivning av datadistributionen. Utrusta sådana strukturer med olika integritet kräver flera steg för att se till att de ger meningsfulla integritetsgarantier. Olika grundläggande steg, som att välja att dela poäng och beskriva fördelningen av poäng inom en region, måste göras privat, och garantierna för de olika byggstenarna måste bestå av en övergripande garanti. Följaktligen exponerar vi designutrymmet för privata rumsliga nedbrytningar, och analyserar några viktiga exempel. Ett viktigt bidrag av vårt arbete är att tillhandahålla nya tekniker för parameterinställning och efterbehandling av utdata för att förbättra riktigheten av frågesvar. Vår experimentella studie visar att det är möjligt att bygga sådana nedbrytningar effektivt, och använda dem för att svara på en mängd olika frågor privat och med hög noggrannhet. | Cormode m.fl. REF anpassade standardiserade rumsliga indexeringsmetoder, som t.ex. quadtree och kd-tree, för att bryta ner datautrymmesdifferential privat. | 5,940,611 | Differentially Private Spatial Decompositions | {'venue': '2012 IEEE 28th International Conference on Data Engineering', 'journal': '2012 IEEE 28th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']} | 548 |
Query reformation tekniker baserade på frågeloggar har studerats som en metod för att fånga användarens intention och förbättra hämtning effektivitet. Utvärderingen av dessa tekniker har dock främst fokuserat på egenutvecklade frågeloggar och utvalda urval av frågor. I detta dokument föreslår vi att ankare text, som är lätt tillgänglig, kan vara en effektiv ersättning för en frågelogg och studera effektiviteten av en rad frågereform tekniker (inklusive log-baserade stagnerande, substitution och expansion) med hjälp av standard TREC samlingar. Våra resultat visar att logbaserade frågereform tekniker verkligen är effektiva med standardsamlingar, men expansion är en mycket säkrare form av frågemodifiering än ordsubstitution. Vi visar också att med hjälp av ankartext som simulerad frågelogg är minst lika effektivt som en riktig logg för dessa tekniker. | Anchor text har till exempel visat sig vara en effektiv ersättning för frågeloggar för att generera frågeformuleringar REF, vilket tyder på att dessa två resurser bör korreleras. | 6,331,792 | Query reformulation using anchor text | {'venue': "WSDM '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 549 |
I Shift Bribery-problemet får vi ett val (baserat på preferensorder), en föredragen kandidat p, och en budget. Målet är att se till att p vinner genom att flytta p högre i vissa väljares preferens order. Varje sådan begäran om förskjutning kommer dock till ett pris (beroende på väljaren och på omfattningen av förskjutningen) och vi får inte överskrida den givna budgeten. Vi studerar den parameteriserade beräknings komplexiteten av Shift Bribery med avseende på ett antal parametrar (med hänsyn till vilken typ av lösning som eftersträvas och storleken på valet) och flera klasser av prisfunktioner. När vi jämför Shift Bribery med antalet drabbade väljare, då för var och en av våra omröstningsregler (Borda, Maximin, Copeland) problemet är W[2]-hård. Om vi istället paraferar med antalet positioner genom vilka p skiftas totalt, då problemet är fast-parameter dragbar för Borda och Maximin, och är W[1]-hård för Copeland. Om vi parameterisera av budgeten, då resultaten beror på prisfunktionen klass. Vi visar också att Shift Bribery tenderar att vara dragbar när parameteriseras av antalet väljare, men att resultaten för antalet kandidater är mer gåtfulla. 1 Till exempel den tyska webbplatsen idealo.de aggregerar olika produkttester genom att först översätta testresultaten till ett enhetligt betygssystem och sedan ta "genomsnitt" av alla betyg. Olika universitetsrankningar utarbetas på ett liknande sätt. Det skulle vara mycket intressant, dock, att använda rankingen själva, i stället för betygen, för aggregering. Dessutom använder Formel 1 racing (och många liknande tävlingar) ren rankning information (t.ex., Formel 1 använder en mycket något modifierad variant av Borda valregeln). 2 Vi antar att vi har kunskap om väljarnas preferensordningar (t.ex. från förhandsundersökningar). Dessutom, i våra exempelinställningar är ofta den fullständiga rankingen känd. Till exempel har en förare som förbereder sig för en ny Formel 1-säsong full kunskap om resultaten från den föregående. 3 Vad "att övertyga" innebär kan variera mycket beroende på ansökan scenario. På den onda sidan har vi mutor, men det kan också betyda saker som produktutveckling, anställa fler fakultetsmedlemmar, utbildning på en viss racingbana, eller förklara detaljerna i ens politiska plattform. Det är uppenbart att olika rankningsleverantörer kan uppskatta olika insatser, som modelleras av de enskilda prisfunktionerna. | Chen och Al. REF ansåg den parametriserade komplexiteten i Constructive Shift Bribery, och har visat en varierad uppsättning resultat (i allmänhet, parametrisering av antalet positioner som den föredragna kandidaten flyttas tenderar att leda till FPT-tid algoritmer, parametrisering av antalet drabbade väljare tenderar att leda till hårdhet resultat, och parametrisering av den tillgängliga budgeten ger resultat mellan dessa två ytterligheter). | 16,997,750 | Prices Matter for the Parameterized Complexity of Shift Bribery | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 550 |
Abstract-I detta papper undersöker vi prestanda klassificering av proteinkristallisation bilder fångas under proteinkristall tillväxtprocessen. Vi grupperar proteinkristallisation bilder i 3 kategorier: icke-kristaller, sannolikt leder (villkor som kan ge bildning av kristaller) och kristaller. I denna forskning tar vi endast hänsyn till underkategorierna av icke-kristallina och sannolikt leder proteinkristallisationsbilder separat. Vi använder 5 olika klassificeringar för att lösa detta problem och vi tillämpade några data förbehandlingsmetoder såsom huvudkomponentanalys (PCA), min-max (MM) normalisering och z-score (ZS) normaliseringsmetoder på våra datauppsättningar för att utvärdera deras effekter på klassificeringsvärden för icke-kristalliserade och sannolikt leder datauppsättningar. Vi utförde våra experiment på 1606 nonkristallin och 245 sannolikt leder bilder självständigt. Vi hade tillfredsställande resultat för båda datauppsättningarna. Vi nådde 96,8% noggrannhet för icke-kristall dataset och 94,8% noggrannhet för troliga leads dataset. Vårt mål är att undersöka de bästa klassificeringarna med optimal förbehandlingsteknik på både nonkristallina och troliga leads dataset. | I vårt tidigare arbete REF utvärderade vi klassificeringsprestandan med hjälp av 5 olika klassificeringar, och funktionsreduktion med hjälp av huvudkomponentanalys (PCA) och normaliseringsmetoder för icke-kristallina och troliga blyade datauppsättningar. | 22,177,610 | Evaluation of normalization and PCA on the performance of classifiers for protein crystallization images | {'venue': 'IEEE SOUTHEASTCON 2014', 'journal': 'IEEE SOUTHEASTCON 2014', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 551 |
Detta dokument introducerar en strategi för känsloanalys som använder stödvektormaskiner (SVM) för att samla olika källor till potentiellt relevant information, inklusive flera positiva åtgärder för fraser och adjektiv och, i förekommande fall, kunskap om ämnet i texten. Modeller som använder de funktioner som införts kombineras ytterligare med unigrammodeller som har visat sig vara effektiva tidigare (Pang et al., 2002) och lemmatiserade versioner av unigrammodellerna. Experiment på film granskningsdata från Epinions.com visar att hybrid SVMs som kombinerar unigram-stil funktionsbaserade SVMs med de som bygger på real-värderade fördelar mäter få överlägsen prestanda, producerar de bästa resultaten som ännu publiceras med hjälp av dessa data. Ytterligare experiment med hjälp av en funktion som berikas med ämnesinformation om en mindre datauppsättning av musik recensioner handannoterade för ämne också rapporteras, vars resultat tyder på att införlivandet av ämnesinformation i sådana modeller också kan ge förbättring. | Mullen och Collier REF använder en hybrid SVM-strategi genom att använda sig av potentiellt relevant information, inklusive flera positiva mått på termer och kunskap om ämnena. | 5,651,839 | Sentiment Analysis Using Support Vector Machines With Diverse Information Sources | {'venue': 'SIGDAT Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 552 |
I detta dokument undersöker vi användningen av hierarkiskt förstärkande lärande (HRL) för att påskynda förvärvet av kooperativa multiagentuppgifter. Vi introducerar ett hierarkiskt ramverk för förstärkning av fleragenter (RL) och föreslår en hierarkisk multiagentalgoritm som kallas Kooperativ HRL. Inom denna ram är agenterna kooperativa och homogena (använd samma uppgift sönderdelning). Lärandet är decentraliserat, och varje agent lär sig tre inbördes relaterade färdigheter: hur man utför varje enskild deluppgift, i vilken ordning de ska utföras och hur de ska samordnas med andra agenter. Vi definierar kooperativa deluppgifter som är de deluppgifter där samordning mellan agenter avsevärt förbättrar utförandet av den övergripande uppgiften. De nivåer i hierarkin som omfattar kooperativa deluppgifter kallas samarbetsnivåer. En grundläggande egenskap med det föreslagna tillvägagångssättet är att det gör det möjligt för agenter att lära sig samordning snabbare genom att dela information på nivån för kooperativa underuppgifter, snarare än att försöka lära sig samordning på nivån för primitiva handlingar. Vi studerar den empiriska prestandan hos den Kooperativa HRL algoritmen med hjälp av två testbäddar: en simulerad två-robot sophämtning uppgift, och en större fyra-agent automatiserad styrda fordon (AGV) schemaläggning problem. Vi jämför prestanda och hastighet av Kooperativ HRL med andra lärande algoritmer, liksom flera välkända industriella AGV heuristics. Vi tar också upp frågan om rationellt kommunikationsbeteende bland autonoma agenter i detta dokument. Målet är att agenter ska lära sig både handlings- och kommunikationspolitik som tillsammans optimerar uppgiften med tanke på en kommunikationskostnad. Vi utökar det multiagentiska HRL-ramverket till att omfatta kommunikationsbeslut och föreslår en kooperativ multiagent-HRL-algoritm som kallas COM-Cooperative HRL. I denna algoritm lägger vi till en kommunikationsnivå till den hierarkiska nedbrytningen av problemet under varje samarbetsnivå. Innan en agent fattar ett beslut på ett kooperativt subtask, bestämmer den om det är värt att utföra en kommunikationsåtgärd. En kommunikationsåtgärd har en viss kostnad och ger agenten de åtgärder som väljs ut av de andra ombuden på samarbetsnivå. Vi demonstrerar effektiviteten hos COM-Cooperative HRL-algoritmen samt relationen mellan kommunikationskostnaden och den inlärda kommunikationspolitiken med hjälp av ett taxiproblem med flera agenter. | REF presenterar med MAXQ-ramen ett hierarkiskt tillvägagångssätt för fleragentstärkande lärande. | 2,384,747 | Hierarchical multi-agent reinforcement learning | {'venue': 'Autonomous Agents and Multi-Agent Systems', 'journal': 'Autonomous Agents and Multi-Agent Systems', 'mag_field_of_study': ['Computer Science']} | 554 |
Området digitala bibliotek (DLs) sammansmältes 1994: de första digitala bibliotekskonferenserna hölls det året, medvetenheten om World Wide Web ökade, och National Science Foundation tilldelade $24 miljoner (USA) för Digital Library Initiative (DLI). I detta dokument undersöker vi läget för DL-domänen efter ett decennium av verksamhet genom att tillämpa sociala nätverksanalyser på nätverket med upphovsmän från tidigare ACM, IEEE och gemensamma ACM/IEEE digitala bibliotekskonferenser. Vi baserar vår analys på en gemensam binära oriktade nätverk modell för att representera co-authorship nätverket, och från det vi extraherar flera etablerade nätverk åtgärder. Vi introducerar också en vägd riktad nätverksmodell för att representera co-authorship nätverket, där vi definierar AuthorRank som en indikator på effekten av en enskild författare i nätverket. Resultaten är validerade mot konferensprogram kommittémedlemmar under samma period. Resultaten visar tydliga fördelar med PageRank och AuthorRank över grad, närhet och mellanhet centralitetsmått. Vi undersöker också mängden och arten av internationellt deltagande i den gemensamma konferensen om digitala bibliotek (JCDL). | Till exempel Liu et al. REF tillämpade även PageRank på nätverket för medförfattare för att rangordna forskare. | 2,536,130 | Co-Authorship Networks in the Digital Library Research Community | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 555 |
Nätverksdiagnos, ett viktigt forskningsämne för traditionella nätverkssystem, har inte fått mycket uppmärksamhet för trådlösa sensornätverk. Befintliga sensor felsökning verktyg som sympati eller EmStar är starkt beroende av ett tillägg protokoll som genererar och rapporterar en stor mängd statusinformation från enskilda sensornoder, införa nätverket overhead till en resurs begränsad och vanligtvis trafik känslig sensor nätverk. Vi rapporterar i denna studie vårt första försök att tillhandahålla en lätt nätverksdiagnos mekanism för sensornätverk. Vi föreslår PAD, en probabilistisk diagnos metod för att dra slutsatsen grundorsakerna till onormala fenomen. PAD använder en paketmärkningsalgoritm för att effektivt konstruera och dynamiskt underhålla inferensmodellen. Vårt tillvägagångssätt medför inte ytterligare trafikkostnader för att samla in önskad information. Istället inför vi en probabilistisk inferensmodell som kodar interna beroenden bland olika nätverkselement, för onlinediagnos av ett operativt sensornätverkssystem. En sådan modell är kapabel till additivt resonemang grundorsaker baserade på passivt observerade symtom. Vi implementerar PAD-designen i vårt havsövervakningssensornätverks testbädd och validerar dess effektivitet. Vi utvärderar ytterligare effektiviteten och skalbarheten av denna design genom omfattande spårdrivna simuleringar. | PAD REF utnyttjar en paketmärkningsstrategi för att konstruera och underhålla slutledningsmodellen. | 6,339,912 | Passive diagnosis for wireless sensor networks | {'venue': "SenSys '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 556 |
I detta dokument presenteras en studie om vilken roll diskursmarkörer spelar i argumenterande diskurs. Vi kommenterade en tysk corpus med argument enligt den vanliga argumenteringsmodellen och utförde olika statistiska analyser om diskursens diskriminerande karaktär för påståenden och lokaler. Våra experiment visar att vissa semantiska grupper av samtalsmarkörer är tecken på antingen påståenden eller förutsättningar och utgör mycket prediktiva egenskaper för diskriminering mellan dem. | Rollen av diskursen markörer i identifieringen av påståenden och lokaler diskuterades i REF, som drar slutsatsen att sådana markörer är måttligt användbara för att identifiera argumenterande meningar. | 88,666 | On the Role of Discourse Markers for Discriminating Claims and Premises in Argumentative Discourse | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 557 |
I det här dokumentet presenterar vi ett valförutsägelsesystem (Crystal) baserat på webbanvändares åsikter publicerade på en valförutsägelse webbplats. Med tanke på en förutsägelse meddelande, Crystal först identifierar vilket parti meddelandet förutspår att vinna och sedan aggregerar förutsägelse analys resultat av en stor mängd åsikter för att projicera valresultatet. Vi samlar tidigare val förutsägelser meddelanden från webben och automatiskt bygga en guld standard. Vi fokuserar på att fånga lexiska mönster som människor ofta använder när de uttrycker sina prediktiva åsikter om ett kommande val. För att förutsäga valresultat tillämpar vi SVM-baserat handledt lärande. För att förbättra prestandan föreslår vi en ny teknik som generaliserar n-grams funktionsmönster. Experimentella resultat visar att Crystal signifikant överträffar flera baslinjer samt en icke-generaliserad n-gram metod. Crystal förutspår framtida val med 81,68% noggrannhet. | REF beskriver i sin tur ett övervakat inlärningssystem som förutspår vilket parti som kommer att vinna valet på grundval av yttranden som publiceras på en webbplats för valprognoser (noggrannhet 81,68 %). | 9,656,604 | Crystal: Analyzing Predictive Opinions on the Web | {'venue': '2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 558 |
Metoderna för att lindra problemet med statsexplosion vid modellkontroll kan grovt klassificeras i symboliska metoder och abstraktionsmetoder [6]. Med symboliska metoder förstår vi användningen av koncisa datastrukturer och symboliska algoritmer som hjälper till att hålla tillståndsexplosion under kontroll genom att komprimera information, t.ex. med binära beslutsscheman eller effektiva SAT-förfaranden. Abstraction metoder i kontrast försöker minska storleken på tillståndet utrymme genom att använda kunskap om systemet och specifikationen för att modellera endast relevanta funktioner i Kripke struktur. En abstraktionsfunktion associerar en Kripke struktur à med en abstrakt Kripke struktur à sådan att två egenskaper innehar: Bevarande. à bevarar alla beteenden i Ã. Bevarande säkerställer att varje universell specifikation som är sant i à är också sant i Ã. Den motsatta innebörden kommer dock inte att hålla i allmänhet: en universell egendom som är falsk i Ö kan fortfarande vara sant i Ö. I detta fall kan det motexempel som erhållits över Ö inte rekonstrueras för betong Kripke struktur Ã, och kallas en falsk motexempel [10], eller en falsk negativ. Ett viktigt exempel på abstraktion är existentiell abstraktion [11] där de abstrakta staterna i huvudsak betraktas som likvärdiga klasser av konkreta stater; en övergång mellan två abstrakta stater äger rum om det sker en övergång mellan två konkreta medlemsstater i motsvarande ekvivalensklasser. I vissa fall kommer användarkunskapen om systemet att vara tillräcklig för att möjliggöra manuell bestämning av en god abstraktionsfunktion. I allmänhet, dock, att hitta abstraktion funktioner ger upphov till följande dikotomi: Om à är för liten, då falska motexempel är sannolikt att uppstå. Om à är för stor, då verifiering förblir ogenomförbar. Counterexample-Guided Abstraction Raffinement (CEGAR) är ett naturligt tillvägagångssätt för att lösa denna situation genom att använda en adaptiv algoritm som gradvis förbättrar en abstraktion funktion genom att analysera falska kontraexempel. (i) Inledande. Skapa en initial abstraktionsfunktion. ii) Förlagakontroll. Verifiera den abstrakta modellen. Om verifieringen lyckas är specifikationen korrekt, och algoritmen avslutas framgångsrikt. Annars kan man skapa ett motexempel på den abstrakta modellen. iii) Sanitetskontroll. Bestäm, om det abstrakta motexempelet är falskt. Om ett konkret motexempel | Algoritmen i detta dokument skiljer sig från motexempel-vägledd abstraktion förfining REF genom att den inte använder sig direkt av konkreta motexempel. | 9,192,961 | Counterexample-guided abstraction refinement | {'venue': 'In Computer Aided Verification', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 559 |
Abstrakt. I forskningen om förhållandet mellan den formella och den beräkningsmässiga synen på kryptografi, en ny metod, först föreslås i [9], använder statisk ekvivalens från kryptografisk pi calculi som en uppfattning om formell oskiljbarhet. Tidigare arbeten [9, 1] har visat att detta ger ljud av naturliga tolkningar av några intressanta ekvationsteorier, såsom vissa kryptografiska operationer och en teori om XOR. I detta dokument hävdar vi dock att statisk ekvivalens är för grov för sunda tolkningar av ekvationsteorier i allmänhet. Vi visar några tydliga exempel på hur statisk ekvivalens inte fungerar i intressanta fall. För att lösa detta problem föreslår vi ett begrepp om formell oskiljaktighet som är mer flexibelt än statisk ekvivalens. Vi tillhandahåller en allmän ram tillsammans med allmänna teorem, och sedan diskutera hur detta nya begrepp fungerar för de explicita exempel där statisk likvärdighet misslyckades med att säkerställa sundhet. Vi förbättrar också behandlingen genom att använda beställda typer i den formella synen, och genom att tillåta godtyckliga sannolikhetsfördelningar av tolkningar. | I REF, Bana et al. hävdar att begreppet statisk ekvivalens är för grov och inte ljud för många intressanta ekvationsteorier. | 14,040,589 | Computational Soundness of Formal Indistinguishability and Static Equivalence | {'venue': 'IN PROC. 11TH ASIAN COMPUTING SCIENCE CONFERENCE (ASIAN’06), LNCS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 560 |
Abstrakt. Gas är en mätenhet för den beräkningssats som det kommer att ta att utföra varje enskild operation som deltar i Ethereum blockchain-plattformen. Varje instruktion som utförs av Ethereum Virtual Machine (EVM) har en tillhörande gasförbrukning som anges av Ethereum. Om en transaktion överstiger den mängd gas som tilldelats av användaren (s.k. gasgräns) höjs ett undantag för avgaser. Det finns en stor familj av kontrakt sårbarheter på grund av out-of-gas beteenden. Vi rapporterar om utformningen och genomförandet av Gastap, en Gas-Aware Smart ContracT Analysis Platform, som tar som ingång ett smart kontrakt (antingen i SVM, demonterade EVM, eller i Solidity källkod) och automatiskt infer ljudgas övre gränser för alla sina offentliga funktioner. Våra gränser säkerställer att om den gas gräns som betalas av användaren är högre än våra inferred gas gränser, avtalet är fri från ut-of-gas sårbarheter. | GASTAP REF inkluderar ljudgas övre gränser för alla offentliga funktioner i ett smart kontrakt med komplexa omvandlings- och analysprocesser på koden. | 53,747,910 | GASTAP: A Gas Analyzer for Smart Contracts | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 561 |
Det har skett en explosion av akademisk litteratur om steganografi och steganalys under de senaste två decennierna. Med några få undantag tar sådana dokument upp abstraktioner av problemen med att dölja och upptäcka, vilka utan tvekan har blivit bortkopplade från den verkliga världen. De flesta publicerade resultat, bland annat av författarna till denna uppsats, tillämpas "i laboratorieförhållanden" och vissa är hårt skyddade av antaganden och förbehåll; betydande utmaningar förblir olösta för att genomföra god steganografi och steganalys i praktiken. I detta ståndpunktsdokument redogörs för några av de viktiga frågor som har lämnats obesvarade, samt för några som redan har tagits upp på ett framgångsrikt sätt, för steganografi och steganalys som ska användas i den verkliga världen. | Steganografi har varit fokus för mycket forskningsintresse under de senaste decennierna, samt ökat tillämpligheten i den verkliga världen REF. | 7,930,968 | Moving steganography and steganalysis from the laboratory into the real world | {'venue': "IH&MMSec '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 562 |
Abstract-Spatio-temporal preferenser och möta statistik ger realistiska åtgärder för att förstå mobila användares beteende preferenser och överföringsmöjligheter i Delay Tolerant Networks (DTNs). Tidsberoende beteende och periodiska återkomster på specifika platser kan approxima framtida online-närvaro medan möter statistik kan hjälpa till att vidarebefordra routing beslut. Det är teoretiskt visat att sådana egenskaper kraftigt påverkar utförandet av routing protokoll. Därför förväntas rörlighetsmodeller som visar sådana egenskaper också visa identiska routingprestanda. Men vi argumenterar modeller trots att fånga dessa egenskaper avviker från deras förväntade routing prestanda. Vi använder realistiska spår för att validera denna observation på två mobilitetsmodeller. Våra empiriska resultat för epidemisk routing visar att dessa modeller till stor del skiljer sig (fördröjt 67% & nåbarhet 79%) från de observerade värdena. Detta i sin tur kräver två viktiga aktiviteter: i) Analog till routing, utforska strukturella egenskaper i global skala (ii) Designa nya mobilitetsmodeller som fångar dem. | Thakur m.fl. REF fann att resultaten av rörlighetsmodellerna inte är jämförbara med realistiska trender. | 18,162,229 | Analysis of Spatio-Temporal Preferences and Encounter Statistics for DTN Performance | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 563 |
När det gäller talsyntes är det redan möjligt att skapa begripligt tal med hänvisningsform prosody för enkla skrivna texter. På ATR forskar vi dock om talsyntestekniker för användning i en språköversättningsmiljö. Dialoger i sådana samtal inbegriper mycket rikare former av prosodisk variation än vad som krävs för läsning av texter. För att våra översättningar ska låta naturliga är det nödvändigt för vårt syntessystem att erbjuda ett brett spektrum av prosodiska variationer, som kan beskrivas på en lämplig abstraktionsnivå. Detta dokument beskriver ett multi-level intonation system som genererar en grundläggande frekvens (F 0 ) kontur baserad på indata märkt med hög nivå diskurs information, inklusive talakt typ och fokusering information, samt en del av tal och syntaktisk komponent struktur. Systemet är regelstyrt men reglerna och i viss mån nivåerna i sig härrör från naturligt talade dialoger. Detta dokument presenterar en ram för att generera intonationsparametrar baserade på befintliga naturliga taldialoger märkta med detta intonationssystem, och markerade med hög nivå diskurs funktioner. Målet med denna studie är att förutsäga intonation av diskurssegment i taldialog för syntes i ett talöversättningssystem. Spontan dialog innebär mer användning av inåt nationell variation än läsning av skriftlig prosa, så intonation specification komponenten i vår talsyntes måste ta hänsyn till prosody av olika typer av tal agera, och måste tillåta generation av uttalanden med samma variabilitet som i naturlig dialog. Till exempel det enkla engelska ordet \ okay" hörs ofta i samtal men utför olika funktioner. Ibland har det innebörden \ jag förstår.", ibland förstår du?", andra gånger används det som en diskursmarkör som indikerar ett byte av ämne, eller som en slutsignal för den andra partnern att tala. De olika användningarna av ett ord har olika nationella toner. Det finns redan ett antal intonationssystem som tillåter en specification av intonation på en högre abstraktionsnivå än att direkt representera den grundläggande frekvenskonturen (ToBI o ers en diskret symbolisk representation av språkliga intonationsmönster; medan Tilt o er en representation av fysiska tonhöjdsmönster, att di erence inte är signi kant i detta arbete. Alla dessa intonationssystem är en metod för representation från vilken varierande F0-konturer kan genereras. I detta dokument är vi främst intresserade av en nivå av diskurs intonation \ ovan" dessa intonationssystem. Det är ett system som kommer att förutsäga intonationsparametrar (för alla intonationssystem som används) från högre nivå diskursinformation såsom talakt, diskursfunktion, syntaktisk struktur och en del av talinformation. Följande diagram placerar detta arbete i processen att generera en F 0 kontur i talsyntesen. | REF presenterade en modell för att generera intonationsmönster baserat på högnivåtal som automatiskt extraherats från dialogtal. | 14,995,818 | Predicting the Intonation of Discourse Segments From Examples in Dialogue Speech | {'venue': 'ESCA/Aalborg University', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 564 |
Sammanfattning av denna webbsida: Device-to-device (D2D) kommunikation föreslås som en lovande teknik för framtida cellulära nätverk som uppfyller sin potential i termer av högt resursutnyttjande. I detta dokument, för att förbättra den uppnåeliga graden av D2D-kommunikation och spektrumutnyttjande, anser vi scenariot att flera D2D-par kan dela upplänk spektrumresurser med flera cellulära användare (CUs). Vi strävar efter att maximera den totala systemspektrumeffektiviteten samtidigt som vi uppfyller alla CU:s hastighetskrav och garanterar att systemvinsten är positiv. Vi formulerar det gemensamma optimeringsproblemet för subcarrier tilldelning och kraftfördelning som faller naturligt i ett blandat heltal icke-linjär programmering form som är ett svårt problem att lösa. Därför föreslår vi ett system för resursallokering i två steg som omfattar ett uppdrag under transport genom att använda en heuristisk girig strategi, samt en algoritm för maktalgoritm baserad på den tvåfaldiga metoden i Lagrangian. Numeriska resultat visar den fördelaktiga prestandan i vårt system för att kraftigt öka systemsumman spektrumeffektivitet. | I REF studerar författarna problemet med att maximera den totala systemspektrumeffektiviteten samtidigt som de uppfyller hastighetskraven för alla cellulära användare, där ett tvåstegssystem för resurstilldelning (bestående av en subcarrier-tilldelning med en girig metod och en effektalgoritm med den Lagrangiska dubbla metoden) föreslås för att hantera störningar i nätverket med flera D2D-par som delar upplänk spektrumresurser med de cellulära användarna. | 43,380,533 | A Resource Allocation Scheme for Multi-D2D Communications Underlying Cellular Networks with Multi-Subcarrier Reusing | {'venue': None, 'journal': 'Applied Sciences', 'mag_field_of_study': ['Mathematics']} | 565 |
Eftersom de djupa näten i allt högre grad används i tillämpningar som lämpar sig för mobila enheter blir ett grundläggande dilemma uppenbart: tendensen i det djupa lärandet är att växa modeller för att absorbera allt större datamängder, men mobila enheter är utformade med mycket lite minne och kan inte lagra så stora modeller. Vi presenterar en ny nätverksarkitektur, HashedNets, som utnyttjar inneboende redundans i neurala nätverk för att uppnå drastiska minskningar i modellstorlekar. HashedNets använder en hashfunktion med låg kostnad för att slumpmässigt gruppera anslutningsvikter i hashskopor, och alla anslutningar inom samma hashskopa delar ett enda parametervärde. Dessa parametrar är anpassade för att anpassa sig till HashedNets viktdelningsarkitektur med standard backprop under träningen. Vår hashing procedur inför inga ytterligare minne overhead, och vi visar på flera riktmärkesdata som HashedNets krymper lagringskraven för neurala nätverk avsevärt samtidigt mestadels bevara generalisering prestanda. | REF använde hashfunktioner för att minska modellstorleken utan att offra generaliseringsprestanda. | 543,597 | Compressing Neural Networks with the Hashing Trick | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 566 |
Detaljerade samband har studerats hos djur genom invasiva spårtekniker, men dessa invasiva studier kan inte göras på människor, och djurresultaten kan inte alltid extrapoleras till mänskliga system. Vi har utvecklat icke-invasiv neuronal fiber spårning för användning i levande människor, utnyttjar den unika förmågan hos MRI att karakterisera vattenspridning. Vi rekonstruerade fiberbanor i hela hjärnan genom att spåra riktningen för snabbast diffusion (fiberriktningen) från ett rutnät av fröpunkter, och sedan utvalda spår som går anatomiskt eller funktionellt (funktionell MRT) definierade regioner. Vi demonstrerar spridningsspårning av fiberpaket i en mängd olika klasser av vit materia med exempel i corpus callosum, genoulo-kalkarin, och subkortikala associationsvägar. Spår täckte långa avstånd, navigerade genom divergerande och snäva kurvor, och manifesterade topologiska separationer i genul-kalkarinkanalen som överensstämmer med spårämnesstudier på djur och retinopystudier på människor. Dessutom avslöjades tidigare obeskrivna topologier på de andra vägarna. Detta tillvägagångssätt ökar kraften i modern avbildning genom att möjliggöra studier av fiberanslutningar bland anatomiskt och funktionellt definierade hjärnregioner i enskilda mänskliga subjekt. | Conturo m.fl. REF använder volymområden av intresse för att välja vägar som förbinder anatomiskt eller funktionellt definierade regioner. | 1,237,851 | Tracking neuronal fiber pathways in the living human brain | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Biology', 'Medicine']} | 567 |
Bots är, för många användare av webben och sociala medier, källan till många farliga attacker eller bärare av oönskade meddelanden, såsom spam. Ändå är krypskyttar och programvaruagenter ett värdefullt verktyg för analytiker, och de utförs kontinuerligt för att samla in data eller för att testa distribuerade program. Men ingen vet vilken som är den verkliga potentialen hos en bot vars syfte är att kontrollera en gemenskap, manipulera samförstånd, eller att påverka användarens beteende. Det anses allmänt att ju bättre en agent simulerar mänskligt beteende i ett socialt nätverk, desto mer kan den lyckas generera en inverkan i det samhället. Vi bidrar till att belysa denna fråga genom ett socialt experiment online som syftar till att studera i vilken utsträckning en bot utan förtroende, ingen profil, och inga mål att reproducera mänskligt beteende, kan bli populär och inflytelserik i sociala medier. Resultaten visar att en grundläggande social undersökningsverksamhet kan användas för att uppnå social relevans på nätverket och att den så förvärvade populariteten effektivt kan utnyttjas för att driva användarna i deras val av social konnektivitet. Vi registrerar också att vår bot aktivitet avslöjade dolda sociala polariseringsmönster i samhället och utlöste en känslomässig respons av individer som ger ljus subtila integritetsrisker som uppfattas av användarbasen. | REF skapade en bot som blir mycket uppkopplad i ett socialt nätverk för bokälskare. | 14,017,316 | People are Strange when you're a Stranger: Impact and Influence of Bots on Social Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']} | 568 |
Abstract-Wireless spektrumdelningstekniker har blivit mycket viktiga på grund av den ökande efterfrågan på spektrum. Därför finns det ett växande intresse av att använda realtidsauktioner för att ekonomiskt stimulera användare att dela sitt överskott av spektrum. Kraven på kommunikation och kontroll vid sekundärspektrumauktioner i realtid skulle dock vara överväldigande för trådlösa nät. Tidigare litteratur har inte övervägt kritiska kommunikationsbegränsningar såsom quantisering av anbudspriset och fel benägen anbudsuppenbarelse. Dessa system har också höga omkostnader som inte kan tillgodoses i trådlösa standarder. Vi föreslår auktionssystem där en central clearingmyndighet auktionerar ut spektrum till budgivare, samtidigt som dessa kommunikationsbegränsningar uttryckligen beaktas. Våra tekniker är relaterade till det bakre matchningsschemat, som används i system med återkoppling från kanalutgångar. Vi överväger flera scenarier där clearingmyndighetens mål är att tilldela spektrum till budgivare som värderar spektrum mest. Vi bevisar att detta mål är asymptotiskt uppnått genom vårt system när budgivare är icke-strategiska med konstanta bud. Vi föreslår separata system för att få strategiska användare att avslöja sina privata värden sanningsenligt, auktionera ut flera underkanaler bland strategiska användare, och spåra långsamt tidsvarierande budpriser. Vi tillhandahåller omfattande simuleringsresultat för att illustrera våra algoritmers prestanda och effektivitet. | Auktionssystem där en central clearingmyndighet auktionerar ut spektrum till budgivare, samtidigt som den uttryckligen redovisar kommunikationsbegränsningar, föreslås i REF. | 1,800,575 | Secondary Spectrum Auctions for Markets With Communication Constraints | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 569 |
Abstract-The concept of vehicular ad-hoc nätverk möjliggör utformningen av framväxande fordonssäkerhet applikationer, som bygger på medvetenheten bland fordon. Nyligen godkändes en svit 802.11p/Wave-protokoll som syftar till att stödja bil-till-bil-kommunikation av IEEE. Befintlig mobil infrastruktur och framför allt 3GPP LTE betraktas som en annan kommunikationsteknik som är lämplig för fordonstillämpningar. Detta brev ger en teoretisk ram som jämför de grundläggande mönstren för båda teknikerna i samband med fordonssäkerhetsscenarier. Vi presenterar matematiska modeller för utvärdering av de övervägda protokollen i termer av framgångsrik leveranssannolikhet för beacon. | Vinel REF jämförde IEEE 802.11p/Wave och LTE-systemet med avseende på fördröjning och skalbarhet för fordonssäkerhetsapplikationer. | 2,197,998 | 3GPP LTE Versus IEEE 802.11p/WAVE: Which Technology is Able to Support Cooperative Vehicular Safety Applications? | {'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 570 |
Vi presenterar Fortunata, en wiki-baserad ram som är utformad för att förenkla skapandet av semantiska-aktiverade webbapplikationer. Detta ramverk underlättar hantering och publicering av semantiska data i webbaserade applikationer, i den mån programutvecklare inte behöver vara kvalificerade i klient-side-teknik, och främjar återanvändning av applikationer genom att främja samarbete mellan utvecklare genom wiki plugins. Vi stödjer användningen av detta ramverk med två Fortunata-baserade applikationer som heter OMEMO och VPOET, och vi utvärderar det med två experiment som utförs med användbarhetsutvärderare respektive applikationsutvecklare. Dessa experiment visar en god balans mellan användbarheten av de tillämpningar som skapas med detta ramverk och de insatser och färdigheter som krävs av utvecklare. | Fortunata, som en wiki-baserad ram, skulle kunna underlätta hantering och publicering av semantiska data i webbaserade applikationer REF. | 17,029,377 | A contribution-based framework for the creation of semantically-enabled web applications | {'venue': 'Inf. Sci.', 'journal': 'Inf. Sci.', 'mag_field_of_study': ['Computer Science']} | 571 |
Den växande användningen av statistiska och maskininlärningsalgoritmer (ML) för att analysera stora datauppsättningar har gett upphov till nya system för att skala sådana algoritmer. Men att implementera nya skalbara algoritmer på lågnivåspråk är en smärtsam process, särskilt för företag och vetenskapliga användare. För att mildra denna fråga, en ny typ av system exponerar hög nivå bulk linjär algebra (LA) primitiver som är skalbara. Genom att komponera sådana LA primitiva, användare kan skriva analys algoritmer på en högre nivå språk, medan systemet hanterar skalbarhet problem. Men det finns inte mycket arbete med en enhetlig jämförande utvärdering av skalbarheten, effektiviteten och effektiviteten hos sådana "skalbara LA-system". Vi tar ett stort steg mot att fylla denna lucka. Vi inför en serie LA-specifika tester baserade på vår analys av dataåtkomst och kommunikationsmönster för LA arbetsbelastningar och deras användningsfall. Med hjälp av våra tester gör vi en omfattande empirisk jämförelse av några populära skalbara LA-system: MADlib, MLlib, SystemML, Scalapack, SciDB och TensorFlow med hjälp av både syntetiska data och en stor real-world dataset. Vår studie har avslöjat flera skalbarhet flaskhalsar, ovanliga prestandatrender, och även buggar i vissa system. Våra resultat har redan lett till förbättringar i SystemML, med andra systems utvecklare som också uttrycker intresse. Alla våra kod- och dataskript finns tillgängliga för nedladdning på https://adalabucsd.github.io/slab.html. | SLAB (Scalable Linear Algebra Benchmarking) REF presenterar en serie LA-specifika tester baserade på analys av dataåtkomst och kommunikationsmönster för LA arbetsbelastning. | 13,699,031 | A comparative evaluation of systems for scalable linear algebra-based analytics | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 572 |
Abstract-High instruktion cache träffhastigheter är nyckeln till hög prestanda. En känd teknik för att förbättra träffhastigheten av caches är att minimera cacheinterferens genom att förbättra layouten av de grundläggande blocken i koden. Prestandaeffekten av denna teknik har dock rapporterats endast för tillämpningskod, även om det finns belägg för att operativsystemet ofta använder cache kraftigt och med mindre enhetliga mönster än applikationer. Det är okänt hur väl befintliga optimeringar fungerar för systemkod och om bättre optimeringar kan hittas. Vi tar upp detta problem i detta dokument. Detta dokument kännetecknar i detalj de lokala mönstren i operativsystemets kod och visar att det finns en betydande lokalitet. Tyvärr, caches inte kan extrahera mycket av det: sällan utförda specialfall kod stör rumslig lokalitet, loopar med få iterationer som kallar rutiner gör loop locality svår att utnyttja, och massor av loop-mindre kod hindrar temporal lokalitet. Baserat på våra observationer, föreslår vi en algoritm för att exponera dessa platser och minska störningar i cache. För en rad cache storlekar, föreningar, linjer storlekar, och organisationer, visar vi att vi minskar totala undervisning missar hastigheter med 31-86 procent, eller upp till 2,9 absoluta poäng. Med hjälp av en enkel modell motsvarar detta en tidsminskning på 10-25 procent av ordern. Dessutom kombinerar vårt optimerade operativsystem väl med optimerade och ooptimerade applikationer. | Torrellas m.fl. REF utformade en grundläggande blockomordningsalgoritm för operativsystemets kod. | 6,591,791 | Optimizing Instruction Cache Performance for Operating System Intensive Workloads | {'venue': 'IEEE Transactions on Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 573 |
Vi beskriver våra insatser för att generera en stor (100 000 exempel) corpus av textförmedlande par från första stycket och rubriken i nyhetsartiklar. Vi inspekterade manuellt en liten uppsättning nyhetshistorier för att hitta den mest produktiva källan till indicier, sedan byggde en annotering gränssnitt för snabb manuell utvärdering av ytterligare exemplars. Med dessa träningsdata byggde vi en SVM-baserad dokumentklassning, som vi använde för corpus förfining-vi tror att ungefär tre fjärdedelar av de resulterande corpus är äkta conduration par. Vi diskuterar också de svårigheter som finns i det manuella omdömet och föreslår sätt att mildra några av dessa. | Burger & Ferro REF, generera en stor corpus av TE par (100.000 par) från ledningen av stycke och rubrik i engelska nyhetsartiklar. | 2,941,806 | Generating An Entailment Corpus From News Headlines | {'venue': 'Workshop On Empirical Modeling Of Semantic Equivalence And Entailment', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 574 |
Organisationer definierar allt mer många affärsprocesser som projekt som utförs av "virtuella (projekt) team", där teammedlemmar från en organisation samarbetar med "utanför" experter. Virtuella team kräver och gör det möjligt för människor att samarbeta över geografiska avstånd och professionella (organisatoriska) gränser och har en något stabil teamkonfiguration med roller och ansvar tilldelas lagmedlemmar. Olika människor, som kommer från olika organisationer kommer att ha sina egna preferenser och erfarenheter och kan inte förväntas genomgå en lång inlärningscykel innan de deltar i teamaktiviteter. Effektiv kommunikation, samordning och processmedvetet samarbete är därför fortfarande en grundläggande utmaning. I detta dokument diskuterar vi de nuvarande bristerna i strategier mot bakgrund av virtuellt lagarbete (främst Workflow, Groupware och Project Management) baserat på modeller och underliggande metaforer. Dessutom presenterar vi ett nytt tillvägagångssätt för virtuellt lagarbete genom att nära integrera alla samband mellan processer, artefakter och resurser. I detta dokument analyserar vi (a) relevanta kriterier för processmedvetna samarbetssystemmetaforer, (b) samordningsmodeller och konstruktioner för organisationsstrukturer i virtuella team samt för ad hoc- och samarbetsprocesser som består av uppgifter, samt (c) arkitektoniska överväganden samt design- och implementationsfrågor för ett integrerat process-medveten samarbetssystem för virtuella team på Internet. | Konceptuella grunder för process-medvetna samarbete WfMS presenteras i REF. | 6,159,808 | Caramba—A Process-Aware Collaboration System Supporting Ad hoc and Collaborative Processes in Virtual Teams | {'venue': 'Distributed and Parallel Databases', 'journal': 'Distributed and Parallel Databases', 'mag_field_of_study': ['Computer Science']} | 575 |
Abstract-I detta papper studerar vi ett multi-antenna system där sändaren är utrustad med kvantiserad information om momentana kanalrealiseringar. Om vi antar att sändaren använder den kvantifierade informationen för strålformning, härleder vi en universell lägre gräns på avbrottsannolikheten för en ändlig uppsättning strålformare. Den universella nedre gränsen ger en koncis karakterisering av vinsten med varje ytterligare bit feedback information om kanalen. Med hjälp av den bundna, Det visas att ändliga informationssystem närmar sig den perfekta information fall som ( 1)2, Där är antalet feedback bitar och är antalet sända antenner. Den geometriska begränsningstekniken, som används i beviset på den nedre gränsen, leder också till ett konstruktionskriterium för goda strålformare, vars strömavbrott närmar sig den nedre gränsen. Konstruktionskriteriet minimerar den maximala inre produkten mellan två strålformande vektorer i kodboken för strålformaren, och motsvarar problemet med att utforma enhetliga rymdtidskoder under vissa förhållanden. Slutligen visar vi att goda strålformare är bra packningar av tvådimensionella subrymder i ett tvådimensionellt verkligt Grassmannskt grenrör med ackordavstånd som mått. | Analytiska resultat för prestanda för optimalt kvantiserade strålformare utvecklas i REF, där en universell lägre gräns på avbrottsannolikheten för en ändlig uppsättning strålformare med kvantiserad feedback härleds. | 407,688 | On beamforming with finite rate feedback in multiple-antenna systems | {'venue': 'IEEE Transactions on Information Theory', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 576 |
Framgången med djupt lärande i vision kan tillskrivas: a) modeller med hög kapacitet, b) ökad beräkningskraft, och c) tillgång till storskaliga märkta data. Sedan 2012 har det skett betydande framsteg i representationskapaciteten hos modellerna och beräkningskapaciteten hos GPU. Men storleken på den största datauppsättningen har förvånansvärt nog förblivit konstant. Vad händer om vi ökar datasetet storlek med 10× eller 100×? Detta papper tar ett steg mot att rensa molnen av mysterium som omger förhållandet mellan "enorma data" och visuellt djupt lärande. Genom att utnyttja JFT-300M-datasetet som har mer än 375M bullriga etiketter för 300M-bilder undersöker vi hur utförandet av aktuella visionsuppgifter skulle förändras om dessa data användes för representationsinlärning. Vår tidning ger en del överraskande (och en del förväntade) resultat. För det första ser vi att prestandan på visionsuppgifter ökar logaritmiskt baserat på volym av träningsdata storlek. För det andra visar vi att läran om representation (eller förutbildningen) fortfarande är mycket lovande. Man kan förbättra prestandan på många visioner genom att bara träna en bättre basmodell. Slutligen presenterar vi som förväntat nya resultat från hjärtats tillstånd för olika visionsuppgifter, inklusive bildklassificering, objektdetektering, semantisk segmentering och bedömning av människans pose. Vår uppriktiga förhoppning är att detta inspirerar visionsgemenskapen att inte underskatta data och utveckla kollektiva insatser för att bygga större datauppsättningar. | Sol och al. REF har visat att ju större datamängd, desto bättre resultat har nätverk för djupinlärning. | 6,842,201 | Revisiting Unreasonable Effectiveness of Data in Deep Learning Era | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 577 |
Problemet med en total avsaknad av parallella data är närvarande för ett stort antal språkpar och kan allvarligt skada kvaliteten på maskinöversättning. Vi beskriver en språkoberoende metod för att möjliggöra maskinöversättning mellan ett lågresursspråk (LRL) och ett tredje språk, t.ex. Engelska. Vi behandlar fall av LRL där det inte finns några lättillgängliga parallella data mellan lågresursspråket och något annat språk, men det finns gott om utbildningsdata mellan ett närbesläktat högresursspråk (HRL) och det tredje språket. Vi utnyttjar likheterna mellan HRL och LRL för att omvandla HRL-data till data som liknar LRL med hjälp av translitterering. Translittereringsmodellerna är utbildade på translittereringspar som extraheras från Wikipedias artikeltitlar. Därefter skickar vi automatiskt tillbaka enspråkig LRL-data med modellerna tränade på translittererade HRL-data och använder den resulterande parallella corpus för att träna våra slutliga modeller. Vår metod uppnår betydande förbättringar i översättningskvalitet, nära de resultat som kan uppnås genom ett allmänt syfte neural maskinöversättningssystem utbildad på en betydande mängd parallella data. Dessutom är metoden inte beroende av förekomsten av parallella data för utbildning, utan försöker att bootstrap redan befintliga resurser på ett relaterat språk. | Tillbaka översättning används för att generera en pseudo-HRL från enspråkig data, medan HRL-sidan av parallella data omvandlas till pseudo-LRL med ordsubstitution från en tvåspråkig ordbok, liknande tillvägagångssättet i REF. | 24,860,285 | Neural machine translation for low-resource languages without parallel corpora | {'venue': 'Machine Translation', 'journal': 'Machine Translation', 'mag_field_of_study': ['Computer Science']} | 578 |
Vi anser att problemet med att beräkna alla par kortaste vägar (APSP) och kortaste vägar för k källor i en viktad graf i den distribuerade överbelastade modellen. För grafer med icke-negativa heltal kantvikter (inklusive nollvikter) bygger vi på en nyligen rörledningsalgoritm [1] för att erhålla aÕ(λ 1/4 · n 5/4 )-runda som är bundet till grafer med kantvikt som mest λ, och Õ(n · till 1/3 )-runda som är bundet till kortast vägavstånd som mest. Dessutom förenklar vi några av procedurerna i de tidigare APSP algoritmerna för icke-negativa kantvikter i [8, 2]. Vi presenterar också resultat för att beräkna h-hop kortaste vägar och kortaste vägar från k givna källor. I andra resultat presenterar vi en randomiserad exakt APSP algoritm för grafer med godtyckliga kantvikter som löper i Õ(n 4/3 ) rundor w.h.p. i n, vilket förbättrar det tidigare bästa Õ(n 3/2 ) bundet, vilket är deterministiskt. Vi presenterar också en Õ(n/ på 2 )-runda deterministisk (1 + på) approximationsalgoritm för grafer med icke-negativa poly(n) heltalsvikter (inklusive noll kant-vikter), vilket förbättrar resultaten i [13, 11] som endast håller för positiva heltalsvikter. | I ett följepapper REF bygger vi på den piped algoritm som vi presenterar här för att få en algoritm för icke-negativa heltal kant-vikter (inklusive noll viktade kanter) som löper i Õ(n på 1/3 ) rundor där de kortaste stigavstånden är som mest och i Õ(n 5/4 λ 1/4 ) rundor när kantvikterna begränsas av λ. | 53,041,634 | New and Simplified Distributed Algorithms for Weighted All Pairs Shortest Paths | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 579 |
Vi presenterar tekniker för att påskynda testtidsutvärderingen av stora konvolutionsnätverk, utformade för objektigenkänningsuppgifter. Dessa modeller ger imponerande noggrannhet, men varje bildutvärdering kräver miljontals flyttalsoperationer, vilket gör deras spridning på smartphones och internetkluster problematiskt. Beräkningen domineras av konvolutionsverksamheten i de lägre skikten av modellen. Vi utnyttjar redundansen i konvolutionsfiltren för att härleda approximationer som avsevärt minskar den nödvändiga beräkningen. Med hjälp av stora state-of-the-art modeller, visar vi hastigheter av konvolutionella lager på både CPU och GPU med en faktor på 2×, samtidigt som noggrannheten inom 1% av den ursprungliga modellen. | REF utnyttjade neuralnätets linjära struktur genom att hitta en lämplig låggradig approximation av parametrarna och hålla noggrannheten inom 1 % av den ursprungliga modellen. | 7,340,116 | Exploiting Linear Structure Within Convolutional Networks for Efficient Evaluation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 580 |
Dynamisk specifikation gruvdrift innebär att upptäcka programvara beteende från spår i syfte att program förståelse och bugg upptäckt. Men gruvprogram beteende från utförande spår är svårt för samtidiga / distribuerade program. De inneboende partiella ordningsförhållandena mellan händelser som inträffar över processer utgör en stor utmaning när det gäller att specificera gruvdrift. I denna uppsats föreslår vi en ram för gruvdrift partiella order för att förstå samtidig programbeteende. Vår gruvarbetare tar in en uppsättning samtidiga program spår, och producerar en meddelandesekvens graf (MSG) för att representera den samtidiga programbeteende. En MSG representerar en graf där noderna i grafen är partiella order, representeras som meddelandesekvensdiagram. Gruvning en MSG kan vi förstå samtidiga program beteenden eftersom noderna i MSG avbildar viktiga "faser" eller "interaction sippets" som involverar flera samtidigt utför processer. För att visa kraften i denna teknik utförde vi experiment på gruvbeteenden i flera ganska komplexa distribuerade system. Vi visar att vår gruvarbetare kan producera motsvarande MSG med både hög precision och recall. | Arbetet i REF använder minerade meddelandesekvensdiagram från partiell beställning av utförande spår av samtidiga program. | 7,955,343 | Mining message sequence graphs | {'venue': "ICSE '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 581 |
Abstract-Time-synkroniserad kanalhoppning (TSCH) är för närvarande den mest effektiva lösningen för kollisionsfri interferensundvikande kommunikation i trådlösa ad hoc-nätverk, såsom trådlösa sensornätverk, fordonsnätverk och nätverk av robotar eller drönare. Alla varianter av TSCH kräver dock någon form av centraliserad samordning för att upprätthålla mekanismen för tidsfrekvensslottning. Detta leder till långsam konvergens till steady state och måttlig tidsfrekvent användning av ankomst- och avgångstider, särskilt under node churn eller rörlighet. Vi föreslår decentraliserad tidssynkroniserad kanalswaping (DT-SCS), som är ett nytt protokoll för medelåtkomstkontroll (MAC) i trådlösa ad hoc-nätverk. Enligt det föreslagna protokollet konvergerar noderna först till synkrona paketöverföringar via alla tillgängliga kanaler på det fysiska lagret, med ett balanserat antal noder i varje kanal. Detta görs genom den nya kopplingen av distribuerade synkroniserings- och desynkroniseringsmekanismer-som baseras på begreppet pulskopplade oscillatorer-vid MAC-lagret. Decentraliserad kanalswapning kan sedan ske via peer-to-peer-swap-förfrågningar/godkännanden gjorda mellan samtidiga sändare i angränsande kanaler. Vi jämför konvergens och nätverk genomströmning av DT-SCS, TSCH, och det effektiva flerkanaliga MAC-protokollet (ses som den senaste tekniken i decentraliserade, interferens-undvikande, och flerkanaliga MAC-protokoll) under simulerade paketförluster vid MAC-skiktet. Dessutom visar prestandaresultat via en Contiki-baserad distribution på TelosB motes att DT-SCS består av en utmärkt kandidat för decentraliserad flerkanalig MAC-lager samordning genom att ge snabb konvergens till steady state, hög bandbredd utnyttjande under störningar och dolda noder, samt hög konnektivitet. Index Terms-Ad hoc-nätverk, kanalhoppning, decentraliserad medelåtkomstkontroll (MAC), pulskopplade oscillatorer (PCO). | Ett decentraliserat protokoll för tidssynkroniserad kanalswaping (DT-SCS) presenteras i REF för att åtgärda bristerna i tidssynkroniserad kanalhoppning (TSCH) i ad hoc-nätverk. | 19,043,666 | Decentralized Time-Synchronized Channel Swapping for Ad Hoc Wireless Networks | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 582 |
Styvhann Makri: [email protected]. Tfn +44 20 7679 5242. Tfn +44 8456 382 573. Informationssökande är viktigt för advokater som har tillgång till många särskilda elektroniska resurser. Det finns dock stora möjligheter att förbättra utformningen av dessa resurser för att bättre stödja informationssökandet. Ett sätt att informera designen är att använda informationssökande modeller som teoretiska linser för att analysera användarnas beteende med befintliga system. Men många modeller, inklusive de som är informerade genom att studera advokater, analyserar informationssökning på en hög abstraktionsnivå och kommer sannolikt bara att leda till breda designinsikter. Vi illustrerar att en potentiellt användbar (och lägre) modell är Ellis - genom att använda den som lins för att analysera och lägga fram designförslag baserade på informationssökande beteende av tjugosju akademiska advokater, som ombads att tänka högt samtidigt som elektroniska juridiska resurser för att hitta information för sitt arbete. Vi identifierar liknande informationssökande beteenden som de som Ellis och hans kollegor ursprungligen fann inom vetenskapliga områden, tillsammans med flera som inte identifierades i tidigare studier såsom "uppdatering" (vilket vi anser är särskilt relevant för juridisk informationssökning). Vi presenterar också en förfining av Ellis modell baserad på identifiering av flera nivåer som beteendena befanns fungera på och identifiering av uppsättningar av ömsesidigt uteslutande undertyper av beteenden. Nyckelord: informationssökande modeller, HCI, juridik, advokat, digitalt bibliotek, beteende, Ellis Informationssökning är en viktig del av advokatarbetet och till skillnad från många andra yrken har juristyrket tillgång till många dedikerade elektroniska resurser. Viktiga exempel är de uppmärksammade kommersiella plattformarna LexisNexis och Westlaw (som av juristyrket vanligtvis kallas juridiska databaser, men som också kan betraktas som digitala juridiska bibliotek). Trots att advokater har tillgång till dessa resurser är det ofta svårt att söka juridisk information, vilket gör dem intressanta att studera. En stor del av problemet kan bero på att digitala rättsbibliotek traditionellt har ansetts svåra att använda. I en av de få användarcentrerade studierna på digitala juridiska bibliotek genomförde Vollaro & Hawkins (1986) intervjuer med patentadvokater vid AT&T Bell Laboratories, med fokus på deras informationssökningsbeteende. Nästan alla advokater nämnde svårigheter att hitta lämpliga sökord och komma ihåg de speciella egenskaperna hos varje resurs, särskilt när användningen var sällsynt. Andra problem var inte att veta när alla möjliga vägar hade följts och glömma kommandon. I en annan användarcentrerad studie, Yuan (1997) övervakade LexisNexis Quicklaw sökningar av en grupp juridikstudenter över ett år och fann erfarenheten inte resulterat i minskade fel eller ökad fel återvinning. Yuan fann också att vissa kommandon sällan eller aldrig användes, men juridikstudenter kunde utföra många uppgifter genom att bara känna till en grundläggande uppsättning kommandon. Även om detta kan göra det möjligt för advokater att klara sig, hävdar vi att det finns ett behov av att förbättra utformningen av dessa resurser för att bättre stödja advokater och deras arbete. För att förbättra utformningen av digitala juridiska bibliotek, och nära kopplat till en av motiven i denna speciella fråga, föreslår vi behovet av att utveckla en bättre förståelse av advokaters informationssökande beteende med befintliga system. Ett sätt att uppnå denna förståelse är genom att använda teoretiska informationssökande modeller som linser för identifiering, analys och beskrivning av deras beteende. I resten av detta dokument lyfter vi fram att många modeller (inklusive Leckie et al.I 1996 års modell, som undersöker advokaters beteende, analyseras informationssökande på en hög abstraktionsnivå. Vi föreslår att även om detta kan leda till breda designinsikter för interaktiva system, kan rikare data och detaljerade designinsikter uppnås genom att använda modeller som analyserar data på en lägre abstraktionsnivå. | Makri et al Ref utvidgade detta arbete med fokus på de informationsbeteenden som observerats inom det juridiska yrket. | 2,305,779 | Investigating the Information-Seeking Behaviour of Academic Lawyers: From Ellis’s Model to Design | {'venue': 'Information Processing and Management', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 583 |
Trots att vi i allt större utsträckning förlitar oss på mobiltelefoner för ett brett utbud av dagliga uppgifter är deras funktion fortfarande till stor del ogenomskinlig. Ett antal tidigare studier har behandlat delar av detta problem på ett partiellt sätt, handel utanför analytiskt omfattande och utbyggnad skala. Vi övervinner hindren för storskalig distribution (t.ex. kräver rotade enheter) och omfattande tidigare insatser genom att ta ett nytt tillvägagångssätt som utnyttjar VPN API på mobila enheter för att designa Haystack, en mobil mätplattform på plats som fungerar uteslutande på enheten, vilket ger full tillgång till enhetens nätverkstrafik och lokala sammanhang utan att kräva root access. Vi presenterar utformningen av Haystack och dess genomförande i en Android-app som vi distribuerar via vanliga distributionskanaler. Med hjälp av data som samlats in från 450 användare av appen, exemplifierar vi fördelarna med Haystack över toppmoderna och demonstrerar dess sömlösa upplevelse även under krävande förhållanden. Vi demonstrerar också dess nytta för användare och forskare när det gäller att karakterisera mobiltrafik och integritetsrisker. Liknar tidigare metoder [52], Haystack utnyttjar Android standard VPN-gränssnitt för att fånga utgående paket från program. Men snarare än att dunkla paketen till en fjärr VPN-server för inspektion, stoppar Haystack, inspekterar och vidarebefordrar användarens trafik till den avsedda destinationen. Detta tillvägagångssätt ger oss rå paket-nivå tillgång till utgående paket samt flödes-nivå åtkomst till inkommande trafik utan att ändra nätverksvägen, och utan att kräva behörigheter utöver de som krävs av VPN-gränssnittet. Haystack har därför förmågan att övervaka nätverksaktiviteten i rätt sammanhang genom att arbeta lokalt på enheten. Till exempel kan en TCP-anslutning associeras med en specifik DNS-lookup och båda kan kopplas till den ursprungliga ansökan. Dessutom designar vi Haystack för att vara extensible med nya analyser och mätningar som läggs till med tiden (t.ex. genom att lägga till nya protokolltolkar och genom att stödja avancerade mätmetoder som reaktiva mätningar [10]), och nya funktioner för att locka och utbilda användare (t.ex., annonsblock, malware upptäckt, sekretessläckage förebyggande och nätverk felsökning). Haystack är offentligt tillgänglig för vem som helst att installera på Google Play och har installerats av 450 användare hittills [40]. Vi diskuterar utformningen och genomförandet av Haystack i §3 och §4 och utvärderar dess prestanda och resursanvändning i §5. Våra tester visar att Haystack levererar tillräckligt med dataflöde (26-55 Mbps) vid låga latensvärden (2-3 ms) för att driva högpresterande och fördröjningskänsliga applikationer som HD-videoströmning och VoIP utan märkbar prestandanedbrytning för användaren. Medan vi anser vår Haystack implementering prototypiska i vissa avseenden (såsom UI användbarhet för icke-tekniska användare), har det redan gett intressanta insikter i appanvändning i det vilda: i §6 presenterar vi preliminära resultat om antagandet av krypteringstekniker, rapportera om lokal nätverkstrafik interagerar med IoT-enheter, undersöka app härkomst och användningen av tredjeparts tracker tjänster, och ge en syn på potentiella framtida tillämpningar. | I det senaste arbetet i REF föreslås Haystack-systemet som syftar till att möjliggöra diskret och omfattande övervakning av nätverkskommunikation på mobiltelefoner helt och hållet från användarutrymmet. | 4,308,476 | Haystack: A Multi-Purpose Mobile Vantage Point in User Space | {'venue': None, 'journal': 'arXiv: Networking and Internet Architecture', 'mag_field_of_study': ['Computer Science']} | 584 |
Vi presenterar en modell som använder en enda förstapersonsbild för att generera en egocentrisk basketrörelsesekvens i form av en 12D kamera konfigurationsbana, som kodar en spelares 3D-plats och 3D-huvud orientering genom hela sekvensen. För att göra detta introducerar vi först ett framtida konvolutionellt neuralt nätverk (CNN) som förutsäger en inledande sekvens av 12D-kamerakonfigurationer, som syftar till att fånga hur verkliga spelare rör sig under en en-mot-ett basketmatch. Vi introducerar också ett målkontrollnätverk, som utbildas för att verifiera att en viss kamerakonfiguration överensstämmer med de slutliga målen för riktiga basketspelare en mot en. Därefter föreslår vi ett omvänt syntesförfarande för att syntetisera en förfinad sekvens av 12D-kamerakonfigurationer som (1) tillräckligt matchar de initiala konfigurationer som förutspås av den framtida CNN, medan (2) maximerar utgången av målkontrollantens nätverk. Slutligen, genom att följa den bana som är resultatet av den förfinade kamerakonfigurationssekvensen, får vi den fullständiga 12D rörelsesekvensen. Vår modell genererar realistiska basket motion sekvenser som fångar målen för verkliga spelare, outperforming standard djupt lärande metoder såsom återkommande neurala nätverk (RNNs), långa kortsiktiga minnesnätverk (LSTMs) och generativa kontrariska nätverk (GANs). | Bertasius m.fl. REF tog upp problemet med rörelseplanering för att generera en egocentrisk basketrörelsesekvens i form av en 12-d kamerakonfigurationsbana. | 3,665,577 | Egocentric Basketball Motion Planning from a Single First-Person Image | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 585 |
ABSTRACT Att hitta genomiskt avstånd baserat på genordning är ett klassiskt problem i genomomläggningar. Effektiva exakta algoritmer för genomiska avstånd baserade på inversioner och/eller translokaliseringar har hittats men är komplicerade av speciella fall, sällsynta i simuleringar och empiriska data. Vi söker en universell operation som ligger till grund för en mer inkluderande uppsättning evolutionära operationer och som ger ett dragbart genomiskt avstånd med enkel matematisk form. Resultat: Vi studerar en universell dubbel-och-join drift som står för inversioner, translokaliseringar, fissioner och fusioner, men också producerar cirkulära intermediärer som kan återabsorberas. Det genomiska avståndet, som kan beräknas i linjär tid, ges av antalet brytpunkter minus antalet cykler (b − c) i jämförelsediagrammet för de två genomen; antalet hinder går inte in i det. Utan att ändra formeln kan vi ersätta generering och återabsorption av en cirkulär intermediär med ett generaliserat införlivande, vilket motsvarar ett blockutbyte, med vikt två. Vår enkla algoritm omvandlar en multilinjär kromosomgenom till en annan i minsta avstånd. | För att förenkla de befintliga algoritmerna, Yancopooulos et al. uppfann dubbelskärning och gå med operatör, som kan simulera reverseringar och block utbyten (en mer generaliserad form av ett införlivande), vilket resulterar i en enkel och effektiv algoritm REF. | 9,763,380 | Efficient sorting of genomic permutations by translocation , inversion and block interchange | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 586 |
Abstract--Identifiera avvikelser snabbt och exakt är avgörande för en effektiv drift av stora datornätverk. Exakt karakterisera viktiga klasser av avvikelser underlättar i hög grad deras identifiering, men de subtiliteter och komplexiteter av avvikande trafik kan lätt förbrylla denna process. I det här dokumentet rapporterar vi resultat av signalanalys av fyra klasser av avvikelser i nätverkstrafiken: avbrott, flashpubliker, attacker och mätfel. Data för denna studie består av IP-flöde och SNMP-mätningar som samlats in under en sexmånadersperiod vid gränsroutraren vid ett stort universitet. Våra resultat visar att wavelet filter är ganska effektiva på att avslöja detaljerna i både omgivande och avvikande trafik. Specifikt visar vi att ett pseudo-spline filter avpassat på specifika aggregeringsnivåer kommer att avslöja distinkta egenskaper för varje klass av anomali. Vi visar att ett effektivt sätt att exponera anomalier är att upptäcka en kraftig ökning av den lokala variansen av filtrerade data. Vi utvärderar trafik anomalisignaler vid olika punkter inom ett nätverk baserat på topologiskt avstånd från anomalikällan eller destinationen. Vi visar att anomalier kan exponeras effektivt även när de aggregeras med en stor mängd extra trafik. Vi jämför också skillnaden mellan samma trafikanomalisignaler som i SNMP- och IP-flödesdata, och visar att de mer grovkorniga SNMP-data också kan användas för att effektivt exponera anomalier. | REF visar att wavelet filter är ganska effektiva för att exponera detaljer och egenskaper i omgivande och avvikande trafik. | 10,473,242 | A signal analysis of network traffic anomalies | {'venue': "IMW '02", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 587 |
Gossip-baserade kommunikationsprotokoll är tilltalande i storskaliga distribuerade applikationer såsom informationsspridning, aggregering och overlay topologi management. Detta dokument tar upp en grundläggande mekanism i centrum för alla dessa protokoll: den peer-sampling-tjänsten. Kort sagt, denna tjänst ger varje nod med kamrater att skvallra med. Vi främjar denna tjänst till nivån av en förstklassig abstraktion av ett storskaligt distribuerat system, som liknar en namntjänst som är en förstklassig abstraktion av ett lokalområdessystem. Vi presenterar ett generiskt ramverk för att genomföra en peersamplingstjänst på ett decentraliserat sätt genom att bygga och upprätthålla dynamiska ostrukturerade overlays genom att skvallra medlemsinformation i sig. Vårt ramverk generaliserar befintliga tillvägagångssätt och gör det enkelt att upptäcka nya. Vi använder detta ramverk för att empiriskt utforska och jämföra flera implementationer av peer-sampling-tjänsten. Genom omfattande simuleringsförsök visar vi att-även om alla protokoll ger en god kvalitet enhetlig slumpmässig ström av kamrater till varje nod lokalt-traditionella teoretiska antaganden om slumpmässigheten i denna tidning är en reviderad och utökad version av. Detta arbete slutfördes medan M. Jelasity var med universitetet i Bologna och S. Tillstånd att göra digitala eller hårda kopior av delar eller allt detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller direkta kommersiella fördelar och att kopior visar detta meddelande på första sidan eller första skärmen av en display tillsammans med den fullständiga citering. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar, för att omfördela till listor, eller för att använda någon komponent i detta verk i andra verk krävs förhandsgodkännande och/eller avgift. Tillstånd kan begäras från Publications Department., ACM, Inc., 2 Penn Plaza, Suite 701, New York, NY 10121-0701 USA, fax +1 (ostrukturerade overlays som helhet inte hålla i något av fallen. Vi visar också att olika designbeslut leder till allvarliga skillnader ur två avgörande aspekter: lastbalansering och feltolerans. Våra simuleringar valideras med hjälp av ett omfattande genomförande. | Icke desto mindre resulterar förverkligandet av den lägsta nivån av peer sampling service REF ) i en enhetlig kommunikation overhead mellan noderna. | 6,266,183 | Gossip-based peer sampling | {'venue': 'TOCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 588 |
Abstract-Traditional mönsterigenkänning innebär i allmänhet två uppgifter: oövervakad klusterbildning och övervakad klassificering. När man har tillgång till klassinformation är det ett viktigt problem som förtjänar att studeras, både när man samlar lärande och klassificerar lärande i en enda ram. Hittills behandlar de flesta algoritmer allmänt kluster lärande och klassificering lärande på ett sekventiellt eller två-steg sätt, dvs. först utföra kluster lärande för att utforska strukturer i data, och sedan utföra klassificering lärande på toppen av den erhållna strukturella informationen. Sådana sekventiella algoritmer kan dock inte alltid garantera den samtidiga optimaliteten för både kluster- och klassinlärning. I själva verket, kluster lärande i dessa algoritmer bara underlättar den efterföljande klassificeringen lärande och inte drar nytta av den senare. För att komma till rätta med detta problem presenteras en ram för samtidig inlärning av kluster och klassificering (SCC) i detta dokument. SCC syftar till att uppnå tre mål: 1) att uppnå en robust klassificering och klusterbildning samtidigt, 2) att utforma en effektiv och transparent klassificeringsmekanism, 3) att avslöja det underliggande sambandet mellan kluster och klasser. Med Bayesian-teorin och klungans bakåtriktade sannolikheter för klasser definierar vi därför en enda objektiv funktion som klusterprocessen är direkt inbäddad i. Genom att optimera denna objektiva funktion uppnås effektiva och robusta kluster- och klassificeringsresultat samtidigt. Experimentella resultat på både syntetiska och verkliga dataset visar att SCC uppnår lovande klassificerings- och klusterresultat samtidigt. | Klustringsuppgiften gynnas dock inte av märkningsinformation REF. | 15,150,515 | A simultaneous learning framework for clustering and classification | {'venue': 'Pattern Recognit.', 'journal': 'Pattern Recognit.', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 589 |
I denna uppsats beskriver vi våra resultat från en fältstudie som genomfördes på Vancouver Aquarium för att undersöka hur besökare interagerar med en stor interaktiv bordsutställning med hjälp av multi-touch gester. Våra resultat visar att valet och användningen av multi-touch gester påverkas inte bara av allmänna preferenser för vissa gester utan också av samspelet sammanhang och sociala sammanhang de förekommer i. Vi fann att gester inte utförs isolerat utan kopplas till sekvenser där tidigare gester påverkar bildandet av efterföljande gester. Dessutom användes gester utöver manipulering av medieartiklar för att stödja sociala möten runt bordsutställningen. Våra resultat visar hur viktigt det är med mångsidiga kartor mellan gester och deras handlingar som, förutom en-till-en-kartläggningar, kan stödja flytande övergångar mellan gester som en del av sekvenser och underlätta social informationsutforskning. | För att visa vikten av användare erfarenhet designers som tar hänsyn till olika aspekter när de definierar gester, Hinrichs och Carpendale fann i en studie med interaktiva bordsskivor, att valet och användningen av multi-touch gester påverkas av handling och sociala sammanhang där dessa gester förekommer REF. | 15,142,614 | Gestures in the wild: studying multi-touch gesture sequences on interactive tabletop exhibits | {'venue': 'CHI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 590 |
Vi föreslår nya controller syntestekniker för probabilistiska system modellerade med hjälp av stokastiska två-spelare spel: en spelare fungerar som en controller, den andra representerar sin miljö, och sannolikheten används för att fånga osäkerhet som uppstår till exempel på grund av opålitliga sensorer eller felaktiga systemkomponenter. Vårt mål är att generera robusta styrenheter som är motståndskraftiga mot oväntade systemförändringar i drifttid, och tillräckligt flexibla för att anpassas om ytterligare begränsningar behöver införas. Vi utvecklar ett efterlåtet ramverk för syntes av controller, som genererar flera strategier för controllern och erbjuder ett urval av kontrollåtgärder att vidta vid varje steg. Vi formaliserar begreppet permissivitet med hjälp av påföljder, som uppstår varje gång en eventuell kontrollåtgärd inte tillåts av en multistrategi. Permissive controller syntes syftar till att generera en multi-strategi som minimerar dessa påföljder, samtidigt som man garanterar tillfredsställelsen av en specificerad system egendom. Vi etablerar flera viktiga resultat om optimaliteten av multi-strategier och komplexiteten i syntesen av dem. Sedan utvecklar vi metoder för att utföra permissive controller syntes med hjälp av blandade heltal linjär programmering och illustrera deras effektivitet på ett urval av fallstudier. | I REF studeras syntesen av multistrategier för MDP. | 2,038,480 | Permissive Controller Synthesis for Probabilistic Systems | {'venue': 'Logical Methods in Computer Science, Volume 11, Issue 2 (June 30, 2015) lmcs:1576', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 591 |
Avrundningsfel kan inte undvikas när numeriska program genomförs med ändlig precision. Förmågan att resonera om avrundning är särskilt viktigt om man vill utforska en rad potentiella representationer, till exempel för FPGAs eller anpassade hårdvaruimplementeringar. Detta problem blir utmanande när programmet inte enbart använder linjära operationer eftersom icke-linjäritet är en naturlig del av många intressanta beräkningsproblem i verkliga tillämpningar. Befintliga lösningar på resonemang kan leda till antingen felaktiga gränser eller hög analystid i närvaro av icke-linjära korrelationer mellan variabler. Dessutom är det lätt att genomföra en enkel metod som intervall aritmetisk, sofistikerade tekniker är mindre enkelt att genomföra i en formell inställning. Det finns därför ett behov av metoder som utdatacertifikat som kan valideras formellt inuti en bevisassistent. Vi presenterar ett ramverk för att ge övre gränser på absoluta avrundning fel av flyttal-punkt icke-linjära program. Detta ramverk är baserat på optimering tekniker som använder semidefinit programmering och summor av kvadrater certifikat, som kan kontrolleras inuti Coq theorem bevis för att ge formella avrundning felgränser för polynom program. Vårt verktyg täcker ett brett utbud av icke-linjära program, inklusive polynom och transcendental verksamhet samt villkorliga uttalanden. Vi illustrerar effektiviteten och precisionen i detta verktyg på icke-triviala program som kommer från biologi, optimering och rymdkontroll. Vårt verktyg producerar mer exakta felgränser för 23% av alla program och ger bättre prestanda i 66% av alla program. | Real2Float REF beräknar certifierade gränser för avrundningsfel genom att använda en optimeringsteknik med semidefinit programmering och summan av fyrkantiga certifikat. | 1,363,666 | Certified Roundoff Error Bounds Using Semidefinite Programming | {'venue': 'TOMS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 592 |
Placering dokument eller meningar enligt både ämne och känsla relevans bör tjäna en kritisk funktion för att hjälpa användare när ämnen och känslor polariteter i den riktade texten inte uttryckligen anges, som ofta är fallet på webben. I detta dokument föreslår vi flera modeller för insamling av information om känslor inom ramen för probabilistiska språkmodeller, under förutsättning att en användare både inputs fråga termer som uttrycker ett visst ämne och även anger en känsla polaritet på något sätt. Vi kombinerar konceptrelevansmodeller och ämnesrelevansmodeller med modellparametrar som uppskattas utifrån träningsdata, med tanke på ämnets beroende av känslan. Våra experiment visar att våra modeller är effektiva. | Eguchi och Lavrenko REF föreslog flera modeller för insamling av information om känslor inom ramen för probabilistiska språkmodeller, förutsatt att användarna är villiga att ange känslornas polaritet när de skriver in frågetermer. | 8,203,481 | Sentiment Retrieval Using Generative Models | {'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 593 |
Abstract-Sociala nätverk möjliggör snabb spridning av idéer och innovationer, medan negativ information också kan spridas brett. När kaskader med olika åsikter når samma användare, är kaskaden som anländer först den mest sannolika att tas av användaren. Därför, när fel information eller rykte upptäcks, en naturlig inneslutningsmetod är att införa en positiv kaskade tävlande mot ryktet. Med tanke på en budget k, det rykte blockera problemet ber k frö användare att utlösa spridningen av den positiva kaskaden så att antalet användare som inte påverkas av rykte kan maximeras. De tidigare verken har visat att ryktet blockera problemet kan approximeras inom en faktor av (1 − 1/e − δ) av en klassisk girig algoritm i kombination med Monte Carlo simulering med körtiden av O( ), där n och m är antalet användare respektive kanter. Tyvärr är Monte-Carlo-simuleringsbaserade metoder extremt tidskrävande och de befintliga algoritmerna antingen handel prestanda garanterar praktisk effektivitet eller vice versa. I detta dokument presenterar vi en randomiserad algoritm som körs i O( km ln n δ 2 ) förväntad tid och ger en (1 − 1/e − δ) - approximation med stor sannolikhet. De experimentella resultaten på både de verkliga och syntetiska sociala nätverken har visat att den föreslagna slumpmässiga ryktesblockerande algoritmen är mycket effektivare än hjärtstatsmetoden och den kan hitta frönoder som är effektiva för att begränsa spridningen av rykten. | I REF tas problemet med ryktesblockering upp under den konkurrenskraftiga IC-modellen och en randomiserad algoritm utvecklas för valet av fröuppsättningen som kan ge maximal minskning av antalet dåligt infekterade noder. | 18,445,077 | An efficient randomized algorithm for rumor blocking in online social networks | {'venue': 'IEEE INFOCOM 2017 - IEEE Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2017 - IEEE Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']} | 594 |
Vi introducerar Torsk, en strukturerad peer-to-peer låg-latency anonymity protokoll. Torsk är utformad som en interoperabel ersättning för reläurval och katalogtjänst för det populära Tor anonymitetsnätverket, som minskar bandbreddskostnaden för reläurval och underhåll från kvasilinear till kvasilinear samtidigt som inga nya attacker på anonymiteten som Tor tillhandahåller, och ingen ytterligare fördröjning av anslutningar som görs via Tor. Den resulterande bandbreddsbesparingar gör ett blygsamt stort Torsk-nätverk betydligt billigare att driva, och tillåter lågbandsbredd kunder att ansluta sig till nätverket. Till skillnad från tidigare förslag till P2P-anonymitetssystem kräver inte Torsk att alla användare vidarebefordrar trafik till andra. Torsk använder en kombination av två P2P-lookup-mekanismer med kompletterande styrkor för att undvika angrepp på sekretess och integritet av lookups. Vi visar genom analys att tidigare kända attacker på P2P anonymitetssystem inte gäller för Torsk, och rapporterar om experiment som genomförts med en 336-node bred område utbyggnad av Torsk, visar sin effektivitet och genomförbarhet. | Torsk REF, i synnerhet, använder en kombination av två p2p uppslagningsmekanismer, för att bevara sekretess och integritet av uppslagningar. | 13,970,612 | Scalable onion routing with torsk | {'venue': 'ACM Conference on Computer and Communications Security', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 595 |
Det finns ett ökande intresse för vektor-rymd ord inbäddningar och deras användning i NLP, särskilt med tanke på de senaste metoderna för deras snabba uppskattning i mycket stor skala. Nästan allt detta arbete, dock antar en enda vektor per ord typ-ignoring polysemy och därmed äventyra deras användbarhet för nedströms uppgifter. Vi presenterar en förlängning till Skip-gram-modellen som effektivt lär sig flera inbäddningar per ordtyp. Det skiljer sig från det senaste relaterade arbetet genom att gemensamt utföra diskriminering av ordförnimmelser och inbädda lärande, genom att icke-parametriskt uppskatta antalet sinnen per ordtyp, och genom dess effektivitet och skalbarhet. Vi presenterar nya state-of-the-art resultat i ordet likhet i sammanhang uppgift och visar sin skalbarhet genom att träna med en maskin på en corpus på nästan 1 miljard polletter på mindre än 6 timmar. | REF utökar även skip-gram med flera prototyper där antalet sinnen per ord bestäms av en icke-parametrisk metod. | 15,251,438 | Efficient Non-parametric Estimation of Multiple Embeddings per Word in Vector Space | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 596 |
Vi betraktar molekylär kommunikation, med information som förmedlas i tiden för frisättning av molekyler. Det viktigaste bidraget i detta dokument är utvecklingen av en teoretisk grund för ett sådant kommunikationssystem. Specifikt utvecklar vi additiv invers Gaussian (IG) bullerkanal modell: en kanal där informationen är korrumperad av buller med en omvänd Gaussian distribution. Vi visar att en sådan kanalmodell är lämplig för molekylär kommunikation i flytande medier - när spridning mellan sändare och mottagare styrs av Brownian rörelse och när det finns positiv drift från sändare till mottagare. Med hjälp av tillgänglig litteratur om IG-distributionen utvecklas övre och nedre gränser för kanalkapacitet, och en maximal sannolikhet för mottagare erhålls. Teori- och simuleringsresultat presenteras som visar att en sådan kanal inte har ett enda kvalitetsmått som är jämförbart med signal-till-brus-förhållandet i AWGN-kanalen. Det visas också att användningen av flera molekyler leder till minskad felfrekvens på ett sätt som liknar mångfaldsordning i trådlös kommunikation. Slutligen diskuterar vi några öppna problem inom molekylär kommunikation som uppstår från IG-systemets modell. | I REF, Det visas att additiv invers Gaussian buller kan användas för att modellera den molekylära timing kanalen där informationen kodas in i frisättningstiden för molekylerna i vätskemediet med drift. | 8,543,405 | Molecular communication in fluid media: The additive inverse Gaussian noise channel | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 597 |
Klyftan mellan rådata från olika datakällor och de olika intelligenta tillämpningarna har varit ett hinder när det gäller händelseanalys i sociala nätverk online. De flesta befintliga analyssystem fokuserar på data från en viss online plattform för sociala nätverk och ett begränsat utbud av analysapplikationer. För att på ett heltäckande sätt förstå händelser omfattar datakällorna vanligtvis flera sociala nätverksplattformar på nätet och olika befintliga corpora. Därför är det nödvändigt att bygga en bro för att hantera sociala data online från olika källor och stödja olika analys tillämpningskrav. I detta dokument föreslås en enhetlig semantisk modell för händelseanalys. Modellen innehåller väl utformade klasser och egenskaper för att ta itu med bristen på enhetlig representation, och härkomstinformation beaktas också. Resonemanget stöds för att kontrollera uppgifternas överensstämmelse och för att upptäcka dold kunskap såsom underförstådd klassificering och implicita relationer. Schemakartläggnings- och datatransformeringsmetoderna tillhandahålls för att hantera heterogena data från olika sociala nätverksplattformar och dataset online. Utformningen av cross-media händelseanalyssystemet presenteras också. Jämförelsen visar fördelarna med detta dokument. Fallstudien visar tillämpligheten och effektiviteten i vår modell och vårt system. Online social nätverksanalys, dataplattform, datamodell, semantisk webb. | Fang m.fl. I Ref föreslogs också en ontologi för att aggregera data från olika sociala nätverkssajter för händelseanalysändamål. | 85,499,412 | A Unified Semantic Model for Cross-Media Events Analysis in Online Social Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 598 |
Vi föreslår en enande algoritm för icke-smooth icke-konvex optimering. Algoritmen approximerar den objektiva funktionen genom en konvex modellfunktion och finner en ungefärlig (Bregman) proximal punkt i konvexa modellen. Denna ungefärliga minimering av modellen funktionen ger en nedstigning riktning, längs vilken nästa iterera hittas. Kompletterat med en Armijo-liknande linjesökningsstrategi får vi en flexibel algoritm för vilken vi bevisar (subsequential) konvergens till en stationär punkt under svaga antaganden om tillväxten av modellen funktionsfel. Särskilda fall av algoritmen med en Euclidean distansfunktion är till exempel Gradient Descent, Forward-Backward Splitting, ProxDescent, utan det gemensamma kravet på en "Lipschitz kontinuerlig gradient". Dessutom anser vi att en bred klass av Bregman avståndsfunktioner (genererade av Legendre funktioner) ersätter Euclidean avstånd. Algoritmen har ett brett spektrum av tillämpningar inklusive många linjära och icke-linjära inversa problem i bildbehandling och maskininlärning. | I REF föreslogs en utvidgning av ramen till att omfatta ett allmänt icke-smooth första ordningens orakel och ett flexibelt val av Bregman-avstånd. | 20,324,539 | Non-smooth Non-convex Bregman Minimization: Unification and new Algorithms | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 599 |
Under det senaste årtiondet har man fått stor uppmärksamhet bland praktiker och forskare för att lösa komplexa optimeringsproblem med metaheuristiska algoritmer. Därför har många metaheuristiska algoritmer utvecklats under de senaste åren. Många av dessa algoritmer är inspirerade av olika naturfenomen. I detta dokument introduceras en ny populationsbaserad algoritm, Lion Optimization Algorithm (LOA). Särskild livsstil av lejon och deras samarbetsegenskaper har varit den grundläggande motivationen för utvecklingen av denna optimeringsalgoritm. Några referensproblem väljs ut ur litteraturen, och lösningen av den föreslagna algoritmen har jämförts med några välkända och nyaste meta-heuristik för dessa problem. De erhållna resultaten bekräftar den föreslagna algoritmens höga prestanda i jämförelse med de andra algoritmer som används i detta dokument. | Yazdani och Jolai REF har föreslagit en metaheuristisk algoritm kallad Lion Optimization Algoritm (LOA) för funktionsoptimering baserad på lejontruppernas beteende. | 2,472,927 | Lion Optimization Algorithm (LOA): A nature-inspired metaheuristic algorithm | {'venue': 'J. Comput. Des. Eng.', 'journal': 'J. Comput. Des. Eng.', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 600 |
Strömförbrukning är en mycket viktig fråga för HPC-gemenskapen, både för en applikation eller för hela arbetsbelastningen. Ladda obalans av en MPI-applikation kan utnyttjas för att spara CPU-energi utan att straffa verkställighetstiden. Ett program är last obalans när vissa noder tilldelas mer beräkning än andra. Noderna med mindre beräkning kan köras på lägre frekvens eftersom annars de måste vänta på noderna med mer beräkning blockeras i MPI samtal. En teknik som kan användas för att minska hastigheten är Dynamisk spänningsfrekvensskalning (DVFS). Dynamisk effektavledning är proportionell mot produkten av frekvensen och kvadraten på matningsspänningen, medan statisk effekt är proportionell mot matningsspänningen. På så sätt minskar spänningen och/eller frekvensen effekten. Dessutom kan överklockning tillämpas i vissa processorer för att minska den totala verkställighetstiden. Detta papper undersöker effekten av att använda olika växlar uppsättningar, överklockning, och tillämpning och plattform rekvisitioner för att minska CPU-kraft. En ny algoritm som tillämpar DVFS och CPU överklockning föreslås som minskar exekveringstiden samtidigt uppnå effektbesparingar jämförbara med tidigare arbete. Resultaten visar att det är möjligt att spara upp till 60% av CPU-energin i applikationer med hög belastning obalans. Våra resultat visar att sex växelset i genomsnitt uppnår resultat nära den kontinuerliga frekvensset som har använts som baslinje. | REF föreslår en teknik som tillämpar både DVFS och överklockning på processorer för att spara energi och för att förbättra genomförandetiden. | 1,515,283 | Power-aware load balancing of large scale MPI applications | {'venue': '2009 IEEE International Symposium on Parallel & Distributed Processing', 'journal': '2009 IEEE International Symposium on Parallel & Distributed Processing', 'mag_field_of_study': ['Computer Science']} | 601 |
Vi beskriver här en matematisk modell av adaptiv dynamik av ett transportnätverk av den sanna slem mögel Physarum polycefalum, en amoeboid organism som uppvisar väg-finnande beteende i en labyrint. Denna organism har ett nätverk av tubulära element, genom vilka näringsämnen och signaler cirkulerar genom plasmodium. När organismen sätts i en labyrint, ändrar nätverket sin form för att ansluta två utgångar genom den kortaste vägen. Denna process för att hitta vägar tillskrivs en underliggande fysiologisk mekanism: ett rör tjocknar när flödet genom det ökar. Experimentella bevis för detta är dock endast kvalitativa. Vi byggde en matematisk modell av rördynamikens allmänna form. Vår modell innehåller en nyckelparameter som motsvarar omfattningen av återkopplingsregleringen mellan tjockleken på ett rör och flödet genom det. Vi demonstrerar beroendet av modellens beteende på denna parameter. | Den matematiska modellen av Physarum polycefalum, som uppvisar beteende av sökväg fynd i en labyrint, beskrevs av Tero et al. Hoppa över det. | 18,416,048 | A mathematical model for adaptive transport network in path finding by true slime mold | {'venue': 'Journal of theoretical biology', 'journal': 'Journal of theoretical biology', 'mag_field_of_study': ['Biology', 'Medicine']} | 602 |
GPU arkitekturer blir allt viktigare i multi-core eran på grund av deras höga antal parallella processorer. Programmering tusentals massiva parallella trådar är en stor utmaning för programvaruingenjörer, men att förstå prestanda flaskhalsar av dessa parallella program på GPU arkitekturer för att förbättra programprestanda är ännu svårare. De nuvarande metoderna bygger på att programmerare justerar sina tillämpningar genom att utnyttja designutrymmet på ett uttömmande sätt utan att helt förstå prestandaegenskaperna hos deras tillämpningar. För att ge insikter i prestandaflaskhalsarna hos parallella applikationer på GPU-arkitekturer föreslår vi en enkel analytisk modell som uppskattar tiden för exekvering av massiva parallella program. Den viktigaste komponenten i vår modell är att uppskatta antalet parallella minnesförfrågningar (vi kallar detta för minnesvarpparallalism) genom att beakta antalet löpande trådar och minnesbandbredd. Baserat på graden av minnesvarpparallalism beräknar modellen kostnaden för minnesförfrågningar och beräknar därmed den totala genomförandetiden för ett program. Jämförelser mellan resultatet av modellen och den faktiska genomförandetiden i flera GPU:er visar att det geometriska medelvärdet av absolut fel i vår modell på mikro-benchmarks är 5,4% och på GPU computing applikationer är 13,3%. Alla ansökningar är skrivna på CUDA programmeringsspråk. | Hong et al REF beskriver en analytisk modell som uppskattar exekveringstiden för GPU-kärnor. | 207,173,155 | An analytical model for a GPU architecture with memory-level and thread-level parallelism awareness | {'venue': "ISCA '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 603 |
Abstract-The reality gap, som ofta gör att regulatorer utvecklas i simulering ineffektivt när de väl överförts till den fysiska roboten, förblir en kritisk fråga inom evolutionär robotik (ER). Vi antar att detta gap belyser en konflikt mellan simuleringslösningarnas effektivitet och deras överförbarhet från simulering till verklighet: de mest effektiva simuleringslösningarna utnyttjar ofta dåligt modellerade fenomen för att uppnå höga träningsvärden med orealistiska beteenden. Denna hypotes leder till överförbarheten, en multiobjektiv formulering av ER där två huvudsakliga mål optimeras via en Paretobaserad multiobjektiv evolutional algoritm: 1) lämpligheten, och 2) överförbarheten, uppskattas av en simulering-till-verklighet (STR) skillnad åtgärd. För att utvärdera detta andra mål byggs en surrogatmodell av den exakta STR-skillnaden under optimeringen. Denna överförbarhetsmetod har jämförts med två verklighetsbaserade optimeringsmetoder, en bullerbaserad metod som inspirerats av Jakobis minimala simuleringsmetod och en lokal sökmetod. Den har validerats för två robotapplikationer: 1) en navigeringsuppgift med en e-puck robot; och 2) en vandringsuppgift med en 8-DOF fyrsidig robot. För båda experimentuppställningarna finner vi med framgång effektiva och välöverförbara regulatorer endast med ett tiotal experiment på den fysiska roboten. | Koos m.fl. I Ref föreslogs den överförbarhetsmetod som syftar till att säkerställa en framgångsrik överföring av kontroll som utvecklats i simulering till verklig robothårdvara. | 3,415,994 | The Transferability Approach: Crossing the Reality Gap in Evolutionary Robotics | {'venue': 'IEEE Transactions on Evolutionary Computation', 'journal': 'IEEE Transactions on Evolutionary Computation', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 604 |
Detta dokument handlar om problemet med frågesökning. I fråga sökande, givet en fråga som fråga, ska vi returnera frågor semantiskt likvärdiga eller nära till den frågade frågan. I detta dokument föreslår vi att vi gör frågesökningar genom att identifiera frågeämne och frågefokus. Mer specifikt sammanfattar vi först frågorna i en datastruktur som består av frågeämne och frågefokus. Sedan modellerar vi frågeämne och frågefokus i ett språkmodelleringssystem för sökning. Vi föreslår också att använda den MDL-baserade trädskärningsmodellen för att identifiera frågeämne och frågefokus automatiskt. Experimentella resultat indikerar att vårt tillvägagångssätt att identifiera frågeämne och frågefokus för sökning betydligt överträffar baslinjemetoderna såsom Vector Space Model (VSM) och Language Model for Information Retrieval (LMIR). | Duan m.fl. Ref identifierade frågeämnet och fokuserade på en sammansatt datastruktur. | 16,457,255 | Searching Questions by Identifying Question Topic and Question Focus | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 605 |
Strukturerad utgång stöd vektor maskin (SVM) baserad spårning algoritmer har visat gynnsamma prestanda nyligen. Icke desto mindre begränsar den tidsödande kandidatprovtagningen och den komplexa optimeringen deras realtidstillämpningar. I detta dokument föreslår vi en ny stor marginal objektspårning metod som absorberar den starka diskriminerande förmåga från strukturerad utdata SVM och hastigheter upp av korrelationsfiltret algoritm avsevärt. För det andra föreslås en multimodal teknik för att upptäcka mål för att förbättra precisionen i lokaliseringen och förhindra modelldrift som införs av liknande objekt eller bakgrundsbuller. För det tredje utnyttjar vi återkopplingen från resultat med hög tillförlitlighet för att undvika problemet med modellkorruption. Vi implementerar två versioner av den föreslagna tracker med representationer från både konventionella handgjorda och djupa konvolution neurala nätverk (CNNs) baserade funktioner för att validera den starka kompatibiliteten hos algoritmen. De experimentella resultaten visar att den föreslagna spåraren presterar överlägset mot flera toppmoderna algoritmer på de utmanande referenssekvenserna medan den körs i hastighet över 80 bilder per sekund. * Korresponderande författare att utforska en effektiv spårningsalgoritm som kan utformas för att antingen vara diskriminerande [17, 9, 13, 15, 22, 1, 31] eller generativ [24, 18, 16, 33] modeller. Det syftar till att konstruera en robust klassificering eller filter för att upptäcka målet, och skapa en optimal mekanism för att uppdatera modellen vid varje ram. Den andra är att utnyttja kraften i den målrepresentation som kan komma från konventionella hantverksfunktioner [16, 18, 17, 9, 24] eller högnivåkonvolutionella funktioner [15, 28, 23, 27, 21] från djupa konvolutionella neurala nätverk (CNN). Dessa metoder förbättrar prestandan avsevärt från olika aspekter. För att ytterligare förbättra prestandan genom mer komplexa spårningsalgoritmer eller funktioner skulle det dock utan tvekan öka beräknings komplexiteten, vilket skulle begränsa prestandan i realtid för visuell spårning. | Wang m.fl. REF föreslog en visuell spårningsmetod med stor marginal med cirkulära funktionskartor, som använde en multimodal detektionsteknik för att undvika avdrift. | 3,075,532 | Large Margin Object Tracking with Circulant Feature Maps | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 606 |
Detta dokument utvecklar en energihanteringsplattform för intelligenta byggnader med hjälp av ett SCADA-system (Supervisory Control and Data Acquisition). Detta SCADA-system integrerar olika typer av information som kommer från de olika tekniker som finns i moderna byggnader (kontroll av ventilation, temperatur, belysning osv.). Den utvecklade kontrollstrategin implementerar en hierarkisk kaskadregulator där innerslingor utförs av lokal PLC (Programmerbar Logic Controller), och ytterslingan hanteras av ett centraliserat SCADA-system som interagerar med hela det lokala PLC-nätverket. I detta dokument implementeras en prediktiv styrenhet ovanför den centraliserade SCADA-plattformen. Tester som tillämpas för kontroll av temperatur och luminositet i stora utrymmen presenteras. Den utvecklade prediktiva styrenheten optimerar tillfredsställelsen av användarens explicita preferenser som kommer från flera distribuerade användargränssnitt, utsatta för de övergripande begränsningarna av energiavfallshantering minimering. För att köra den prediktiva styrenheten med SCADA-plattformen utvecklades en kommunikationskanal för att möjliggöra kommunikation mellan SCADA-systemet och Matlab-applikationen där den prediktiva styrenheten körs. | Figueiedoet al in REF utvecklade en energihanteringsplattform för intelligenta byggnader med hjälp av ett SCADA-system. | 55,950,369 | A SCADA system for energy management in intelligent buildings | {'venue': None, 'journal': 'Energy and Buildings', 'mag_field_of_study': ['Engineering']} | 607 |