source
stringclasses
4 values
title
stringlengths
5
287
keywords
stringlengths
6
1.23k
summary
stringlengths
11
5.12k
content
stringlengths
2
164k
url
stringlengths
33
173
habrahabr
Как ИТ-специалисты празднуют Новый год (инфографика опроса)
['мой круг', 'moikrug.ru', 'новый год', 'корпоративная культура', 'hr-brand']
Приближается Новый год, и мы решили выяснить, как отмечают этот грандиозный праздник ИТ-специалисты. Как всегда, мы опросили пользователей «Моего круга» и «Хабрахабра», в опросе приняли участие...
Приближается Новый год, и мы решили выяснить, как отмечают этот грандиозный праздник ИТ-специалисты. Как всегда, мы опросили пользователей «Моего круга» и «Хабрахабра», в опросе приняли участие более 2200 человек. Опрос проходил за 3 недели до Нового года и состоял из двух частей: в первой части мы выясняли, как ИТ-специалисты отмечают Новый год лично, а во второй — как новогодний праздник встречают в компаниях. Выяснилось, что для ИТ-специалистов Новый год — это традиционный семейный и домашний праздник, на котором принято ставить ёлку, готовить «Оливье», пить шампанское и смотреть поздравление президента. При этом есть небольшие географические и профессиональные нюансы. В большинстве компаний принято отмечать праздник новогодним корпоративом, который чаще всего проходит в ресторане, с алкоголем и высшим руководством. Также в компаниях развита традиция ставить ёлку и поздравлять подарками своих сотрудников и клиентов. За всеми подробностями и инфографикой добро пожаловать в публикацию. Введение. Портрет участника опроса Начнём, традиционно, с краткого описания участника нашего опроса. Какова ваша текущая специализация? 80% нашей ИТ-аудитории — это разработчики, тестировщики и администраторы. В компании какого типа вы работаете, в каком регионе находится ваш офис? Большинство нашей аудитории работает в небольших частных компаниях. Чуть меньше занято в крупных частных компаниях. В Москве сосредоточена треть всех специалистов. Другая треть приходится на Санкт-Петербург и города-миллионники. Однако при более детальном рассмотрении, видим, что в столицах преобладает занятость в крупных компаниях, а в провинции — в небольших компаниях. Занятость в государственном секторе чуть более распространена в регионах. Часть первая. Индивидуальное празднование Нового года Теперь перейдём собственно к самому опросу. Начнём с празднования каждым в отдельности. Вы, лично, будете праздновать Новый год? Как относитесь к таким длинным праздникам? Подавляющее большинство, почти 90% опрошенных, празднует Новый год. Все дальнейшие вопросы про нюансы проведения праздника задавались только им. Где географически и территориально собираетесь встретить Новый год? Новый год — это «домашний» праздник: подавляющее большинство отмечает этот праздник в своём родном городе у себя в квартире. С кем будете встречать Новый год? Новый год по-прежнему — преимущественно семейный праздник. В странах СНГ, а также в других странах, чуть реже встречают Новый год с родственниками и чуть чаще — с друзьями, чем в других местах. В других странах чуть больше людей, проводящих Новый год в одиночестве. ИТ-гуманитарии, а также администраторы и разработчики ПО, чаще предпочитают встречать Новый год с семьёй чуть чаще, чем ИТ-разработчики, а также продажники. Среди продажников и менеджеров чаще других встречаются люди, проводящие Новый Год в одиночестве. Ставите ли вы ёлку в Новый год? Из тех, кто празднует Новый год, подавляющее большинство устанавливают ёлку. Живая ёлка — только одна из трёх; большинство — искусственные. Есть небольшие региональные и профессиональные особенности. За границей наши люди чуть чаще других ставят живые ёлки и ветки, в Москве — чуть реже других. ИТ-гуманитарии, а также тестировщики и разработчики приложений, предпочитают живые ёлки чуть чаще, чем ИТ-разработчики, вместе с продажниками. Какие из нижеперечисленных традиций поддерживаете? Салат «Оливье», шампанское и новогоднее поздравление президента — самые сильные новогодние традиции, которые поддерживает подавляющее большинство! Что планируете делать во время новогодних каникул? Будете ли брать отпуск, чтобы удвоить отдых? Большинство предпочитает проводить Новый год с семьёй. Практика добавлять к праздничным дням отпускные дни не слишком распространена. Часть вторая. Корпоративное празднование Нового года Переходим ко второй части нашего опроса, в которой выясним, как справляют Новый год в ИТ-компаниях. Будет ли в вашей компании новогодний корпоратив? Будет ли отдельное мероприятие для детей? Как минимум в двух компаниях их трёх проводится новогодний корпоратив. Как минимум в одной компании из пяти — дополнительный праздник для детей сотрудников. Новогодний корпоратив чаще проводят в крупных частных компаниях, а реже — в стартапах. В зарубежных странах новогодний корпоратив случается реже, чем в России или странах СНГ. Что любопытно, в Москве новогодний корпоратив проводят чуть реже, чем в других городах, хотя именно в столице, как мы видели раньше, больше всего занятых в крупных частных компаниях, и тут можно было бы ожидать наибольшей частоты корпоративов. Что ещё характерно, в Москве наибольший процент неопределённости по поводу корпоратива: за три недели до Нового года тут всё ещё многие не знают, будет ли он проходить вообще. В каком формате будет корпоратив и в каких числах? Самый популярный формат корпоратива — ресторан. Большинство компаний предпочитают организовывать новогодний праздник ближе всего к дате праздника. Кто занимается организацией новогоднего корпоратива? Как вы о нём узнали? Будет ли на новогоднем корпоративе алкоголь? А будет ли высшее руководство? В подавляющем большинстве компаний корпоратив проходит при участии высшего руководства и с алкоголем. Собираетесь ли вы принять участие в новогоднем корпоративе? Как относитесь к нему в целом? Как минимум две трети ИТ-сотрудников планируют участвовать в новогоднем корпоративе. Подавляющее большинство относится к нему положительно. Поздравляет ли ваша компания сотрудников с Новым годом? А поздравляет ли клиентов, партнёров и поставщиков? Как минимум, в каждой четвёртой компании принято дарить материальные подарки своим сотрудникам, а в каждой третьей — клиентам, партнёрам и поставщикам. В крупных компаниях гораздо чаще принято дарить новогодние подарки своим клиентам. Поэтому неудивительно, что такая инициатива чаще случается в столицах и крупных городах, где больше всего крупных частных компаний. Устанавливаете ли вы в офисе ёлку, играете ли в анонимных дедов морозов? Как минимум в каждой второй компании ставят новогоднюю ёлку, как минимум в каждой пятой играют в анонимных дедов морозов (Secret Santa на Западе). Поздравляете ли вы коллег с Новым годом? Как минимум, в каждой пятой компании коллеги дарят друг другу новогодние подарки. Гораздо чаще это делают ИТ-гуманитарии, а гораздо реже ИТ-разработчики, а также продажники и маркетологи. У последних, наверное, слишком много коллег, чтобы всем делать подарки. Все диаграммы подготовлены с помощью сервиса infogr.am .
https://habrahabr.ru/company/moikrug/blog/318488/
habrahabr
РВК и Белинфонд создают совместный венчурный фонд для поддержки стартапов
['РВК', 'фонд', 'Белинфонд', 'инвестиции', 'стартап', 'Россия', 'Беларусь']
Российская венчурная компания со своими коллегами из Белорусского инновационного фонда подписали документы о создании совместного венчурного фонда с капиталом в 1,4 млрд российских рублей для...
Российская венчурная компания со своими коллегами из Белорусского инновационного фонда подписали документы о создании совместного венчурного фонда с капиталом в 1,4 млрд российских рублей для финансирования стартапов на территории Российской Федерации и Республики Беларусь, сообщают «Ведомости» . 50% от этой суммы предоставит Белинфонд, 49% — РВК, еще 1% будет привлечен из Инфрафонда РВК. Финансирование российским и белорусским стартапам будет предоставляться в примерно равных пропорциях. Главной целью фонда станет поддержка проектов в области IT, биотехнологий и фармацевтики. Участие фонда в стартапе не будет превышать 49%, а не менее 25% должно принадлежать частному инвестору. При этом финансирование будет предоставляться в разных размерах как на ранних стадиях (до 25 млн рублей), так и на более поздних (до 150 млн рублей). Создание новой структуры позволит простимулировать поддержку, в первую очередь, белорусских стартапов, так как деятельность Белинфонда напрямую не направлена на IT-сектор (структура была создана еще в 1998 году и поддерживает научно-исследовательские и опытно-конструкторские работы). Кроме того, для получения финансирования стартап должен быть направлен не только на рынок родной страны, а минимум применим для стран ЕАЭС. Специалисты отмечают, что последнее требование для реальных проектов, нуждающихся в деньгах на развитие, избыточно, так как рынок России и Беларуси составляет всего 3% от глобального. По этой причине большинство стартапов сразу же ориентируются на мировой рынок. Предполагается, что в основном фонд будет интересен белорусским стартапам. Минск давно стал региональным центром разработки за счет большого количества IT-специалистов и меньших расходов на зарплаты по сравнению с, например, Москвой или Варшавой. Это привело к приходу ряда крупных IT и аутсорсинговых компаний по разработке ПО в белорусскую столицу. Но условия для стартапов пока не так благоприятны. В первую очередь, из-за отсутствия инвесторов, которые бы могли поддержать проекты финансово.
https://geektimes.ru/post/284090/
habrahabr
Модуль HTML::Phl для обработки HTML-документов, содержащих инструкции с кодом Perl
['perl']
В статье приведена спецификация модуля HTML::Phl для работы с HTML-документами, содержащими код языка программирования Perl. Задача модуля HTML::Phl — выбрать из текстового документа формата...
В статье приведена спецификация модуля HTML::Phl для работы с HTML-документами, содержащими код языка программирования Perl. Задача модуля HTML::Phl — выбрать из текстового документа формата HTML, размещенный в нем особым образом perl-код, выполнить кое-какие манипуляции над ним и остальным кодом, объединить полученное в единый код perl и «скормить» всё это ' eval ', получая на выходе сгенерированную HTML-страницу, воспроизводимую веб-браузером. Пример 1 <HTML> 2 <HEAD> 3 <META content="text/html; charset=UTF-8" http-equiv="Content-Type"> 4 <TITLE>Пример PHL</TITLE> 5 </HEAD> 6 7 Создаем два дочерних процесса f1 и f2<br> 8 9 %pl include("process_win.phl", "fork decode=cp1251", "f1"); 10 %pl include("process_utf.phl", "fork decode=utf8", "f2"); 11 12 Ждем завершения процессов<br> 13 14 <%pl my %join = include("JOIN", "f1 f2"); %> 15 16 Результаты выполнения процессов<br> 17 18 <%pl 19 foreach my $key(keys(%join)) { 20 if (ref $join{$key}) { 21 print "процесс '$key' - результат: "; 22 for (my $i = 0; $i <= $#{$join{$key}}; $i++) { 23 print "'${$join{$key}}[$i]' "; 24 } 25 print "<br>"; 26 } else { 27 print "процесс '$key' - результат: '$join{$key}'<br>"; 28 } 29 } 30 %> 31 32 </HTML> Статья написана в ознакомительных целях, разработка модуля носит концептуальный характер, и его надежное применение нуждается в дополнительном тестировании. Оглавление: Спецификация PHL • Указатели • Разделители • Ключи • Функции • Модули-расширения • Конфигурационные настройки Дистрибутив PHL Спецификация PHL  ^  В HTML документе perl-код размещается с помощью своеобразных инструкций. У каждой такой инструкции есть начало и конец, позволяющие идентифицировать код perl в документе. В спецификации PHL определено три варианта написания инструкций: 1. Линейная инструкция:     %pl [keys] [perl code] 2. Инструкция в виде однострочного блока:     <%pl [(:|=)[name]] [keys] [perl code] %> 3. Многострочный блок:     <%pl [(:|=)[name]] [keys]   [perl code]     %> где ' %pl ', ' <%pl ', ' %> ' — указатели инструкции (определяют начало и конец кода Perl); [name] — имя блока (используется при идентификации блоков, преимущественно при параллельном программировании); ' : ' или ' = ' — разделители (с одной стороны являются разделителями между указателями инструкции и именем блока, с другой стороны, обладают рядом дополнительных функциональных особенностей); [keys] — управляющие ключи (позволяют видоизменять код Perl, заключенный в инструкции, перед тем как его передать интерпретатору на выполнение); [perl code] — код Perl. Примеры %pl print sqrt(2); <%pl print $var; %> <%pl= $var; %> <%pl foreach my $key(keys(%ENV)) { print "$key — $ENV{$key}<br>"; } %> Управляющие элементы [name] и [keys] используются не так часто, и с успехом можно обойтись и без них, но их использование бывает весьма удобным. <%pl:f1 -fork # Код дочернего процесса my $f = "Данные дочернего процесса f1"; sleep 1; return $f; %> <%pl -join=f1 # Результат дочернего процесса f1 print $phl_join{f1}; %> К стандартным функциям Perl в PHL дополнительно добавлена функция ' include() '), реализованная для возможности сборки документа из нескольких файлов. %pl include($file_name); <%pl include("$file_name", "socket"); %> <%pl my $result = include("$file_name", "open decode"); %> Указатели  ^  По умолчанию указатели имеют вид: ' <%pl ', ' %> ' и ' %pl '. Указатели можно переопределить в настройках файла ' Phl.pm ' или в конфигурационном файле ' config.phl '. В результате, можно написать так <% ...code perl… %> или так [ ...code perl… ] или даже вoт так ¦ ...code perl… ¦ . При желании можно определить свои собственные (дополнительные) указатели инструкций. Это реализуется с помощью специально оформленных модулей. К примеру, с помощью модуля ' HTML::Phl::Php ' в дополнение к указателю инструкции ' <%pl ' добавляется указатель ' <%php ', позволяющий выполнить простой код языка программирования PHP. 1 %pl -ev use HTML::Phl::Php; 2 3 <%php 4 echo "PHP >> <b>OK</b><br>"; 5 echo date('H:i:s d.m.Y'); 6 %> Результат PHP >> OK 14:23:22 26.12.2016 Разделители  ^  Задача разделителей — отделить указатель инструкции от имени блока. В отличие от разделителя ' : ', разделитель ' = ' изменяет в анализаторе интерпретацию кода. При этом, результат применения разделителя ' = ' в однострочном и многострочном блоках различаются. 1 %pl my $test = "<b>тест</b>"; 2 3 1. Переменная '<%pl= $test %>' внутри однострочного блока. 4 <br><br> 5 6 <%pl=name1 7 2. Переменная '$test' внутри 8 многострочного блока '<b>$phl_blok[1]</b>' (разделитель '='). 9 %> 10 <br><br> 11 12 <%pl:name2 13 print "3. Переменная '$test'"; 14 print "внутри многострочного блока '<b>$phl_blok[2]</b>' (разделитель ':')."; 15 %> Код после анализатора 1 my $test = "<b>тест</b>"; 2 print <<'[HTML]'; 3 4 [HTML] 5 print <<'[HTML]' =~ /(.*)/; 6 1. Переменная ' 7 [HTML] 8 print($test); 9 print <<'[HTML]'; 10 ' внутри однострочного блока. 11 [HTML] 12 print <<'[HTML]'; 13 <br><br> 14 15 [HTML] 16 print <<"[HTML]"; 17 2. Переменная "$test" внутри 18 многострочного блока "<b>$phl_blok[1]</b>" (разделитель "="). 19 [HTML] 20 print <<'[HTML]'; 21 <br><br> 22 23 [HTML] 24 print "3. Переменная '$test'"; 25 print "внутри многострочного блока '<b>$phl_blok[2]</b>' (разделитель ':')."; Результат 1. Переменная ' тест ' внутри однострочного блока. 2. Переменная ' тест ' внутри многострочного блока ' name1 ' (разделитель '='). 3. Переменная ' тест 'внутри многострочного блока ' name2 ' (разделитель ':'). Ключи  ^  Ключи позволяют видоизменять код perl, размещенный в инструкциях. Их можно указывать в полном или в сокращенном виде: -begin -end -perl_all -eval -fork -thread -join • Ключи ' -begin ' [ ' -bg ' ] и ' -end ' При использовании ключа ' -begin ' анализатор берет код perl, содержащийся в инструкции, и оборачивает его блоком ' BEGIN {} '. То же самое происходит при использовании ключа ' -end ' — код perl помещается в блок ' END {} '. Исходный код: 1 1. Текст HTML<br> 2 <%pl -end 3 print "2. Первый end<br>"; 4 %> 5 3. Текст HTML<br> 6 7 <%pl -begin 8 print "4. Первый begin<br>"; 9 %> 10 5. Текст HTML<br> 11 12 <%pl -end 13 print "6. Второй end<br>"; 14 %> 15 7. Текст HTML<br> 16 17 <%pl -bg 18 print "8. Второй begin<br>"; 19 %> 20 9. Текст HTML<br> Результат 4. Первый begin 8. Второй begin 1. Текст HTML 3. Текст HTML 5. Текст HTML 7. Текст HTML 9. Текст HTML 6. Второй end 2. Первый end • Ключ ' -perl_all ' [ ' -pl ' ] При использовании данного ключа, отпадает необходимость ограничивать код perl указателями инструкций. Анализатор будет воспринимать весь текст документа, как Perl-код. 1 %pl -pl 2 3 use CGI; 4 5 print "Content-type: text/html; charset=utf-8\n\n"; 6 7 my $test = "Текст"; 8 my $q = new CGI; 9 10 print $q -> h4("$test из модуля CGI"); 11 print ("<H4>$test из Phl</H4>"); Результат Текст из модуля CGI Текст из Phl • Ключ ' -eval ' [ ' -ev ' ] Ключ позволяет выполнить код, заключенный внутри инструкции, в процессе работы анализатора (перед его выполнением eval ). Например, попробуем с помощью данного ключа изменить указатели ' &lt%pl ' и др., разместив в коде следующую инструкцию: 1 <%pl -eval 2 $phl{lt} = '['; 3 $phl{rt} = ']'; 4 $phl{ln} = '~'; 5 $phl{sh} = ''; 6 %> Указатели инструкций приобрели совершенно другой вид. Теперь инструкцию можно написать таким вот образом: 1 [= 2 Многострочный блок 3 ] или таким 1 [ print "Однострочный блок" ] или таким 1 ~ print "Линейная инструкция" • Ключ ' -fork ' [ ' -fk ' ] Код, заключенный внутри инструкции, выполняется в параллельном дочернем процессе, созданном в результате запуска fork() . 1 <%pl:f1 -fork 2 # Код дочернего процесса с именем f1 3 my $f; 4 sleep 1; # Параллельная обработка данных процессом f1 5 return $f; 6 %> • Ключ ' -thread ' [ ' -td ' ] Код, заключенный внутри инструкции, выполняется в параллельном потоке («нити», «ветке» процесса), созданном стандартным модулем ' threads ' в рамках одного процесса. 1 <%pl:t1 -thread 2 # Код нити с именем t1 3 my $t; 4 sleep 1; # Параллельная обработка данных нитью t1 5 return $t; 6 %> • Ключ ' -join ' [ ' -jn ' ] Ключ дает возможность получить результаты выполнения дочерних процессов и нитей. Результаты размещаются в хэше %phl_join , ключами которого являются имена создаваемых процессов/потоков. Если при обращении за результатом нужные параллельные процессы ещё не завершились, программа ждет их завершения. 1 <%pl -join 2 # Результаты выполнения параллельных дочерних процессов и потоков 3 foreach my $key(keys(%phl_join)) { 4 if (ref $phl_join{$key}) { # если значение - ссылка 5 my @result = @{$phl_join{$key}}; 6 print "процесс '$key' - результат первого аргумента '$result[0]'"; 7 } else { 8 print "процесс '$key' - результат '$phl_join{$key}'"; 9 } 10 } 11 %> • Дополнительные ключи При желании можно определить свои собственные (дополнительные) ключи или переопределить существующие. Это реализуется с помощью специально оформленных модулей. Так, к примеру, с помощью модуля ' HTML::Phl::Utilit ' и ключа ' -import ' [ ' -im ' ] можно просмотреть список всех указателей, ключей и параметров, в данный момент доступных программе. 1 %pl -ev use HTML::Phl::Utilit; 2 3 %pl -import Результат 1. HTML::Phl::Php     • param:         — php     • sh:         — php 2. HTML::Phl::Psimple     • param:         — Simple         — sl 3. HTML::Phl::Result     • param:         — result 4. HTML::Phl::Ru     • sh:         — рус 5. HTML::Phl::Utilit     • eval:         — analys         — as         — listing         — lt     • include:         — CONFIG         — TIMER     • key:         — analys         — as         — cf         — config         — im         — import         — listing         — lt         — no_timer         — nt         — timer         — tm     • param:         — listing         — lt Функции  ^  В PHL добавлена всего одна функция ' include() ', реализованная для возможности сборки документа из нескольких файлов, содержащих HTML (TXT) или PHL разметку. Функция ' include() ' похожа на стандартную Perl функцию ' open() ', с тем отличием, что первым аргументом является имя включаемого в документ файла, а вторым — один или несколько специальных управляющих параметров. 1 %pl include($file_name); 2 3 <%pl include("$file_name", "socket"); %> 4 5 <%pl 6 my $result = include($file_name, "open decode"); 7 %> В общем случае, написание функции ' include() ' выглядит так: include(" file_name " [, " param " [, " name_process "]]) ; file_name : «file_name.phl» «file_name.cgi» «file_path/file_name.phl» "/file_path/file_name.html" «httр://domain/file_path/file_name.html» [param] : phl ,   exist ,   head abs ,   no_abs ,   no_eval no_strict ,   open ,   decode no_decode ,   cgi ,   socket fork ,   thread дополнительные параметры и зависимости: phl [.phl] exist, head, abs, decode cgi [.cgi] require, decode open decode, abs socket exist, head, no_abs, decode, no_decode fork waitpid, no_waitpid thread join, detach Первый аргумент ' file_name ' кроме имени файла может содержать зарезервированные слова " JOIN ", " CONFIG " или " TIMER ". Если файл ' file_name ' имеет расширение ' .phl ', то такой файл идентифицируется, как файл формата PHL. Расширение может быть изменено в настройках с помощью $phl{pl} . При вызове функции ' include() ' в неопределенном контексте результат выполнения кода Perl помещается в тело документа внутри функции print() . При скалярном или списковом контексте результат возвращается в виде запрашиваемого значения переменной или списка значений соответственно. 1 <%pl 2 include("file_name.phl"); 3 my $result = include("file_name.phl"); 4 my @result = include("file_name.phl"); 5 %> Второй аргумент функции ' include() ' может содержать один или несколько специальных управляющих параметров. • Параметр ' phl ' Данный параметр указывает обработчику, что код, содержащийся в подключаемом файле, представляет собой документ формата PHL. Данные файла отправляются в анализатор, где преобразуются в perl-код и передаются ' eval '. Параметр ' phl ' выполняет аналогичные действия, если бы мы в имени включаемого файла просто указали расширение ' .phl ' (расширение можно изменить в настройках в ' $phl{pl} '). 1 <%pl 2 include("file_name.txt", "phl"); 3 my $result = include("file_name.html", "phl decode=utf-8"); 4 my @result = include("file_name", "phl abs"); 5 %> • Параметр ' exist ' (' ex ') Позволяет проверить существование файла. 1 <%pl 2 my $exist_file = include("$file_name", "exist"); 3 if ($exist_file) { 4 print "Файл $file_name найден"; 5 } else { 6 print "Файл $file_name не найден"; 7 } 8 %> • Параметр ' head ' (' hd ') Возвращает список из 5 элементов: Content type, Document length, Modified time, Expires, Server. 1 <%pl 2 my @head = include("$file_name", "head"); 3 %> • Параметр ' abs ' Если присутствует параметр ' abs ', осуществляется преобразование относительных ссылок, указанных в файле, в абсолютные. %pl include("$file_name", "abs"); • Параметр ' no_eval ' (' ne ') При указании данного параметра результат выполнения кода включаемого файла игнорируется. <%pl include("$file_name", "no_eval") %> • Параметр ' no_strict ' (' ns ') Если указан параметр ' no_strict ', то на код загружаемого файла ' $file_name ' действие прагмы ' use strict ' не распространяется. 1 <%pl 2 include("$file_name", "ns"); 3 %> • Параметр ' open ' ( ' on ' ) Как и функция ' open() ', служит для открытия файла и извлечения из него каких-либо данных (возможность записи данных в файл отсутствует). 1 <%pl 2 include("$file_name", "open"); 3 my $result = include("$file_name", "open decode=koi8-r"); 4 my @result = include("$file_name", "on, decode=cp1251, abs"); 5 %> • Параметр ' decode ' (' dc ') При наличии параметра ' decode ' данные из указанной в параметрах кодировки (к примеру, ' decode=cp1251 ') декодируются во внутренний формат Perl. Если кодировка не указана или отсутствует параметр ' decode ', то при декодировании подразумевается, что кодировка включаемого файла соответствует $phl{encoding_in} , указанной в настройках phl.pm (или config.phl ). Если кодировка результирующего документа отлична от ' utf-8 ', то дополнительно осуществляется кодирование данных в кодировку $phl{encoding_out} , указанную в настройках phl.pm (или config.phl ). Кодирование и декодирование данных осуществляется с использованием стандартного модуля ' Encode.pm '. • Параметр ' cgi ' Данный параметр предназначен для подключения cgi-скриптов, написанных на Perl. 1 <%pl 2 include("file_name.cgi"); 3 include("$file_name", "cgi"); 4 include("$file_name", "cgi require"); 5 include("file_name.cgi", "decode=cp866"); 6 %> • Параметр ' socket ' (' sk ') Применяется для загрузки web-документа с помощью стандартного модуля ' IO::Socket::INET ' 1 <%pl 2 include("file_name.html", "socket"); 3 include("http://domain/"); 4 my $text = include("http://domain/file_path/file_name.html", "decode=cp1251"); 5 my @result = include("$file_name", "decode no_abs"); 6 %> Если адрес включаемого в документ файла начинается с http или ftp, то указывать параметр ' socket ' не обязательно. Совместно с параметром ' socket ' могут применяться дополнительные параметры ' exist ', ' head ', ' no_abs ', ' decode ', ' no_decode '. дополнительный параметр ' exist ' (' ex ') Позволяет проверить существование домена, файла, адреса. 1 <%pl 2 my @include_name_file = ( 3 'dir1/name_file.html', 4 '/dir2/name_file.php', 5 'http://www.yandex.ru', 6 'http://www.yandex/eklmnfjoeqxngsitwf.html', 7 'http://eklmnfjoeqxngsitwfhoevd.ru' 8 ); 9 10 foreach my $name_file (@include_name_file) { 11 my $ex = include("$name_file", "socket exist"); 12 if ($ex) { 13 print "Файл '$name_file' найден<br>"; 14 } elsif (!defined $ex) { 15 print "Ресурс '$name_file' не отвечает<br>"; 16 } else { 17 print "Файл '$name_file' не найден<br>"; 18 } 19 } 20 %> дополнительный параметр ' head ' (' hd ') Возвращает заголовок документа 1 <%pl 2 foreach my $name_file (@test_name_file) { 3 my head = include("$name_file", "socket head"); 4 if ($#head) { 5 print "Заголовок от '$name_file' получен => '@head[0..3]'<br>"; 6 } else { 7 print "Заголовка от '$name_file' нет => '@head'<br>"; 8 } 9 } 10 %> дополнительный параметр ' no_abs ' (' na ') По умолчанию, все относительные ссылки заменяются на абсолютные, но если указан параметр ' no_abs ', то этого не происходит. %pl include("$file_name", "socket no_abs"); дополнительный параметр ' decode ' (' dc ') Служит для декодирования документов из кодировки, указанной параметром ' decode ', во внутренний формат Perl и далее в кодировку, указанную в настройках в $phl{encoding_out} . Если параметр ' decode ' используется без указания исходной кодировки запрашиваемого файла, то декодирование осуществляется с учетом кодировки, указанной в заголовке файла в ' charset ' (при наличии). Если параметр ' decode ' не используется, по умолчанию подразумевается, что наш файл в кодировке utf-8. При использовании параметра ' no_decode ' (' nd ') никакого декодирования данных не происходит. 1 <%pl 2 include("http://www.rbc.ru", "decode=utf-8"); 3 include("http://www.mail.ru", "decode"); 4 my $html_text1 = include("http://ru.motorsport.com"); 5 my $html_text2 = include("http://www.google.com", "nd"); 6 %> • Параметр ' fork ' (' fk ') Код загружаемого файла выполняется в параллельном дочернем процессе, созданном в результате запуска ' fork() '. 1 <%pl 2 include("$file_name", "fork"); 3 %> Результат выполнения параллельного процесса можно вернуть в родительский, используя ' return ' в тексте инструкции включаемого файла. 1 <%pl 2 <font color=#646464><I># Код дочернего процесса $phl_var{name}</I></font> 3 my $f = "Передаваемые данные"; 4 sleep 1; 5 return $f; 6 %> В третьем аргументе функции ' include() ' можно указать уникальное имя дочернего процесса, чтобы затем обратиться за результатом выполнения дочернего процесса «по имени». 1 <%pl 2 include("$file_name", "fork", "f1"); 3 %> дополнительный параметр ' waitpid ' (' wd ') Для того, чтобы вернуть результат выполнения дочернего процесса в точку вызова функции ' include() ', необходимо дополнительно к параметру ' fork ' указать параметр ' waitpid ' или в качестве третьего аргумента функции ' include() ' указать ' waitpid '. Результат отработки параллельного процесса можно вернуть обратно в родительский процесс, вызвав ' include() ' в скалярном или списковом контексте. 1 <%pl 2 $result = include("$file_name", "fork waitpid"); 3 @result = include("$file_name", "fork", "waitpid"); 4 %> На самом деле, можно вообще отказаться от параметра ' waitpid ', как во втором так и в третьем аргументе. В таком случае, программа всё равно будет ждать завершения дочернего процесса, а функция ' include() ' получается менее громоздкой. 1 <%pl 2 @result = include("$file_name", "fork", ""); 3 $result = include("$file_name", "fk"); 4 %> дополнительный параметр ' no_waitpid ' (' nw ') Результат выполнения процесса вернуть не удастся, если только, не попробовать что-либо записать в файл или вывести на экран. 1 <%pl 2 include("$file_name", "fork no_waitpid"); 3 include("$file_name", "fork", "no_waitpid"); 4 %> аргумент ' JOIN ' Для обращения за результатом выполнения дочернего процесса можно использовать функцию ' include() ', где в качестве первого аргумента необходимо указать зарезервированное слово ' JOIN ', вторым аргументом — имя или имена дочерних процессов. 1 <%pl 2 include("$file_name", "fork", "f1"); 3 4 # Далее может следовать тело программы с некоторым кодом 5 6 my $rezult = include("JOIN", "f1"); 7 %> Вернуть результаты нескольких или даже всех параллельных процессов можно обратившись к хэшу, ключами которого будут имена процессов, значениями — результаты их выполнения. 1 <%pl 2 my %join_2_3 = include("JOIN", "f2 f3"); 3 print "Результат процесса 'f2' = $join_2_3{f2}<br>"; 4 5 my %join_all = include("JOIN"); 6 foreach my $key(keys(%join_all)) { 7 if (ref $join_all{$key}) { 8 my @result = @{$join_all{$key}}; 9 print "Результат процесса '$key' = '$join_all{$key}' => "; 10 print "и первый разыменованный элемент массива = '$result[0]'<br>"; 11 } else { 12 print "Результат процесса '$key' = '$join_all{$key}'<br>"; 13 } 14 } 15 %> • Параметр ' thread ' (' td ') Создается, так называемая, «нить» («поток») — своеобразная ветка процесса, в которой возможно выполнение кода параллельно коду породившего нить процесса. Для создания нити используется стандартный модуль ' thread ' (в свою очередь, Perl должен быть настроен на работу с тредами). 1 <%pl 2 include("$file_name", "thread"); 3 %> Как и в случае с параметром ' fork ', при использовании нитей существует возможность вернуть результат выполнения созданной нити, как в точку вызова функции ' include() ', так и в произвольную точку программы или вообще «забыть» о результате, ничего не возвращая. дополнительный параметр ' join ' (' jn ') Результат выполнения нити возвращается в точку вызова, при этом родительский процесс временно прекращает своё выполнение и ждет получения данных (от созданных потоков). 1 <%pl 2 $result = include("$file_name", "thread join"); 3 @result = include("$file_name", "thread", "join"); 4 %result = include("$file_name", "thread"); 5 %> дополнительный параметр ' detach ' (' dh ') Нить создается, но что в ней происходит основная ветка процесса не знает. 1 <%pl 2 include("$file_name", "thread detach"); 3 include("$file_name", "thread", "detach"); 4 %> Вернуть данные в любую точку основной ветки процесса можно, присвоив нити имя (по аналогии с дочерним процессом, создаваемым параметром ' fork '). 1 <%pl 2 include("$file_name", "thread", "t1"); 3 include("$file_name", "thread", "t2"); 4 include("$file_name", "thread", "t3"); 5 6 my $rezult = include("JOIN", "t2"); 7 print "Результат нити 't2' = '$rezult'<br>"; 8 9 my %join = include("JOIN", "t1 t3"); 10 print "Результат нити 't1' = '$join{t1}'<br>"; 11 print "Результат нити 't3' = '$join{t3}'<br>"; 12 %> • Собственные параметры При желании можно определить свои собственные (дополнительные) параметры или переопределить существующие. Это реализуется с помощью специально оформленных модулей. Так, к примеру, с помощью модуля ' HTML::Phl::Utilit ' и параметра ' analys ' (' as ') появляется возможность просмотреть сформированный анализатором код perl включаемого файла перед его выполнением eval . Пример: 1 %pl -ev use HTML::Phl::Utilit; 2 3 <%pl 4 include("$file_name", "as"); 5 %> Листинг 1 Текст HTML<br> 2 3 <%pl 4 my $test = "Текст Perl<br>"; 5 print ("$test"); 6 %> 7 8 Текст HTML<br> Результат 1 print <<'[HTML]'; 2 Текст HTML<br> 3 4 [HTML] 5 my $test = "Текст Perl<br>"; 6 print ("$test"); 7 print <<'[HTML]'; 8 9 Текст HTML<br> 10 [HTML] Модули-расширения PHL  ^  Для достижения большей гибкости работы в PHL реализована возможность задавать собственные указатели инструкции [sh] , ключи [keys] , первый аргумент [include] и параметры [param] функции ' include() '. <% [sh] [keys] … include(" [include] ", " [param] ") ; … %> Новые ключи, параметры и указатели импортируются в phl.pm из специально написанных для данных целей модулей. Для примера в PHL включены 4 модуля: use HTML::Phl::Utilit; use HTML::Phl::Psimple; use HTML::Phl::Php; use HTML::Phl::Ru; Модули можно подключить как в файле ' phl.pm ' или ' config.phl ', так и в файле PHL. 1 %pl -ev use HTML::Phl::Utilit 2 3 <%pl 4 # код perl 5 %> • Модуль ' HTML::Phl::Utilit ' Модуль экспортирует в программу 5 ключей, 2 параметра и 2 аргумента для функции ' include() '. [keys] : -listing -analys -config -timer -no_timer [param] : listing analys [include] : CONFIG TIMER Ключи ' -listing ' [ ' -lt ' ] и ' -analys ' [ ' -as ' ] и параметры ' listing ' ( ' lt ' ) и ' analys ' ( ' as ' ) дают, возможность просмотреть листинг программы или сформированный анализатором код perl перед его выполнением eval . Ключ ' -listing ' [ ' -lt ' ] 1 Текст HTML 1 2 <br><br> 3 4 <%pl -lt 5 my $test = "Текст Perl<br>"; 6 print "$test"; 7 %> 8 <br> 9 10 Текст HTML 2 Результат Текст HTML 1 1 my $test = "Текст Perl<br>"; 2 print "$test"; Текст HTML 2 Ключ ' -analys ' [ ' -as ' ] 1 %pl -as 2 3 <%pl 4 my $test = "Текст Perl<br>"; 5 print ("$test"); 6 %> 7 8 Текст HTML и <%pl= $test %> Результат 1 ; 2 print <<'[HTML]'; 3 4 [HTML] 5 my $test = "Текст Perl<br>"; 6 print ("$test"); 7 print <<'[HTML]'; 8 9 [HTML] 10 print <<'[HTML]' =~ /(.*)/; 11 Текст HTML и 12 [HTML] 13 print($test); Ключ ' -config ' [ ' -cf ' ] или аргумент ' CONFIG ' функции ' include() ' выводят на печать хэш %phl конфигурационных переменных. 1 %pl -config 2 3 или так 4 5 <%pl 6 include("CONFIG"); 7 %> Результат Конфигурационные переменные bottom = '' bufer = ' 1 ' config = ' config.phl ' config_path = '' encoding_in = ' utf8 ' encoding_out = ' utf8 ' finde_config = ' yes ' header = ' Content-type: text/html; charset=utf-8 ' index = ' index.phl ' ln = ' % ' locale = ' utf8 ' lt = ' <% ' pl = ' phl ' rt = ' %> ' script_dir = '' sh = ' pl ' threads = ' 1 ' timer = ' 0 ' top = '' Ключи ' -timer ' [ ' -tm ' ] и ' -no_timer ' [ ' -nt ' ] позволяют изменить механизм вывода на экран временных промежутков работы компонентов программы, а используя аргумент ' TIMER ' функции ' include() ' можно задать свой таймер. 1 <%pl 2 # запуск встроенного таймера 3 %pl -timer 4 5 # остановка встроенного таймера 6 %pl -nt 7 %> Пример 1. Запускаем timer ключем '-timer' или '-tm' timer = 4 2. Проверяем результат на тестовом 'include()' (без параметров) Результат => • Время — 0.248574 [0.226931 ] < INCLUDE_BEGINE () • Время — 0.248953 [0.227302 ] < INCLUDE_END () test: timer = 4 3. Выключаем timer ключем '-no_timer' или '-nt' 4. Проверяем результат на тестовом 'include()' Результат => test: timer = 0 1 <%pl 2 # пример создания своего таймера 3 include("TIMER", "имя таймера"); 4 %> Пример Создаем таймер 1 • Время — 0.000005 < TIMER (name_timer_1) ждем некоторое время — sleep 0.2 • Время — 0.200440 < TIMER (name_timer_1) Новый таймер 2 • Время — 0.000004 < TIMER (name_timer_2) ждем некоторое время — sleep 0.5 • Время — 0.701001 < TIMER (name_timer_1) • Время — 0.500496 < TIMER (name_timer_2) Новый таймер 3 • Время — 0.000003 < TIMER (name_timer_3) ждем некоторое время — sleep 0.35 • Время — 1.051648 < TIMER (name_timer_1) • Время — 0.851139 < TIMER (name_timer_2) • Время — 0.350579 < TIMER (name_timer_3) • Модуль ' HTML::Phl::Php ' Экспортирует указатель ' php ', превращая указатель инструкции ' <%pl ' в ' <%php ', для возможности работы с кодом языка программирования PHP; 1 %pl -ev use HTML::Phl::Php; 2 3 %pl our $pl = 5; 4 5 Исходная переменная PERL: $pl = <b>'<%pl= $pl %>'</b>. 6 <br><br> 7 8 <%php 9 echo "Значение переменной $pl передаем в PHP ($pl -> $php).<br>"; 10 OUT_PERL($pl -> $php); 11 12 echo "<li>Переменная $php = $php.</li><br>"; 13 14 echo "В PHP изменяем значение переменной: $php = 2 * $php + 1.5.<br><br>"; 15 $php = 2 * $php + 1.5; 16 17 echo "Возвращаем значение переменной $php в PERL ($php -> $pl).<br>"; 18 IN_PERL($php -> $pl); 19 %> 20 21 <li>Результирующая переменная PERL: $pl = <b>'<%pl= $pl %>'</b></li>. Результат Исходная переменная PERL: $pl = '5' . Значение переменной $pl передаем в PHP ($pl -> $php). Переменная $php = 5. В PHP изменяем значение переменной: $php = 2 * $php + 1.5. Возвращаем значение переменной $php в PERL ($php -> $pl). Результирующая переменная PERL: $pl = '11.5' . • Модуль ' HTML::Phl::Ru ' Экспортирует указатель ' рус ', превращая указатель инструкции ' <%pl ' в ' <%рус ', позволяя работать с некоторыми функциями и операторами кириллического написания. 1 %pl -ev use HTML::Phl::Ru; 2 3 <%рус 4 my @имена_файлов = ( 5 'file_exist.phl', 6 'http://www.pushkinmuseum.ru', 7 'http://www.pushkinmuseum.ru/467899', 8 'http://eklmn12344556778.ru' 9 ); 10 11 foreach my $имя_файла (@имена_файлов) { 12 my $найдено = ВКЛЮЧИТЬ("$имя_файла", "socket exist"); 13 ЕСЛИ ($найдено) { 14 ПЕЧАТЬ "'$имя_файла' - <B>найден</B><br>"; 15 } ИЛИ ЕСЛИ (!defined $найдено) { 16 ПЕЧАТЬ "'$имя_файла' - <B>не отвечает</B><br>"; 17 } ИНАЧЕ { 18 ПЕЧАТЬ ("'$имя_файла' - <B>не найден</B><br>"); 19 } 20 } 21 %> Результат 'file_exist.phl' — не найден 'http://www.pushkinmuseum.ru' — найден 'http://www.pushkinmuseum.ru/467899' — не найден 'http://eklmn12344556778.ru' — не отвечает • Модуль ' HTML::Phl::Psimple ' Экспортирует параметр ' Simple ' [' sl '] для работы со стандартным модулем Perl ' LWP::Simple '; Структура модулей-расширений Для возможности экспорта ключей, параметров и указателей модули должны размещаться в определенной папке (по умолчанию — в 'Phl', находящейся рядом с основным файлом программы ' phl.pm ') и содержать двумерный хэш ' %phl_import ', в котором ключами второго хеша будут экспортируемые ключи, параметры и указатели. Хэш ' %phl_import ' может включать 5 ключей — ' sh ', ' key ', ' param ', ' include ' и ' eval '. 1 our %phl_import = ( 2 key => { 3 tm => \&HTML::Phl::Utilit::key_timer, 4 im => \&HTML::Phl::Utilit::print_import, 5 }, 6 include => { 7 TIMER => \&HTML::Phl::Utilit::my_timer, 8 CONFIG => \&HTML::Phl::Utilit::config, 9 }, 10 param => {lt => \&HTML::Phl::Utilit::open_listing}, 11 sh => {'рус' => \&HTML::Phl::Ru::ru_perl}, 12 eval => {as => \&HTML::Phl::Utilit::eval_code} 13 ); Конфигурационные настройки  ^  Конфигурационные файлы ' config.phl ' позволяют переопределять базовые переменные, указанные в ' phl.pm '. Их можно размещать в любой web-директории, содержащей PHL файлы. Конфигурационные файлы разрабатываются в формате Perl и содержат значения ключей хеша %phl . config.phl # Расширение файлов, обрабатываемых анализатором программы, как файлы формата PHL (по умолчанию принято расширение — '.phl') $phl{pl} = ' phl '; # Имя файла, которое ищет функция 'include()' в директории, если не указан загружаемый файл, к примеру domain.ru/file_path $phl{index} = ' index.phl '; # Осуществлять или не осуществлять поиск конфигурационных файлов 'config.phl' в директории загружаемых include() файлов [ yes/no ] $phl{finde_config} = " yes "; # Определение указателей инструкций [ по умолчанию, '<%pl code_perl %>', '%pl line_code_perl' ] $phl{lt} = ' <% '; # начало блока инструкции $phl{rt} = ' %> '; # конец блока инструкции $phl{ln} = ' % '; # линейная инструкция $phl{sh} = ' pl '; # указатель принадлежности к языковой конструкции (в данном случае к perl) # Заголовок документа [ к примеру, «Content-type: text/html; charset=utf-8\n\n»; $phl_header = "" — нет заголовка ] $phl{header} = ""; # Верхний колонтитул $phl{top} = ""; # Нижний колонтитул $phl{bottom} = ""; # Сброс буфера [ «1» соответствует => $| = 1, «0» соответствует => $| = 0 ] $phl{bufer} = 1 ; # Использование потоков (нитей) [ 1/0 ] $phl{threads} = 1 ; # Подсчитывается время загрузки компонентов [ различная степень детализации => «0» — нет, «1»...«4» — да ] $phl{timer} = 0 ; # Кодировка файлов [ cp1251, utf8, koi8-r, iso-8859-5, cp866… ] $phl{encoding_in} = " utf8 "; # кодировка загружаемых include() файлов $phl{encoding_out} = " utf8 "; # кодировка результирующего документа $phl{locale} = " utf8 "; # кодировка имен файлов файловой системы Дистрибутив PHL  ^  Модуль 'HTML::Phl' вместе с дополнительными модулями-расширениями, тестами и примерами можно скачать здесь . При желании опробовать работу модуля в ОС Android, необходимо установить SL4A , позволяющий запускать в данной среде perl-программы, в частности веб-сервер, способный генерировать HTML страницы по запросам Perl. Как написать свой веб-сервер на Perl под Android можно ознакомиться здесь или скачать немного измененный под работу с PHL вариант здесь .
https://habrahabr.ru/post/304634/
habrahabr
Простой framework UI ERP c помощью Vaadin
['Vaadin', 'Java', 'ERP', 'framework', 'UI', 'первый опыт']
Введение Зачем это затевалось? Год назад начали писать ERP систему. И с того момента начался наш тернистый путь. Определили стек технологий с которым будем работать. Кратко описали задачу и...
Введение Зачем это затевалось? Год назад начали писать ERP систему. И с того момента начался наш тернистый путь. Определили стек технологий с которым будем работать. Кратко описали задачу и приступили к работе. В течении обучения и параллельной "разработки" начал вырисовывать интерфейс и будущую архитектуру приложения. В итоге я попытался написать еще один свой фреймоворк. В этой статье попытаюсь описать что было сделано, какую структуру реализовал, описать конкретную реализацию классов, почему так, написать примеры использования самописного фреймоврка. Ну и расскажу дальнейшие планы. Стек Если кратко об используемом стеке, то использовали финский web-framework Vaadin 7.7. Это инструмент который дает возможность писать single page application практически на одном языке (Java). Т.е. с помощью языковых конструкций описывать элементы интерфейса, которые потом транслируются в HTML+JS код и показываются в браузере. Приложение работает полностью на сервере, беря на себя все вычисления. Действия пользователя в браузере обрабатываются на сервере, изменили размер элемента, он перерисовался на сервере и отправил результат пользователю в браузер. В общем будет много маломощных пользовательских машин читайте телефоны, планшеты, старые офисные машины и парочка мощных серверов. API Цели преследуемые фреймворком следующие: быстрое добавление в общий интерфейс элементов отображающих нужную структуру данных в уже привычном для всех интерфейсе. А также обеспечение работы через активную запись. Т.е. работа с выделенной строкой в таблице и добавление к ней необходимых связей. Структура получилась следующая: Пакет Название Data DataContainer TreeDataContainer Elements BottomTabs CommonLogic CommonView FilterPanel Logic Menu MenuNavigator Mode Workspace Permission ModifierAccess PermissionAccess PermissionAccessUI Data В пакете Data компоненты, которые необходимы для связывания (binding) данных с элементами UI. В текущей версии реализованы контейнеры, которые имеют дополнительные методы для быстрого присвоения данных в таблицы и деревья. В пакете два класса: DataContainer — абстрактный класс, на основании которого создаются производные контейнеры для хранения определенных классов данных. TreeDataContainer — реализует класса DataContainer для хранения элементов с указанием иерархии, и для отображения древовидных структур. Примеры использования всех классов будут в следующих разделах. Elements Пакет, в котором находятся все классы описывающие элементы графики и логики системы. Подход принятый к построению интерфейса — использование отдельных видов, в которых храниться все необходимые компоненты текущего UI. Использовались стандартные компоненты Vaddin — компонент View и его реализация CommonView , а также компонент навигации между видами Menu . Логика работы этих компонентов в связке взята из примера Vaadin , пример и как его сгенерить у себя с помощью maven archetype . Реализация CommonView должна содержать в себе ссылку на реализацию интерфейса Logic или расширять уже имеющуюся реализацию CommonLogic . Также есть перечисление Mode которое содержит в себе перечень режимов работы с имеющимися интерфейсами. Основной графический элемент — Workspace . Это класс в котором имеется две таблицы (в которые присваиваются данные DataContainer ), основная (метод getTable() ) содержит текущую информацию, таблица со списком всех элементов (метод getTableAll() ) которые можно выбирать для добавления в текущий контейнер. Навигация в Workspace реализует элемент MenuNavigator . Он описывает перечень стандартных методов работы c Workspace , такие как включение режимов Добавления и Удаления, Печати, включения панели фильтрации для таблиц, описанной в классе FilterPanel . Для возможности редактирования добавленной информации в контейнер (установленный в таблицу из метода getTable() ) используется класс BottomTabs , в который добавляются вкладки, которые в себе содержат интерфейс для редактирования информации: таблицы, поля, выпадающие списки и все что нужно. Permission Пакет содержит классы для реализации прав доступа к графическим элементам и механизмы повышения прав доступа с помощью ролей. ModifierAccess — перечисление имеющихся уровней доступа к UI: отключен, чтение, редактирование. PermissionAccess — класс реализующий механизмы установки прав доступа, где действует принцип повышения права. Т.е. если пользователю назначено в одной группе право для элемента на чтение, а в другой на редактирование, в итоге пользователю будет доступно максимальное право — право на редактирование. PermissionAccessUI — интерфейс который имплементируеся в графические компоненты, на которые назначаются права. Реализация Класс DataContainer — класс для хранения структур данных в виде контейнера, расширяющий BeanItemContainer . abstract public class DataContainer<T> extends BeanItemContainer<T> { private ArrayList<String> captions = new ArrayList<>(); private ArrayList<Boolean> visible = new ArrayList<>(); private final ArrayList<String> headers = new ArrayList<>(); public DataContainer(Class<T> type) { super(type); if (validCaption()) initHeaders(); } private boolean validCaption() { return captions.size() == visible.size() && captions.size() == headers.size(); } abstract protected void initHeaders(); abstract public DataContainer loadAllData(); //.... } Создан для удобного присвоения контейнера в таблицы и деревья, за счет списков captions , headers , visible в которых описываются какие property класса будут отображаться в виде столбцов, какие у них будут заголовки и какие из них будут свернуты. Механизм присвоения контейнера в таблицу реализован в CommonLogic : abstract public class CommonLogic implements Logic { private View view; public CommonLogic(View view){ this.view = view; } public View getView(){ return this.view; } public void setDataToTable(DataContainer container, CustomTable table) { if (container == null || table == null) return; table.setContainerDataSource(container); table.setVisibleColumns(container.getCaption()); table.setColumnHeaders(container.getHeaders()); table.setColumnCollapsingAllowed(true); for (int i = 0; i < container.getCaption().length; i++) { table.setColumnCollapsed(container.getCaption()[i], container.getVisible()[i].booleanValue()); } } } Workspace реализует в себе следующий код: abstract public class Workspace extends CssLayout implements PermissionAccessUI { private Logic logic; private Float splitPosition = 50f; private Mode mode = Mode.NORMAL; public String CAPTION = ""; public ThemeResource PICTURE = null; private FilterTable table = null; private FilterTable tableAll = null; private ItemClickEvent.ItemClickListener editItemClickListener; private ItemClickEvent.ItemClickListener editItemClickListenerAll; private VerticalSplitPanel verticalSplitPanel = null; private HorizontalSplitPanel horizontalSplitPanel = null; private BottomTabs bottomTabs = null; private MenuNavigator navigator = null; private FilterPanel filterPanel = null; private ModifierAccess permissionAccess = ModifierAccess.HIDE; private VerticalLayout layout; private ItemClickEvent.ItemClickListener selectItemClickListener; private ItemClickEvent.ItemClickListener selectItemClickListenerAll; public Workspace(Logic logic) { this.logic = logic; table(); tableAll(); navigatorLayout(); filterPanel(); horizontalSplitPanel(); verticalSplitPanel(); addComponent(verticalSplitPanel); editOff(); setSizeFull(); } //... } Где table() и tableAll() методы построения таблицы для текущего контейнера и для контейнера со всеми записями (справочника). navigatorLayout() создает меню для навигации (оно же MenuNavigator ) и работы с текущим экземпляром Workspace . filterPanel() — создает панель фильтрации для таблицы с текущим контейнером. В veritcalSplitPanel() описывается создание нижней панели с закладками tabs для редактирования выбранных элементов в таблице созданной в table() . Класс MenuNavigator дает стандартный набор методов для работы с имплементацией Workspace : public abstract class MenuNavigator extends MenuBar implements PermissionAccessUI { private ModifierAccess permissionAccess = ModifierAccess.HIDE; private MenuItem add; private MenuItem delete; private MenuItem print; private MenuItem filter; public static final String ENABLE_BUTTON_STYLE ="highlight"; private Workspace parent; public MenuNavigator(String caption, Workspace parent) { this.parent = parent; setWidth("100%"); Command addCommand = menuItem -> add(); Command deleteCommand = menuItem -> delete(); Command printCommand = menuItem -> print(); Command filterCommand = menuItem -> filter(); add = this.addItem("add" + caption, new ThemeResource("ico16/add.png"), addCommand); add.setDescription("Добавить"); delete = this.addItem("delete" + caption, new ThemeResource("ico16/delete.png"), deleteCommand); delete.setDescription("Удалить"); print = this.addItem("print" + caption, new ThemeResource("ico16/printer.png"), printCommand); print.setDescription("Печать"); filter = this.addItem("filter" + caption, new ThemeResource("ico16/filter.png"), filterCommand); filter.setDescription("Сортировать"); this.setStyleName("v-menubar-menuitem-caption-null-size"); this.addStyleName("menu-navigator"); } //... } В классе создаются общие элементы меню, описывается логика поведения в квази- модальном режиме и обязует реализующего этот класс описать нужную логику работы. Редактирование выделенных записей в таблице созданной в table() происходит с помощью элементов добавленных в UI BottomTabs : abstract public class BottomTabs extends TabSheet implements PermissionAccessUI { private ModifierAccess permissionAccess = ModifierAccess.HIDE; private final List<String> captions = new ArrayList<>(); private final List<Component> components = new ArrayList<>(); private final List<Resource> resources = new ArrayList<>(); public BottomTabs() { captions.removeAll(captions); components.removeAll(components); resources.removeAll(resources); setSizeFull(); init(); } private void init() { initTabs(); for (int i = 0; i < this.components.size(); i++) { if (i < resources.size() && i < captions.size()) { this.addTab(this.components.get(i) , this.captions.get(i) , this.resources.get(i)); } } } //... } Здесь также реализованы списки для более быстрого добавления компонента в закладки: captions — описание заголовков закладок, components — какой элемент будет находиться в этой закладке и resource — какая иконка для него будет отображаться. Для реализации прав доступа нужно имплементировать PermissionAccessUI и реализовать в нем методы которые должны показывать что активно в этом классе, а что нет, в зависимости от уровня доступа: public interface PermissionAccessUI { void setPermissionAccess(ModifierAccess permission); void replacePermissionAccess(ModifierAccess permissionAccess); ModifierAccess getModifierAccess(); } и ниже реализация этих методов в классе Workspace : //... public void setPermissionAccess(ModifierAccess permission) { if (navigator != null) { navigator.replacePermissionAccess(permission); } if (bottomTabs != null) { bottomTabs.replacePermissionAccess(permission); } this.permissionAccess = permission; switch (permission) { case EDIT: { this.setVisible(true); this.setEnabled(true); break; } case READ: { this.setVisible(true); this.setEnabled(false); break; } case HIDE: { this.setVisible(false); this.setEnabled(false); break; } } } public void replacePermissionAccess(ModifierAccess permissionAccess) { PermissionAccess.replacePermissionAccess(this, permissionAccess); } public ModifierAccess getModifierAccess() { return permissionAccess; } //... Класс PermissionAccess — это final класс, выполняющий функцию утильного Utils класса самому не нравиться но другой реализации пока не придумал , он берет компонент PermissionAccessUI и в соответствии с заданной логикой повышает уровень доступа: public final class PermissionAccess { //... public static void replacePermissionAccess(PermissionAccessUI component, ModifierAccess newValue) { switch (component.getModifierAccess()) { case EDIT: { if (newValue.equals(ModifierAccess.HIDE) || newValue.equals(ModifierAccess.READ)) break; component.setPermissionAccess(newValue); break; } case READ: { if (newValue.equals(ModifierAccess.HIDE)) break; component.setPermissionAccess(newValue); break; } case HIDE: { component.setPermissionAccess(newValue); break; } } } //... } Примеры Данные Пример создания контейнера какого-то абстрактного класса описывающего предметную область (он же является Bean ), назовем его Element : public class Element implements Serializable { private Integer id = 0; private String name = "element"; private Float price = 0.0F; public Element(Integer id, String name, Float price) { this.id = id; this.name = name; this.price = price; } public Integer getId() { return id; } public void setId(Integer id) { this.id = id; } public String getName() { return name; } public void setName(String name) { this.name = name; } public Float getPrice() { return price; } public void setPrice(Float price) { this.price = price; } @Override public boolean equals(Object o) { if (this == o) return true; if (o == null || getClass() != o.getClass()) return false; Element element = (Element) o; return Objects.equals(id, element.id) && Objects.equals(name, element.name) && Objects.equals(price, element.price); } @Override public int hashCode() { return Objects.hash(id, name, price); } } Классическая реализация в соответствии со спецификацией для Bean . Для него создадим контейнер, который будет содержать в себе все записи. public class ElementContainer extends DataContainer<Element> { public ElementContainer() { super(Element.class); } @Override protected void initHeaders() { addCaption("id", "name", "price"); addHeader("ID", "Название", "Цена"); addCollapsed(true, false, false); } @Override public DataContainer loadAllData() { add(new Element(1, "name1", 1.0f)); add(new Element(2, "name2", 2.0f)); add(new Element(3, "name3", 3.0f)); add(new Element(4, "name4", 4.0f)); add(new Element(5, "name5", 5.0f)); add(new Element(6, "name6", 6.0f)); add(new Element(7, "name7", 7.0f)); add(new Element(8, "name8", 8.0f)); add(new Element(9, "name9", 9.0f)); add(new Element(10, "name10", 10.0f)); add(new Element(11, "name11", 11.0f)); return this; } } Где в методах addCaption , addHeader , addCollapsed перечисляются property класса Element , которые будут использоваться в виде колонок, в какой последовательности, какие заголовки и какие из них будут скрыты. Реализация классов для UI Реализация класса Workspace в виде класса MyLayout : public class MyLayout extends Workspace { private ElementContainer container = new ElementContainer(); private MyTabSheet tabSheet; private MyMenu menu; public MyLayout(Logic logic) { super(logic); tabSheet = new MyTabSheet(); menu = new MyMenu("myMenu", this); logic.setDataToTable(container.loadAllData(), getTable()); setBottomTabs(tabSheet); setNavigator(menu); } @Override protected ItemClickEvent.ItemClickListener editTableItemClick() { return itemClickEvent -> { }; } @Override protected ItemClickEvent.ItemClickListener selectTableItemClick() { return itemClickEvent -> { }; } @Override protected ItemClickEvent.ItemClickListener editTableAllItemClick() { return itemClickEvent -> { }; } @Override protected ItemClickEvent.ItemClickListener selectTableAllItemClick() { return itemClickEvent -> { }; } } Где описывается поведение при выборе записи в таблице со всеми компонентами и текущим контейнером (методы ItemClickEvent.ItemClickListener ), здесь они пустые. Также logic.setDataToTable(container.loadAllData(), getTable()) здесь описывается приме установки текущего контейнера в таблицу. Реализация MenuNavigator в классе MyMenu : public class MyMenu extends MenuNavigator { public MyMenu(String caption, Workspace parent) { super(caption, parent); } @Override public void add() { if (getAdd().getStyleName() == null) getAdd().setStyleName(ENABLE_BUTTON_STYLE); else getAdd().setStyleName(null); } @Override public void delete() { if (getDelete().getStyleName() == null) getDelete().setStyleName(ENABLE_BUTTON_STYLE); else getDelete().setStyleName(null); } @Override public void print() { if (getPrint().getStyleName() == null) getPrint().setStyleName(ENABLE_BUTTON_STYLE); else getPrint().setStyleName(null); } } Где описывает изменение стиля нажатой кнопки и тем самым должен включаться другой режим. И последний элемент описывающий графику MyTabSheet — реализация BottomTabs : public class MyTabSheet extends BottomTabs { public MyTabSheet() { super(); } @Override public void initTabs() { addCaption("Tab1", "Tab2", "Tab3", "Tab4"); addComponent(new Label("label1"), new Label("label2"), new Label("label3"), new Label("label4")); addResource(FontAwesome.AMAZON, FontAwesome.AMAZON, FontAwesome.AMAZON, FontAwesome.AMAZON ); } } Где создаются 4 закладки, в которые устанавливаются компоненты Label , и на все закладки ставится значок Amazon, не сочтите за рекламу, просто буква А идет первой . В итоге получается вот такой интерфейс: Заключение Что-то много получилось для первого раза. Но да ладно В итоге получился простенький фреймворк, который позволяет быстро создавать новые интерфейсы для отображения разного набора данных и описывать логику работы с ними. Также планируется добавить компоненты которые позволять создавать редакторы справочников(списков), что будет являться интерфейсом для наполнения баз данных. Написать много-много тестов (буду рад предложениям о том, как тестировать такие штуки, потому что идей пока не появилось), а так же улучшать API и набор функций. Также создать функционал работы с базами данных. PS Данная реализация возникла в ходе производственной ситуации, и основное применение носит для конкретного заказчика, но я думаю этот проект можно использовать для решения других задач. Благодарности @djeckson за разработку класса для фильтрации FilterPanel и активное участие в проекте. Ссылки Ссылка на репозиторий , там же описание как подключить.
https://habrahabr.ru/post/318496/
habrahabr
Liveedu.tv — стриминговый сервис для программистов и дизайнеров
['стриминг', 'онлайн обучение']
LiveEdu.tv — это стриминговый сервис предназначенный, в первую очередь, для программистов, который вскоре станет доступен и для других специалистов, в том числе дизайнеров и инженеров....
LiveEdu.tv — это стриминговый сервис предназначенный, в первую очередь, для программистов, который вскоре станет доступен и для других специалистов, в том числе дизайнеров и инженеров. LiveEdu.tv представляет собой интерактивную платформу, где вы можете наблюдать за работами профессионалов, уроками и конференциями в сфере программирования, а также дизайна в режиме реального времени. Вдохновителем идеи стал Майкл Гарбейд в конце 2014 года, а сама идея пришла во время стримов игр на twitch и параллельной разработкой программного обеспечения в VirtualBox Linux. Сервис появился на свет в феврале 2015 года при финансовой поддержке European Pioneers . Первыми стримерами выступили программисты из нашей команды, а так же некоторые из разработчиков игр, которые уже стримили на других платформах, согласились стать первопроходцами. Whilke , moatdd и многие другие стримеры принесли с собой зрителей, которые до этого следили за их стримами на других платформах. Мы получили большую поддержку от таких сообществ как Mashable , Venturebeat и Spiegel . Основная проблема заключалась в одновременном привлечении стримеров и зрителей. Чтобы решить ее мы создали оповещения для тех, кто подписался на определенный канал или категорию программирования. Здесь мы немного просчитались, как только количество стримеров выросло, те кто были подписаны на определенные категории начали получать огромное количество уведомлений. Проблема была частично решена путем расширения количества категорий, которые охватывают всевозможные языки, библиотеки итд. что дало возможность выбрать более узкую область. Изначально, сервис предназначался исключительно для обучения как место, где ученики смогут учиться у опытных программистов, но со временем LiveEdu.tv стал похож на социальную сеть для программистов, где люди не только учаться друг у друга, но и общаются, обсуждают проекты, устраивают конкурсы и встречи. Сервис часто знакомит и объединяет людей говорящих на одном языке, имеющих похожую сферу деятельности и место проживания. Каждый может стать стримером от эксперта до школьника. Чтобы не пропускать стримы на интересующие вас темы, в профиле предусмотрена настройка уведомлений. Правила оповещений задаются очень гибко: сначала вы выбираете категорию (например, Android или C++ ), а затем по желанию сужаете круг, выбрав сложность и язык трансляции. Также, вы можете найти интересующий стрим в расписании . В разделе «video» можно найти записи стримов, отфильтровать по сложности, языку и категории программирования. Есть возможность нанять на проект стримера. Эта полностью опциональная возможность не означает обычный найм — сервис играет роль нечто среднего между фрилансерской биржей и реалити-шоу. Заказчику предлагают посмотреть как разработчик выполнит эту работу. Стример может указать в настройках канала стоимость часа. В его профиле появляется кнопка, при нажатии на которую любой заинтересованный может выбрать тип стрима (приватный или публичный) и описать работу, которую нужно выполнить. После внесения нужной суммы, за указанное количество часов, деньги будут депонированы у сервиса. Стример свяжется с заказчиком для уточнения деталей. Затем он выполнит запрашиваемое, вещая процесс в сеть и заказчик сможет пронаблюдать за процессом. По окончании работы LiveEdu.tv передаст денежные средства стримеру. С момента основания Livecoding.tv в 2015 сервис посетили боле 1 000 000 пользователей. Названия сайта LiveCoding подразумевает то, что темы стримов будут о программировании, но спустя некоторое время все больше людей интересуются можно ли транслировать смежный с IT контент. Поэтому было принято решение расширить категории Livecoding.tv от сугубо программирования также к дизайну, инженерии и другим сферам тесно связанным с миром IT. В связи с добавлением новых категорий, вскоре Livecoding.tv будет переименован в LiveEdu.tv . В ближайшее время вместе с новым названием сайт обретет и новый дизайн, где будут учтены пожелания пользователей . Официальное сообщество в ВК
https://habrahabr.ru/post/318498/
habrahabr
Сколько нужно времени на изучение новой технологии?
['новые технологии', 'обучение', 'время']
Чтобы изучить новую технологию достаточно месяца. На этом можно было бы закончить эту статью, толком не начав ее. Однако я продолжу и расскажу вам, как пришла к такому выводу, что можно...
Чтобы изучить новую технологию достаточно месяца. На этом можно было бы закончить эту статью, толком не начав ее. Однако я продолжу и расскажу вам, как пришла к такому выводу, что можно сделать, чтобы ускорить процесс обучения, а также перечислю основные проблемы изучения новых технологий и, самое главное, способы их решения. Для начала отмечу, что названный срок в месяц — это большое допущение и приблизительная оценка. Все зависит от вашего начального уровня и сложности той технологии, которой вы решили овладеть. Кому-то достаточно посмотреть исходники в библиотеке, а кому-то необходимо кропотливо разбираться во всех нюансах. И все равно я уверена, что много времени вам не потребуется. Первое, что может радикально сократить траты времени на обучение — это вопрос «А нужно ли вообще изучать именно эту технологию?». Тут все относительно. Ведь можно писать на jQuery, и никто вам ничего не скажет. В конце концов, освоить абсолютно всё невозможно физически. И все же слишком часто отвечать «Нет» я бы не советовала. Этот вопрос мы должны задавать себе не для того, чтобы оправдать свою лень, а просто для более рационального распределения собственных ресурсов и выбора наиболее актуальных задач. Обучаться и таким образом повышать собственную конкурентоспособность просто необходимо. То, как быстро вы обучаетесь, показывает, как быстро вы сможете выйти на рынок и создать новый продукт, который сможет конкурировать с другими компаниями. Этот факт понятен интуитивно, но мы должны просто-таки вбить его в свои головы и двигаться вперед. 99 problems Итак, будем считать, что мы уже мотивированы и горим желанием научиться чему-то новому. И тут начинаются проблемы… Первая и главная — это риски использования новой технологии. Эти риски делят между собой как разработчики, так и заказчики. Одна из причин понятна: технология может быть сырой, а еще она может не «выстрелить», и ее не будут поддерживать в будущем. И это еще не все. Для поддержки продукта на новой технологии в штате заказчика может просто не оказаться нужного специалиста. Или разработчик может уйти из компании и оставить свое творение без поддержки, так как кроме него больше никто не знает, как это делать. Хороший пример подобной проблемы — новый язык программирования Elm . Его мало кто знает и использует, поскольку он достаточно сырой. Тем не менее, у проблемы риска есть решение. Просто перед началом изучения вам надо проанализировать ситуацию: посмотреть на востребованность технологии на рынке, а также узнать, кто является ее контрибьютером и каковы их планы по поддержке. Это несложный шаг, который избавит вас от необходимости хвататься за все подряд. Еще одна проблема — совместимость. Некоторым продуктам необходимо использование новых технологий, но нельзя просто взять и перейти, например, на React. Ведь он требует еще и модульную сборку, вебпак и много всего прочего. Поэтому, если перед вами стоит подобная задача, самое время задуматься, стоит ли браться за то, что потребует так много сил на достижение совместимости. Решить эту дилемму просто — надо присмотреться к аналогам. Очень часто выпускаются новые однотипные технологии, некоторые из которых вполне могут оказаться совместимыми с тем, что вы уже используете. Если продолжить приведенный выше пример, возможно, вам нужен не React, а просто шаблонизатор. Еще один часто встречающийся «подводный камень» — отсутствие необходимой сопроводительной информации. Книг по технологиям, которые вышли всего неделю назад, не бывает. Книги просто не печатаются так быстро. Даже электронные. Кроме того, часто нам не хватает русскоязычной литературы, а иногда документация либо плохо переведена, либо просто некачественна. С такой бедой, я уверена, сталкивались очень многие. Решений тут может быть несколько. Первое — социальные сети. Мы все в них присутствуем, как и (сюрприз!) разработчики той технологии, которая так вам необходима. Свяжитесь с ними или найдите нужное сообщество и узнайте все, что требуется. Второй путь — блоги, в том числе и видео. Большинство разработчиков (опять сюрприз!) ведут их и выкладывают обзоры и советы по освоению своих творений. Третий совет — давайте обратную связь. Если вы нашли ошибку, напишите об этом. Если вам досталась некачественная документация — не молчите. И наоборот, если какой-то блог помог вам разобраться в проблеме, оставьте отзыв и похвалите автора. Ну и, наконец, есть абсолютное оружие — знание английского. Если вы освоите язык на достаточном уровне, чтобы понимать оригинальные тексты хотя бы со словарем, вы просто забудете про нехватку информации. Финальная проблема, о которой пойдет речь — отсутствие опыта. К сожалению, никто не рождается, умея сразу все. А те, кто умеет, не часто обрывают вам телефон, чтобы поделиться информацией. Поэтому отсутствие опыта, а также видеокурсов и туториалов серьезно увеличивает срок разработки. Например, когда я работала в компании 2ГИС, был выпущен продукт под названием «Сквер». Это платформа для вопросов о городах, а при ее разработке была установлена очень высокая планка и применено много новых технологий, что, конечно же, отразилось на сроках. Так бывает всегда: делать что-то новое в первый раз всегда сложнее всего. Решение, которое я предлагаю, называется Github Search . С помощью него вы можете быстро найти готовые примеры использования технологии, которая вас интересует, причем часто прямо от самих авторов. Еще один необходимый сервис — Stack Overflow . Там есть разработчики, которые всегда готовы ответить на ваши вопросы. А может быть, ваш вопрос уже кто-то задал, и вам нужно просто прочитать готовый ответ. Еще один важный совет напоследок — не бойтесь покидать зону комфорта. Запишите видеоурок или выступите перед публикой на митапе, сделайте то, чего раньше не делали. Таким образом вы не только поделитесь своим опытом с другими, но и сами узнаете много нового. Почему это важно? Да потому, что это ваш личностный рост. Ходите на мероприятия, знакомьтесь и общайтесь с интересными вам людьми, рассказывайте о своих проектах — это даст вам такой фидбек, что вам захочется делать еще и еще. Кстати, чтобы подтвердить верность собственных мыслей по всем вышеописанным поводам, я провела специальное исследование и опросила около 200 разработчиков, как только начинающих, так и уже работающих профессионалов. Вопрос был один для всех, и он вынесен в заголовок этой статьи. Результаты оказались следующими: больше полугода с новыми технологиями разбирались 9,7% опрошенных. Их противоположностей, которым хватило всего недели, оказалось 18,3%. 23,7% участников анкетирования потратили от одного до трех месяцев, но больше всего, 48,3% разработчиков, ответили, что на изучение новой технологии им необходим именно месяц или чуть меньше. Шаги и среда На базе этого исследования я подготовила тактику, которая поможет вам справляться с обучением быстрее. Она состоит из двух компонентов — это шаги и среда. Шагов всего три. Первый из них — «Пойми!». Поймите, что это за технология, как она преобразует данные, как именно она помогает добиться результата, каковы ее составные части и как они взаимодействуют между собой. Смотрите примеры на Github, читайте ReadMe и ищите тематические посты на Хабре. Ничего нового, но многие почему-то пропускают этот шаг и сразу бросаются в бой. Второй шаг называется «Закрепи!». После того, как вы поняли, что это за технология и зачем она вам нужна, переходите к практике. Так вы быстрее обнаружите собственные пробелы в теории и ликвидируете их. Главное — будьте внимательны и не допускайте опечаток. Теорию же можно найти и на Stack Overflow, и на «Тостере», и в книгах издательств GitBook и O’Reilly. Смотрите уроки на Level up! или русскоязычном Loftblog , где я когда-то преподавала. В конце концов, просто найдите себе наставника. Это может быть ваш коллега, наставник на курсах, личный ментор или даже сосед по парте — кто угодно, кто опытнее вас. После этого сделайте третий шаг — «Обсуди!». Офлайн или онлайн — неважно. Главное, чтобы вы получили шанс обменяться опытом. К разделу среды я отнесла два фактора — это «Выживание» и «Время». «Выживание» отвечает за реальную необходимость изучения той или иной технологии. Наш мозг очень ленив, он не желает трудиться ради цели, важность которой не доказана, и всегда будет подсовывать вам много таких наиважнейших дел, как позвонить бабушке, полить цветы, покормить кота. А вот если он будет точно знать, что без JS вы не выживете, не найдете работу и не прокормите семью, вот тогда вас самих удивит скорость обучения. В некоторых случаях мозг можно стимулировать самомотивацией: пролистайте список вакансий и помечтайте о большой зарплате, посмотрите на чужие качественные продукты, чтобы захотеть самому сделать такой же. Со «Временем» все проще, но это кажущаяся простота. Мы думаем, что если будем тратить как можно больше времени на обучение, то быстрее получим результат. Вообще-то, все не так. Время должно быть организовано. Нельзя нарушать режим сна, питания, отдыха. Только так вы достигните максимальной продуктивности. Двух-четырех часов в будний день и в течение одного или двух выходных в неделю достаточно для обучения. Если вы не будете отдыхать, то перестанете получать удовольствие от процесса освоения новой технологии. Есть много тактик общения со временем. Моя любимая называется Pomodoro и она заключается в том, чтобы разбивать время на блоки по 30 минут. 25 из них надо тратить на дело, а 5 — на отдых. Заключение Если подвести некий итог, то он будет звучать так — все просто, нет такой технологии, которую вы не смогли бы освоить в разумных временных рамках. Не забывайте доказать себе критичность выживания при помощи объекта изучения и правильно организовывать свое время, а потом делайте необходимые три шага, и тогда все получится! Удачи!
https://habrahabr.ru/company/mailru/blog/318460/
habrahabr
Google показала образец благотворительности с тройной выгодой
['Google.org', 'благотворительность', 'школы', 'Рождество']
Словарь определяет благотворительность как бескорыстный акт материальной помощи людям. Как раз на Рождество принято помогать. Компания Google, которая известна своими благотворительными актами,...
Словарь определяет благотворительность как бескорыстный акт материальной помощи людям. Как раз на Рождество принято помогать. Компания Google, которая известна своими благотворительными актами, тоже отличилась на это Рождество. Но отличалась в плохом смысле. Оказалось, что главным выгодополучателем рождественской благотворительной акции Google является… сама Google. Вот как работает эта схема. Благотворительный фонд Google.org Благотворительный фонд Google.org (Google Foundation) учреждён в 2005 году основателями и крупнейшими акционерами компании Google Inc. Фонд является подразделением Google, и туда корпорация направляет часть своей прибыли. Годовой бюджет фонда — около $100 млн, эти деньги он направляет в различные благотворительные и некоммерческие организации. Основные направления деятельности фонда в 2016 году: устранение расовой дискриминации; образование и цифровые способности; помощь инвалидам; помощь в кризисах по всему миру (европейский кризис беженцев в 2016 году, кризис лихорадки Эбола в 2014 году и др.). По американским законам, компания освобождается от налогов на сумму благотворительной помощи. В этот рождественский сезон благотворительный фонд объявил об акции невиданной щедрости — раздаче грантов на сумму $30 млн, что доведёт общий объём благотворительной помощи Google.org в 2016 году до суммы, превышающей $100 млн. В рамках этих финансовых грантов благотворительные организации имеют право закупать смартфоны, планшеты, ноутбуки и другое оборудование для своей деятельности. Схема DonorsChoose DonorsChoose — независимая от Google краудфандинговая платформа помощи учителям. Благотворительный фонд Google обязался участвовать в проектах DonorsChoose на круглую сумму в этот рождественский сезон. Дети из бедных районов в рамках программы DonorsChoose получили хромбуки для обучения. На фотографии — ученики Тима Джонса в Ronald McNair Academy в Восточном Пало-Альто, Калифорния DonorsChoose — это благотворительная организация, которая образована в 2000 году, до появления благотворительного подразделения Google. Изначально она была создана для «гражданского краудфандинга» — чтобы простые американцы могли жертвовать напрямую конкретным школьным проектам на покупку необходимых вещей, которых так не хватает в бедных школах. Например, учебников и канцелярских товаров. Программа работала очень хорошо. Учителя составляют списки того, что им необходимо для школьных проектов, а спонсоры помогают собрать деньги на покупку этих вещей. Платформа DonorsChoose удостоилась заслуженного признания за такой прозрачный и эффективный подход к благотворительности. Простые люди видят конкретных детей и учителей, которым помогают, видят результат своей помощи. Говорили, что такая платформа гражданского краудфандинга может произвести настоящую революцию в образовании. Но в этом году учителя, которые принимают участие в программе, подняли протест. Они обращают внимание на недостатки DonorsChoose в части работы со спонсорами, которые выделяют «подарки» для учителей. Среди таких спонсоров и Google. Дело в том, что большинством запросов учителей были вовсе не ноутбуки или смартфоны, а простые канцелярские принадлежности. Но в этом году схема передачи грантов DonorsChoose стала включать в себя обязательный сбор $30, который вычитается из каждого гранта. Таким образом, стали намного «дороже» мелкие запросы учителей, которым нужны самые базовые вещи. А вот запросы на хромбуки удовлетворяются компанией Google мгновенно. Учителя увидели, как изменилась схема — и стали всё чаще заказывать именно хромбуки и прочее. В конце концов, в этом случае есть хотя бы перспектива действительного удовлетворения гранта. «Если ты попросишь у Санты хромбук — у тебя будет хромбук», — пишет The Register. Если ты попросишь что-то другое — у тебя не будет ничего. Так что же попросить у Санты, выбирай сам. Например, вот заявка учительницы мисс Стенсбери из провинциальной школы в Мичигане, которая относится к «максимальному уровню бедности». Она красноречиво описала, что её ученики «желают гуглифицироваться» на сумму $2097. Заявка включает семь хромбуков HP Chromebook 11 G4 11.6 Inch Laptop (Intel N2840 Dual-Core, 2GB RAM, 16GB Flash SSD, Chrome OS), Black по цене $177,99 и три хромбука HP Chromebook 11 G4 11.6 Inch Laptop (Intel N2840 Dual-Core, 2GB RAM, 16GB Flash SSD, Chrome OS), Black по цене $159,99. Заявка удовлетворена в ноябре одним-единственным донором Google.org. А вот другая скромная заявка из бедной школы в неблагополучном квартале, где учительница просила канцелярские принадлежности, наушники и кубики для обучения самых маленьких детей 4-6 лет — этот заказ на $399 собирал деньги два месяца и завершил сбор пожертвований от физических лиц только вчера. Разумеется, получить грант от богатой корпорации гораздо проще, чем собрать даже несколько сотен долларов с частных лиц, пусть даже на самые простые вещи. Благотворительная организация Google.org по какой-то причине выбирает для финансирования именно те заявки, где учителя просят хромбуки. Google любит учителей, которые любят её игрушки, пишет The Register. Логика таких действий понятна. Деньги, потраченные на благотворительность, частично возвращаются в Google (это 1). Компания увеличивает количество пользователей, потому что ноутбуки заблокированы на обязательное использование сервисов Google (2). И кроме возврата денег, компания ещё получает налоговые скидки на сумму, потраченную на благотворительность (3). Тройная выгода! Кстати, такой же сомнительной благотворительностью занимается и родительская компания Alphabet. Новый финансовый директор Рут Порат (Ruth Porat) ввела очень строгую финансовую дисциплину , так что традиционные рождественские подарки сотрудникам на этот новый год (смартфоны Nexus/Pixel, умные часы Android, хромбуки) в этом году решили отдать на благотворительность . От имени сотрудников. Некоторые учителя, которые выражают протест на Reddit, говорят, что такое «навязчивое спонсорство» мешает учителям просить действительно те вещи, которые им нужны. Учебные материалы, бумага, скрепки, книжки, аудиопринадлежности. В школах всегда не хватает таких простых вещей, даже в США. А им дают хромбуки.
https://geektimes.ru/post/284096/
habrahabr
Apple опубликовала первую работу по ИИ
['Apple', 'Emotient', 'распознавание эмоций', 'GAN', 'ИИ', 'Расс Салахутдинов', 'нейросеть', 'состязательная нейросеть', 'фотореалистичные изображения', 'синтетические изображения']
Обучение состязательной нейросети на основе аннотированных синтетических и неаннотированных реальных изображений. Иллюстрация из первой научной работы Apple по ИИ Представьте будущее, в...
Обучение состязательной нейросети на основе аннотированных синтетических и неаннотированных реальных изображений. Иллюстрация из первой научной работы Apple по ИИ Представьте будущее, в котором системы искусственного интеллекта крупных корпораций будут конкурировать между собой, зарабатывая деньги для своих акционеров. Разумеется, у корпоративного ИИ основной задачей будет максимизация прибыли. Хорошо, если акционерами компании будут люди и прибыль достанется им. Программы ИИ могут анализировать рынок, определять наиболее перспективные рыночные ниши, устанавливать сотрудникам задачи по разработке новых продуктов. Возможно, ИИ может и сам генерировать продукты, но проверять их надо на людях, так что живые сотрудники всё равно необходимы корпорации для тестирования. Такое киберпанковское будущее становится немного ближе. Google, Facebook, Microsoft и другие крупные корпорации ведут активные разработки в области систем слабого ИИ ограниченной функциональности. Свои разработки ведёт и Apple, но до сих пор эта компания со свойственной ей закрытостью не опубликовала ни одной научной работы. Никто не знал, над чем она работает. И больше всего проиграла от такой закрытости сама Apple. Сейчас Apple наконец-то опубликовала свою первую работу в области искусственного интеллекта. И пусть тема первой работы не такая глобальная — всего лишь улучшение качества обучения состязательной нейросети без учителя на синтетических изображениях ("Learning from Simulated and Unsupervised Images through Adversarial Training"). Важен сам факт, что в «яблочной компании» есть научно-исследовательские подразделения, которые работают в этой перспективной области. Сначала нейросети обучаются на создании красивых картинок, но затем станут решать и более сложные задачи. Apple уже несколько лет работает над системами ИИ. Наглядным подтверждением стал голосовой помощник Siri, который появился в iPhone в 2011 году — чатбот с дополнительными функциями. Он выглядел довольно интересно для своего времени. Но за все прошедшие годы учёные из Apple не опубликовали ни одной научной работы . По мнению некоторых специалистов, такая закрытость является причиной того, что Apple отстала от конкурентов в данной области. Это понятно. Закрывшись от коллег, исследователи из Apple не получали столь необходимой для научной работы обратной связи, отзывов, комментариев коллег. Никто не мог использовать их работу и усовершенствовать её, никто на них не ссылался. В конце концов, ведь научной сообщество — это глобальная открытая среда, где каждая работа опирается на мощный фундамент из многочисленных работ коллег. Здесь метод изоляции не работает, как в привычном Apple мире компьютерных экосистем. В декабре 2016 года политика Apple в этой области наконец-то изменилась. 5 декабря 2016 года на конференции Neural Information Processing Systems в Барселоне выступил Расс Салахутдинов (Russ Salakhutdinov) директор по исследованиям искусственного интеллекта в Apple, который занял эту должность в октябре, придя из Университета Карнеги — Меллона. Он рассказал публике, что Apple отныне будет публиковать свои работы по ИИ, как это делают остальные компании. Слайд из презентации Салахутдинова 5 декабря 2016 года Apple наняла директора по исследованиям ИИ и изменила политику, потому что многие классные специалисты в этой области просто отказывались работать в «яблочной компании» из-за её закрытой политики. Какой смысл в большой зарплате, если о твоей работе никто не знает? Чтобы компенсировать проблемы с наймом учёных, Apple сконцентрировалась на скупке стартапов. В этом году она купила Turi Inc. за $200 млн и ещё полдесятка других стартапов , в том числе индийский Tuplejump Software Pvt Ltd (специализируется на быстром дата-майнинге), Emotient (разработка систем ИИ, которые распознают и реагируют на эмоции на лице человека). От Apple можно ожидать наиболее «гуманных» разработок в сфере ИИ, то есть таких, которые взаимодействуют напрямую с человеком. Сюда вполне вписываются распознавание эмоций и реагирование на них, чем занимается недавно купленный стартап. Первая научная работа Apple описывает технологию для улучшения качества обучения нейросети. В последнее время для обучения нейросети часто используются синтетические изображения (в состязательных нейросетях генерацией картинок занимается генератор, а их схожесть с реальностью определяет дискриминатор). Так проще составить необходимую большую базу для обучения нейросети. Так вот, исследователи из Apple нашли способ, как сделать такое обучение более эффективным, добавляя фотореализма синтетическим изображениям с помощью базы реальных фотографий и «рефайнера» (улучшателя). Обучение нейросети на синтетических изображениях эффективно, потому что они уже аннотированы и размечены. Но обученная на них нейросеть с трудом переносит свои знания в реальный мир, вид которого далёк от синтетических картинок. Разработка Apple решает эту проблему. Научная статья опубликована 22 декабря 2016 года в открытом доступе на сайте препринтов arXiv.org (arXiv:1612.07828). Авторы научной работы — шесть сотрудников Apple, в том числе Джош Сасскинд (Josh Susskind), сооснователь стартапа Emotient по распознаванию эмоций, который недавно купила Apple.
https://geektimes.ru/post/284098/
habrahabr
Интуитивное программирование
['программирование', 'разработка', 'usability', 'UI', 'интуиция']
За свой относительно небольшой опыт работы (порядка 6 лет) я довольно часто слышал фразы опытных и начинающих программистов — «Я чувствую, что это должно работать», «У меня есть ощущение, что этот...
За свой относительно небольшой опыт работы (порядка 6 лет) я довольно часто слышал фразы опытных и начинающих программистов — «Я чувствую, что это должно работать», «У меня есть ощущение, что этот метод работать не будет», «Давайте сделаем интуитивно-понятный интерфейс» и так далее. Всё это — проявление интуиции в процессе разработки и программировании. О ней и пойдёт дальше разговор. Взято с сайта oprah.com Для начала хотелось бы определить само понятие «интуиция». Интуи́ция (позднелат. intuitio — «созерцание», от глагола intueor — пристально смотрю) — метод решения задач посредством единомоментного подсознательного вывода, основанный на воображении, эмпатии и предшествующем опыте, «чутьё», проницательность . «Википедия» Интуиция (от лат. intueri – пристально, внимательно смотреть) — мыслительный процесс, состоящий в практически моментальном нахождении решения задачи при недостаточной осознанности логических связей. Интуиция (от лат. intueri — пристально, внимательно смотреть) — знание, возникающее без осознания путей и условий его получения, в силу чего субъект имеет его как результат «непосредственного усмотрения» Основой данных определений является то, что интуиция — это некий способ принятия решения. Оснований у этого способа может быть несколько: это и предшествующий опыт, и воображение, и иррациональное «чутьё», и т.д. И каждый из этих способов находит отражение в процессе программирования, причём может оказывать как позитивное, так и негативное влияние. Поэтому, прежде всего, хотелось бы разделить «интуитивное» программирование на 2 составляющих: - оптимистическое и пессимистическое Оптимистическое интуитивное программирование Суть его заключается в оптимистическом или позитивном влиянии интуиции на процесс создания кода. В данном случае интуиция является помощником, «добрым другом», инструментом в руках разработчика. Интуиция, основанная на опыте Основная идея здесь заключается в том, что в процессе накопления опыта разработки у нас складываются определённые стереотипы, ассоциации, связанные с кодом, которые мы способны определять без углубления в мыслительный процесс. Большое количество примеров использования такой интуиции в процессы работы описал Дмитрий Чепель из Acronis в своей статье на Хабре . Если Вы ещё не читали, обязательно прочитайте. Я бы хотел предложить вам другой пример-эксперимент. Ниже приведён пример кода на языке Sidef (я надеюсь не многие из Вас знают его). Попробуйте не особо вникая в детали, догадаться о чём он: loop { var swapped = false { |i| if (arr[i-1] > arr[i]) { arr[i-1, i] = arr[i, i-1] swapped = true } } * arr.end swapped || break } return arr Ответ Это классическая сортировка «пузырьком» Возможно, часть из Вас догадалась о чём идёт речь, увидев в коде знакомые части, возможно некоторые нет. Я попробовал провести этот эксперимент на небольшой группе своих знакомых программистов и результат таков — больше половины (порядка 65%) человек смогли за очень короткое время понять о чём идёт речь. Я уточнил у них, каким образом они смогли догадаться — и самым популярным ответом было: «Мы увидели знакомые куски кода и сразу предположили что это такое». Таким образом, накапливая опыт, наш мозг способен очень быстро без дополнительных умственных усилий принимать решения касательно кода, с которым мы работаем. Именно из-за этого нам кажется, что более опытные программисты обладают неким «чутьём» касательно проекта или какого-либо языка программирования. Интуиция, основанная на логике Попроуйте продолжить следующий ряд: 1, 3, 5, 7, 9, 11, ... Наверняка Вы ни на секунду не задумались, какое число будет дальше. Это простой пример закономерности, которую мы можем продолжить буквально не задумываюсь. Но что, если взять для примера следующий кусок кода на Python: def sum(a, b): ... def mult(a, b): ... def subtract(a, b): ... def divide(a, b): ... def calculate(a, b, strategy): ... calculate(4, 2, sum) #6 calculate(4, 2, mult) #8 calculate(4, 2, subtract) #2 calculate(4, 2, divide) #?? Даже не видя исходного кода, мы «интуитивно» чувствуем, каким будет результат выполнения последней функции в списке. Это происходит благодаря тому, что мы анализируем названия функций, сопоставляем их с получаемым результатом и таким образом строим некоторые закономерности, предположения насчёт анализируемого кода. Таким образом, мы подключаем нашу интуицию, подкреплённую логикой, для чтения такого кода. Здесь хотелось бы отметить, что код, который соответсвует нашим предположениям, нашей интуиции, мы обычно называем «удобочитаемым», «понятным» кодом. Это связано с тем, что мы задействуем не только ресурс нашего мозга, но и нашу интуицию, тем самым упрощая чтение и понимание кода. Интуитивно-понятный интерфейс И сейчас хотелось бы перейти к такому часто используемому выражению как «интуитивно-понятный интерфейс». Это касается как и программного, так и пользовательского интерфейса. Учитывая вышеизложенные пункты, можно сказать, что интуитивно-понятный интерфейс — это интерфейс, которые соответсвует ожиданиям пользователя, будь то программист или конечный пользователь. Ожидания же эти формируются на основе 2 составляющих — нашего предыдущего опыта и логических закономерностей и предположений. Если на всех страницах вашего веб-сайта меню было сверху, но на странице Обратной связи меню слева, то конечный пользователь может прийти в некоторое замешательство, поскольку «его интуиция» подсказывает ему, что меню должно быть сверху. Но почему же иногда, когда мы заходим на какой-то веб-сайт с оригинальным дизайном или новое мобильное приложение, у нас складывается ощущение, что этот сайт выглядит круто или ужасно? Интуиция как иррациональное Основой такого суждения, является то, что часто интуиция рождается как просто ощущение чего-то, неподкреплённое какими-либо выводами, логикой или опытом. Такой вид интуиции является самым опасным в разработке, но и в тоже время он является способом быстрого решения сложных проблем. Это как раз то, что называется «магией» в программировании — мы меняем значение одной переменной или флага и чудесным образом наш код начинает работать, хотя это решение было принято абсолютно инстинктивно. И как раз такой вид интуиции является истинным её проявлением. Пессимистическое инстинктивное программирование Но интуиция может нести и негативный характер при разработке. Как упоминалось выше «иррациональная» интуиция является одновременно и палочкой-выручалочкой и опасным инструментом в руках программиста. Опираясь на такие инстинктивные решения мы теряем уверенность в написанном нами коде, в котором начинает происходить «магия». Что немаловажно, такие решения формируют некоторый уровень беспокойства при принятии последующих решений. Преобладание чувств, ощущений, иррационального при разработке приводит к невозможности обоснования всего с помощью логики, и как результат — усложнению понимания кода, потери читабельности. В качестве заключения В целом вопрос интуиции при разработке программного обеспечения поднимается не впервые. Это связано с тем, что проблема влияния процессов, несвязанных с логикой и мышлением, на процесс написания кода будет оставаться актуальным, поскольку этим процессом занят человек, обладающий чувствами, предрассудками, «иррациональным». P.S. Для тех, же кому интересна тема интуции в разработке ПО, советую почитать доклад Питера Науэра «Интуиция в разработке программного обеспечения» Спасибо!
https://habrahabr.ru/post/318502/
habrahabr
Начал просыпаться Кампи Флегрей, вулкан рядом с Неаполем
['италия', 'вулканы', 'вулканическая деятельность']
Вулкан Кампи Флегрей, рядом с которым расположен итальянский город Неаполь, начал просыпаться. Этот вулкан считается одним из крупнейших в мире, и сейчас давление магмы под ним, по словам...
Вулкан Кампи Флегрей, рядом с которым расположен итальянский город Неаполь, начал просыпаться. Этот вулкан считается одним из крупнейших в мире, и сейчас давление магмы под ним, по словам ученых, достигло критической точки. Фактически, речь идет о том, что вулкан может проснуться в любой момент. А это очень опасно не только для жителей Неаполя, но и для других регионов Италии. Кальдера вулкана сформировалась 39 тыс. лет назад, во время крупнейшего за 200 тыс. лет извержения в этом регионе. Возможно, именно это событие послужило причиной переселения неандертальцев в восточную часть Средиземного моря. Сейчас, порой, из кратера выходят газы в небольшом количестве, что говорит о том, что под поверхностью еще сохранился очаг активности. За Кампи Флегрей ученые ведут наблюдение многие годы, и, похоже, не зря. В 1950-х поверхность над кальдерой начала двигаться, поднявшись с тех пор более чем на 3 метра. Кальдера — обширная циркообразная котловина вулканического происхождения, часто с крутыми стенками и более или менее ровным дном. Такая депрессия рельефа образуется на вулкане после обрушения стенок кратера или в результате его катастрофического извержения. В 1980-х этот процесс ускорился, в регионе также случилось несколько землетрясений. Ученые тогда уже начали подозревать, что вулкан начинает понемногу просыпаться. Тем не менее все неожиданно закончилось и Кампи Флегрей на несколько лет успокоился — вплоть до 2005 года. С тех пор поверхность снова начала подниматься, уровень увеличился на 0,4 метра. Под кальдерой вулкана постепенно накапливается магма. Из-за колебаний верхнего слоя земной коры, вызванных вулканической активностью, погрузилась в воду прибрежная часть города Поццуоли . Сейчас этот регион находится на глубине 10 метров и является туристическим объектом. Погрузившуюся на дно моря часть города изучают туристы при помощи специальных судов со вставленным на дне иллюминатором. Что касается извержения вулкана, то его предсказать не так просто, и даже регулярные землетрясения или выбросы газа из кратера не всегда являются четким признаком пробуждения «огненной горы». Специалисты из Национального института геофизики и вулканологии Италии ( National Institute of Geophysics and Volcanology ) во главе с профессором Джованни Чиодини (Giovanni Chiodini) решили использовать новый метод наблюдения за активностью вулкана. Этот метод, по словам специалистов, может служить надежным инструментом для определения пробуждающихся вулканов. Он заключается в мониторинге теплопередачи от магмы к близлежащим горным породам, в результате выхода водяного пара из магмы. Когда магма подходит близко к поверхности, давление несколько снижается, что позволяет углекислому газу, водяному пару и другим газообразным соединениям уходить выше. Водяной пар является отличным теплоносителем, который распределяет тепло по близлежащим породам и конденсируется. Как только магма нагревает окружающие горные породы, потоки тепла уходят вверх. Породы нагреваются, их прочность снижается, что приводит к деформации вышележащих слоев. Если нагревание снизу продолжается, это может привести к извержению. Итальянские ученые решили использовать компьютерную модель для того, чтобы прояснить поведение уходящих вверх газов и пара. Когда давление на горные породы в точке соприкосновения магмы с корой достигает критического показателя, газы и водяной пар уходят вверх еще активнее, что можно определить при помощи инструментов. Увеличение объемов «убегающих» из магмы газов, по мнению итальянцев — надежный признак скорого пробуждения вулкана. Компьютерная модель показала, что водяной пар сейчас выделяется гораздо активнее, чем раньше. В результате слои горной породы, расположенные над магмой, прогрелись уже до 60 градусов Цельсия. Что еще более важно, так это то, что модель продемонстрировала достижение магмой критического давления, после которого начинается активная фаза пробуждения вулкана. К сожалению, точный прогноз времени пробуждения составить нельзя. Вулкан может проснуться как через несколько лет, так и через несколько десятилетий. Модель, которую используют ученые, не позволяет изучить строение вулкана, чтобы понять, когда и как поднимающаяся магма прорвется наружу. А сам вулкан — очень сложная система, которая может как неожиданно заснуть, так и не менее неожиданно проснуться. Например, остывающая, лишенная газов магма может застыть, закрыв выход наружу более горячим слоям. Период сна между 1984 и 2005 годами — пример такого «сна». Без сомнения, полмиллиона людей, живущих рядом с кальдерой, в опасности. Само извержение не обязательно будет таким же мощным, как 39 тыс. лет назад. Этот вулкан извергался и менее активно, например, в 1538 году . DOI: 10.1038/ncomms13712
https://geektimes.ru/post/284100/
habrahabr
Антивирусная защита предприятия
['вирус', 'антивирус', 'вредоносный код', 'КБММУ']
В статье Как ответить на вопрос — что такое «компьютерный вирус» мы рассмотрели эволюцию данного понятия. В этот раз рассмотрим вариант построения эшелонированной антивирусной защиты. Сразу...
В статье Как ответить на вопрос — что такое «компьютерный вирус» мы рассмотрели эволюцию данного понятия. В этот раз рассмотрим вариант построения эшелонированной антивирусной защиты. Сразу отметим, что в статье вы не найдёте : сравнения существующих на рынке решений с целью «найти самый-самый лучший антивирус». Такими сравнениями успешно занимаются маркетологи, найти подобные «исследования» не сложно; инструкций по настройкам конкретного программного продукта, которые обеспечат 100% (или 99.999… %) защиту от всех угроз. Очевидно, что построение комплексной защиты требует не только установки антивирусного ПО, но и проведение, в т.ч. на регулярной основе, целого ряда мероприятий: разработка и актуализация политик, инструкций, регламентов (реакции на инциденты, по распределению прав доступа, требований к паролям и др., как бы кто ни относился к такой «бумажной безопасности», но это важный, а иногда и обязательный компонент); обучение пользователей; патч-менеджмент; резервное копирование информации; внедрение дополнительных систем (IPS/IDS, сканеры уязвимостей, сервисы фильтрации DNS трафика и др.) возможно привлечение независимых подрядчиков для проведения аудита/пентеста. Чтобы «не прыгать в ширину», оставим эти вопросы для следующего раза, сосредоточившись на построении именно эшелонированной антивирусной защиты. Рассмотрим упрощенную схему сети предприятия. В ней, как правило, присутствуют рабочие станции пользователей, серверы для внутренних сервисов (AD, file-server, print-server, ERP и т.д.) и серверы обеспечивающие связь с внешним миром (Mail, Proxy, FTP и т.д.). На схеме следует учесть такое явление как BYOD. На какие параметры смотрим При выборе антивирусного решения полагаем обязательным наличие единой консоли управления всеми продуктами, в которой можно отслеживать состояние и собирать статистику со всех узлов, распространять и контролировать состояние обновлений баз и других компонент, возможно централизованное распространение антивируса (для большинства платформ). Далее, помимо стоимости, целесообразно обратить внимание на следующие параметры: покрытие используемых на предприятии платформ (типов и версий версий ОС, аппаратного обеспечения); влияние на производительность основных задач; качество обнаружения (с учетом сферы бизнеса организации и страны её расположения); качество лечения (этот параметр часто забывают); наличие квалифицированной тех.поддержки, желательно на родном языке; наличие сертификатов — при наличии соответствующих требований. При внимательном рассмотрении перечисленных параметров становится ясно, что выбор только усложняется: WinXP не спешит уходить, в тоже время, от его поддержки производители отказываются, даже у мировых лидеров рынка поддержка некоторых платформ может быть «для галочки» (линейка Windows может поддерживаться начиная уже только с Win7, не на все дистрибутивы Linux / Unix удастся установить продукт, специальные версии продуктов для мобильных платформ или систем виртуализации), сравнений антивирусов много и часто только по критерию обнаружения, но достоверность сравнений и применимость полученных результатов в вашей ситуации может вызывать вопросы. Единое антивирусное решение Владение одним антивирусным решением, по объективным показателям, таким как стоимость лицензий, обучение персонала, выделение ресурсов для консоли администрирования, обычно выходит дешевле. Но это верно при отсутствии заражений, а оценить заранее масштабы последствий практически невозможно. Отметим только, что в случае заражения новым вредоносным кодом локализовать его распространение практически невозможно, а выявить источник и справиться с последствиями может помочь служба поддержки и вирлаб, именно для такой ситуации важны поддержка на родном языке и функционал лечения. Эшелонированное антивирусное решение Предлагаем рассмотреть и оценить подход, когда в ущерб простоты управления системой антивирусной защиты и стоимости владения предлагается использовать эшелонированную антивирусную защиту, которая включает в себя решения от нескольких производителей. Компьютеры, серверы и другие устройства целесообразно разделить на классы по их основному использованию. Для приведенной ранее схемы предприятия это будут: серверы, обеспечивающие коммуникации с внешним миром; серверы, обеспечивающие внутренние сервисы; рабочие станции пользователей (сюда же отнесем BYOD). При разделении на классы не следует увлекаться, одновременная поддержка более 4 решений может приводить к низким знаниям каждой из применяемых систем. Прямой обмен данными (файлами) между устройствами одного класса должен быть запрещен и ограничен техническими мерами. В таком случае данные (файлы) от точки попадания в защищаемую систему до использования на следующем устройстве будут проверены двумя антивирусами: Интернет — [антивирус на mail/proxy сервере] — [антивирус на рабочей станции]; Зараженный сменный носитель — [антивирус на АРМ] — [антивирус на сервере] — [антивирус на АРМ]; Зараженный сменный носитель — [антивирус на АРМ] — [антивирус на mail/proxy сервере]; и т.д. Это, естественно, не дает 100% гарантий от заражений, но снижает риск эпидемий, способствует локализации и своевременному выявлению заражения. При выборе антивирусного решения для отдельного класса устройств, который явно меньше, чем весь парк компании, упрощается выбор решений по критерию поддержки применяемых платформ. Отдельное внимание хочется обратить на то, что для класса «серверы, обеспечивающие коммуникации с внешним миром» , в отличие от других классов, функционал лечения практически не имеет значения, а обнаружение — особенное высокое. А не слишком ли надумано это всё Вполне резонный вопрос — зачем усложнять и теоретизировать, придумывать классы, внедрять несколько антивирусных решений, с учетом потенциального увеличения стоимости владения? Практика применения нескольких антивирусных решений по приведенной или схожей схеме встречается и, как правило, обоснована теми же соображениями, которые приведены в статье. UPD 1 (благодарность muon за точную ссылку) Показатель М4.7 (стр. 28 СТО БР ИББС-1.2-2014 ) Организована ли в организации БС РФ эшелонированная централизованная система антивирусной защиты, предусматривающая использование средств антивирусной защиты различных производителей на: рабочих станциях; серверном оборудовании, в том числе серверах электронной почты; технических средствах межсетевого экранирования?
https://habrahabr.ru/post/318436/
habrahabr
Kaggle: Allstate Claims Severity
['kaggle', 'машинное обучение', 'алгоритмы']
Хотелось бы описать решение к недавнему соревнованию по машинному обучению Allstate Claims Severity. (Мой результат 40 из 3055). Так как это это соревнование типа «ансамблевое рубилово», как...
Хотелось бы описать решение к недавнему соревнованию по машинному обучению Allstate Claims Severity . (Мой результат 40 из 3055). Так как это это соревнование типа «ансамблевое рубилово», как правило, обсуждение решений вызывает нездоровые священные войны между теми, кто пробовал участвовать и теми кто нет, так что для начала я сделаю небольшое лирическое отступление. Заранее извиняюсь за обилие английских слов. Какие-то я не знаю как перевести, а какие-то мне переводить не хочется. Мне нравится думать о машинном обучении как о трех мало связанных между собой направлениях, что я и попытался изобразить на картинке выше, и каждое из этих направлений преследует свои цели. Например, в академической среде твоя производительность, да и вообще личная крутизна меряется числом и качеством опубликованных статей — и тут важна новизна идей, но насколько эти идеи можно применить на практике прямо сейчас это дело десятое. В бизнесе сколько денег твои модели приносят компании и тут важна интерпретируемость, масштабируемость, скорость работы, размер модели и прочее. В соревновательном машинном обучении задача — всех победить. То есть то, что модель будет немасштабируемой, и тренировать ее надо неделями — это приeмлимо. В подавляющем большинстве случаев когда какая-то компания предоставляет данные для соревнования, модели с наилучшей точностью в production в силу их сложности не идут. (Классический пример — это соревнование Netflix prize на котором лучшие модели не применимы, но знания, наработанные участниками во время работы над проблемой, определенно дали толчок исследованиям в направлении рекомендательных систем.) И, как следствие, среди тех кто не пытался участвовать в соревнованиях по машинному обучению складывается мнение, что модели, которые были получены в рамках соревнований — бесполезные. И они, конечно, правы. Но эта публика тут же делает вывод, что знания, полученные во время участия в соревнованиях, тоже бесполезные, и что в соревнованиях участвуют только те, кто не может найти «реальную» работу и у кого есть время на это «никому не нужное занятие». Например, мой коллега на прошлой работе по имени Алекс о котором я рассазывал в этом посте именно так и думал. Существуют и противоположная крайность: те, кто показывает неплохие результаты на соревнованиях думают что они с легкостью будут извергать из себя модели, которые тут же замечательно заработают в Production, что теоретически может случиться, но на практике мне не попадалось. Все-таки точность модели на train set, test set и в production — это три большие разницы. Я предпочитаю думать машинном обучении в соревнованиях vs бизнес как о подтягиваниях vs скалолазание. Если вы много раз подтягиваетесь — это не значит, что вы хороший скалолаз, но при этом подтягивания в какой-то степени помогают лазать и хорошие скалолазы часто инвестируют время в то, чтобы подтягиваться лучше, при этом не просто подтягивания, но и подтягивания с отягощениями, подтягивания на кампусборде, с руками на разной высоте и т.д. Соревнования по машинному обучению работают в похожем режиме в том смысле, что если вы Machine Learning Engineer или Data Scientist и вы не можете предложить что-то достойное на соревнованиях, то, возможно, вам имеет смысл сколько-то времени в это инвестировать. Тем более что соревнований много, они разные и что-то с какого-то соревнования вам может пригодится на работе или по науке. Как минимум ребята с Google, Deepmind, Facebook, Microsoft и прочих серьезных контор периодичеcки участвуют. Да и случаев когда хорошие показатели на соревнованиях помогали найти достойную работу более чем достаточно. Описание задачи Компания Allstate предоставляет данные для соревнования на Kaggle.com уже не первый раз и, видимо, им нравится. В этот раз приз у соревнования — рекрутер Allstate, возможно, заставит себя потратить 6 секунд на ваше резюме, если вы подадите на позицию Junior Data Scientist. Не смотря на то, что приз ни о чем, соревнование привлекло более трех тысяч участников, что сделало его уникальной кладезью специфических знаний. Задача была создать модель, которая будет предсказывать величину выплату по страховому случаю. В общем, как обычно, стаховая компания хочет предсказывать кому страховка не нужна — и продавать ее именно им, а кто может попасть под стаховой случай — им не продавать или продавать задорого. Целевая переменная имеет вот такое асиметричное распределение: Где: min = 0.67 max = 121012 mean = 3037 Результаты оценивались по метрике Mean Absolute Error Данные анонимизированные. 14 численных и 116 категориальных признаков. Train set — 188318 рядов Test test — 125546 рядов Как обычно, чтобы предотвратить overfitting, test set был разделен на 2 части: 30% test set — Public Leaderboard — точность вашей модели на этой части можно было проверить в течение всего соревнования. (5 попыток в день) 70% test set — Private Leaderboard — точность на этой части test set становится известна после окончания соревнования и именно она в конце концов используется для оценки вашей модели. То есть данных достаточно мало, и неплохой результат можно получить на маломощных машинах без использования облачных вычислений, например на лаптопах, что во многом и обусловило большое число участников. Уровень моделей / знаний участников можно очень условно разделить на такие категории, где число — это примерная ошибка на Public LeaderBoard. 1300+ — те, кто знают основы машинного обучения, могут подготовить данные, натренировать линейную регрессию и сделать предсказание. 16% участников 1200-1300 — те, кто знают что-то кроме линейной регрессии. 28% участников. 1200-1120 — те, кто знают, что xgboost / LightGBM существует, но плохо умеют его настраивать. 9% участников. 1110-1120 — те, кто умеют настраивать xgboost или нейронные сети. 22% участников 1104-1110 — те, кто знают, что арифметическое среднее предсказаний xgboost и нейронных сетей точнее чем каждое из предсказаний по отдельности. 11% участников. 1102-1104 — те, кто умеют строить более сложные линейные комбинации. 6% участников. 1101-1102 — те, кто умеют использовать stacking. 5% участников. 1096-1101 — серьезные ребята. 3% участников. Эта градация весьма условна как минимум в силу большого числа участников и нелепости приза. То есть публика активно делилась идеями и кодом и, например, были ветки на форуме где пошагово обсуждалось что нужно сделать, чтобы получилось 1102. Как следствие, как правильно было подмечено Любовью Пузыревой , это соревнование было похоже на Red Queen's race когда надо улучшать свои модели ежедневно только для того, чтобы не сползти вниз на LeaderBoard, ибо 1102+ можно было получить запустив и уседнив результаты предсказаний чужого кода, что, в общем, достаточно низкий стиль, но уж лучше так, чем никак. Правильно усреднять тоже надо уметь. Идеи Идея первая Целевая переменная сильно асимметричная. При этом алгоритмы машинного обучения лучше работают на симметричных данных. Какие-то любят чтобы целевая переменная имела нормальное распределение, какие-то нет. При этом утверждение, которое может встретиться в литературе, что чем симметиричнее целевая переменная — тем лучше, в данном случае не верно. Стандартные способы увеличить симметричность — логарифм, возведение в степень. То есть мы хотим что-то более симметричное чем то, что было изначально, но, так как наша целевая метрика MAE от непреобразованной целевой переменной, мы хотим чтобы ошибка при трeнировке на больших значениях вроде 120000 была больше чем на значениях вроде 100, но не в 1200 раз. И правильное преобразование — это то, которое переводит целевую переменную во что-то симметричное, но с толстым правым хвостом. Например корень четвертой степени у меня очень достойно себя показал, лучше чем логарифм. Идея вторая Это соревнование: на данных смешанного типа которые не обладают локальной структурой размер тренировочных данных 10^4 — 10^7 Это тот тип и тот объем на котором в 95 % случаев у xgboost конкурентов нет. Что тут и произошло. На этом графике топ 30 наиболее важных признаков. Mathias Müller получил 1109 используя xgboost на исходных данных, что соответствует top 25%. (В итоге он закончил соревнование третьим) Идея третья Как находить хорошие гиперпараметры? Существуют несколько методов: Вручную. GridSearch — выставил сетку и проверяешь все или какоe-то подмножество параметров. Более интеллектуальные методы, вроде Hyperopt или BayesianOptimization На практике хорошо себя показала BayesianOptimization для поиска хороших кандидатов + ручная подкрутка. Какие диапазоны параметров проверять? Черт его знает. Я верил тому, что пишут в литературе о том что структура алгоритма в основе gradient boosting такова, что использовать деревья с глубиной больше 10 смысла нет. Врут. В большинстве случаев так и есть, но на этих данных этого мало. Наилучшие модели использовали более глубокие деревья, вплоть до max_depth = 25. Идея четвертая Так как MAE не дважды дифферeнцируема, то можно аппроксмировать модуль как ln(cosh), что уже дважды дифференцируемо, и теперь можно для функции потерь использовать не среднеквадратичную ошибку — а что-то более интересное. И была ветка форума на котором это активно обсуждалось. Идея пятая Существует мнение, что для алгоритмов которые основаны на decision tree не важно как преобразовывать категориальные признаки в численные. И что во всех остальных алгоритмах кроме one hot encoding ничего использовать нельзя. И то, и другое утверждение с точки зрения бизнеса — правда, с точки зрения соревнований и академической среды — наглая ложь. Разница есть, но она небольшая. Можно пробовать различные encoding и смотреть что лучше работаeт. Например, для некоторых категориальных признаков лексикографический encoding работал чуть лучше, позволяя уменьшить число split в каждом дереве. Идея шестая Существует мнение, что алгоритмы на основе деревьев находят взаимодествия между признаками. Это неправда. Они их аппроксимируют. С точки зрения бизнеса — это одно и то же. С точки зрения соревнований — нет. Поэтому если взять топ сколько то наиболее важных признаков с картинки выше и создать новые признаки, которые будут описывать их взаимодествия то точность некоторых моделей увеличивается, что и было предложено в одном из скриптов . И это позволило кому-то достигнуть 1103 с xgboost. (Мой лучший результат 1104) Идея седьмая А что насчет feature engineering? Правильные признаки в большинстве случаев (но не всегда) дадут больше, чем хитроумные численные методы. При подготовке данных Allstate проделал очень достойную работу, и не смотря на усилия участников ничего толком деанонимизировать не удалось. Вроде поняли что один из признаков — это штат. И что какие-то признаки как-то соотносятся с датами. Но насколько я знаю ничего из этого выудить не получилось. Статистические признаки тоже ни у кого толком использовать не получилось. Я все равно добавил временные зоны, и статистические признаки для наиболлее важных категориальных, но это скорее для успокоения совести. Вот, например, diff признака cont2 vs cont2. По идее это нам должно сказать какое преобразование Allstate применил к фиче cont2, но как я голову ни ломал не смог придумать как это преобразование найти. Идея восьмая Чтобы получить результат лучше 1102 нужен stacking. Это такая грамотная техника, которая используется в каждом втором соревновании, но, насколько я знаю, в production применяется исключительно редко. Много она не дает. Но использование stacking позволяет хитроумно скрещивать различные модели. Собственно, до участия в этом соревновании я этой техникой не владел, а лишь слышал краем уха, и основная мотивация для участия была именно разобраться и закрыть для себя этот вопрос. Идея в том, что мы хотим для каждой модели сделать предсказание на train set и на test set, при этом мы не хотим предсказывать на train на тех же данных, что использовалось для тренировки. Вот пример на python как это надо делать. И как следствие для каждой модели у нас будет предсказание на train, и соответсвующее на test. Зачем это надо? Мы повторяем это для разных моделей и комбинируем предсказания в новый train и test set. С признаками: train: {prediction_xgboost, prediction_NN, prediction_SVM, etc} test: {prediction_xgboost, prediction_NN, prediction_SVM, etc} И теперь мы можем забыть про исходные тренировочные и тестовые данные и тренировать второй уровень уже на этих новых данных используя линейные или нелинейные методы. Причем эту процедуру мы можем повторить несколько раз используя предсказания от предыдущего шага как фичи для следующего. В одном из прошлых соревнований итоговое решение выглядело: Собственно такие дремучие решения и вызывают отторжение у тех кто думает о машинном обучении исключительно с точки зрения «How much value can I bring to the company?», ибо на практике не применимы, хотя есть компании, которые пытаются автоматизировать этот процесс. Идея девятая Мы сделали предсказание используя stacking. Можно ли его улучшить? Можно. Алгоритмы на основе деревьев недооценивают большие значения и переоценивают малые, поэтому итоговое предсказание можно откалибровать. Популярное преобразование, которое использовали некоторые участники — это: alpha * prediction^beta , а кто-то даже так делал для различных квантилей. Заключение Собственно и все. Тренируется много разных моделей (xgboost, Neural Networks, Random Forest, Ridge Regression, Extra Trees, SVR, LightGBM) с различными гиперпараметрами на данных, которые преобразованы различными методами в режиме stacking. А потом на предсказаниях от всех этих моделей тренируется Neural Network с парой скрытых слоев для того, чтобы получить итоговый результат. Все достаточно просто и прямолинейно, но при этом чтобы дойти до этого требовалось определенное усилие. Причем опытным участникам это давалось проще чем неопытным. Будем надеяться, что в другой проблеме, где могут быть использованы похожие приемы, сакральные знания, полученные тут, как-нибудь да помогут. Тем, кто не пробовал участвовать в соревнованиях, я настойчиво рекомендую. Eсли вы используете машинное обучение на работе, то вам сам бог велел проверить насколько сильно ваши знания и навыки, полученные на работе применимы в мире Competitive Machine Learning, и не исключено, что что-то вы, возможно, выучите во время соревнований и это сможет пригодится вам на работе чтобы вы могли «bring value to the company». Например, я убедил босса сделать пару сабмишенов на одном из недавних соревнований. Он улетел в нижние 10 процентов LeaderBoard (злой потом ходил и много думал) потому как использовал различный encoding на train и test. После этого его политика на работе изменилась и мы стали чуть больше врeмени уделять тестированию. Если вы еще студент — сам бог велел участвовать. Если бы пять лет назад я обладал теми же навыками работы с данными, моя научная работа в аспирантуре была более эффективной и я бы опубликовал больше статей. Плюс хорошие результаты с соревнований в которых рабочая лошадка это нейронные сети практически однозначно можно публиковать. А уж как кусок диплома точно можно вставлять. Если вы задумываетесь о постепенном переходе в Data Science — вам опять же сам бог велел участвовать. Соревнований самих по себе недостаточно для того, чтобы вас взяли на работу, но в совокупности с образованием и опытом работы в других областях должно помочь. В том году парня в DeepMind пригласили после одного из соревнований, так что случаи бывают разные. Не все задачи так ориентированы на численные методы. Недавнeе соревнование по предсказанию продуктов для различных пользователей банка Santander в Испании — чистый feature engineering. Жаль, что я мало времени ему уделил. Или же соревнования которые идут сейчас на тему Computer Vision, нейронных сетей и прочих модных ныне слов: Про рыбок — приз $150,000 Про спутниковые карты — приз $100,000 Про рак — приз $1,000,000 Интересно, много знаний, красивые картинки, а кому повезет еще и денег дадут. И так как это Хабр и тут любят код — неструктурированный код, который я написал под эту задачу .
https://habrahabr.ru/post/318518/
habrahabr
Лекция «Животные и космос»
['космонавтика', 'животные в космосе', 'лпк']
В минувшую пятницу в котокафе «Котейная» я прочитал научно-популярную лекцию «Животные и космос», в которой рассказал историю полетов разных животных, немного коснулся вопроса, зачем это делается,...
В минувшую пятницу в котокафе «Котейная» я прочитал научно-популярную лекцию «Животные и космос», в которой рассказал историю полетов разных животных, немного коснулся вопроса, зачем это делается, и закончил полетами котиков в космос и их поведением в невесомости. В публикации с прошлой лекцией было много комментариев с пожеланиями сделать статью на ту же тему. Но пока что мне не кажется интересной идея выражать текстом то, что я совсем недавно говорил. Поэтому, в качестве эксперимента, в этот раз сделаю так: видеоблок идет до ката, а под катом другие видео в качестве дополнительных материалов. Если тема не интересна, под кат заглядывать нет смысла. Американский фильм 1953 года Animals in Rocket Flight. Фильм про шимпанзе Хэма, совершившего суборбитальный полет на «Меркурии». Отечественный фильм «Белка, Стрелка и другие» 2009 года. Капсула «Бион-М» сразу после посадки (2013 год). И пресс-конференция по итогам полета. Лекции сотрудников Института медико-биологических проблем РАН. Огнева Ирина, доктор физико-математических наук, доцент, руководитель группы биофизики клетки ГНЦ РФ-ИМБП РАН, «Невесомость и раннее развитие животных»​ (с 2:29:22). Андреев-Андриевский Александр, кандидат биологических наук лаборатории физиологии мышечной деятельности ГНЦ РФ-ИМБП РАН, «Зачем нужны мыши-космонавты?» (с 1:54:14). Французские эксперименты с кошками. Еще хроника. Ну и, конечно, видео с котиками в невесомости, которые были использованы в презентации.
https://geektimes.ru/post/284052/
habrahabr
Пост-пакетная эра Интернета в России, очередной вероятный сценарий
['пакет яровой', 'интернет']
Спекуляций на тему конечной стоимости хранения трафика много, но все эти спекуляции сходятся на том, что при сохранении текущих тарифов можно не строить ЦОДы а просто сворачивать бизнес и уходить с...
Спекуляций на тему конечной стоимости хранения трафика много, но все эти спекуляции сходятся на том, что при сохранении текущих тарифов можно не строить ЦОДы а просто сворачивать бизнес и уходить с рынка. Путей решения вопроса три: увеличение стоимости тарифов по самым скромным подсчётам — в 2-3 раза, по самым кошмарным — в 10 раз упразднение безлимитных тарифов и урезание каналов — об этом уже начинают говорить представители крупных провайдеров; о чём-то выше 10 мбит/с, вероятно, можно будет забыть комбинация первых двух путей — то есть наиболее вероятный Куда деваться пользователям? Никуда, рынок другого не сможет предложить. Это не полноценная статья, а скорее заметка-прогноз. Сам прогноз под катом. Таким образом создаётся прекрасная ситуация для монополизации правительством очередной отрасли. Вполне вероятно появление на обломках былого раздолья государственного провайдера, который будет освобождён от выполнения предписаний по хранению трафика, и, следовательно, сможет предоставлять те же условия, что сейчас мы имеем у каждого первого частного провайдера. На фоне частных провайдеров при рассматриваемом развитии событий это будут крайне выгодные условия. Нынешние провайдеры не сильно стремятся соблюдать законы о блокировках. Как правило, их методы блокировки легко обходятся, а комбинируют различные методы провайдеры редко. Некоторые провайдеры даже позволяют себе целиком и полностью игнорировать чёрные списки, хотя таких всё меньше (а возможно уже и не осталось, а мои данные устарели). В случае с государственным провайдером эта ситуация может кардинально и резко поменяться. Применяться будут все виды блокировок одновременно. Обход будет крайне затруднителен, если вообще возможен. Необходимость в чёрных списках останется чисто формальная. По факту этот провайдер сможет без всякой законодательной базы блокировать всё, что ему будет нужно, без каких либо комментариев. Более того, государственный провайдер сможет откровенно легко блокировать все виды vpn и все mesh-сети, что технически вполне возможно. При этом для юрлиц он может делать исключения… за отдельную плату и после предоставления ключей шифрования. Или предоставляя свой собственный сервис. При чём, подчеркну, всё это без всякой необходимости в законодательной базе. Хотите — пользуйтесь, не хотите — не пользуйтесь. Монополист может позволить себе такое поведение без каких-либо имиджевых последствий. Тем более, что закон напрямую не запрещает такое поведение. Почему подобный провайдер рискует стать монополистом? Среднестатистический пользователь не будет разбираться в нюансах, а будет пользоваться услугами той конторы, которая предоставит наиболее выгодные условия. Теми, кто всё таки будет лезть в дебри — можно пренебречь, они в пределах статистической погрешности. Таким образом, фактически, этот провайдер очень быстро станет монополистом с огромной долей интернет-пользователей в России, а у частников дела пойдут ещё хуже. Откуда этот провайдер возьмёт инфраструктуру? Нынешние провайдеры с радостью продадут ему эту инфраструктуру или её элементы, так как при рассматриваемом развитии событий их текущая инфраструктура им будет просто напросто не нужна. Или большая её часть. Ну и не стоит исключать, что на роль такого государственного провайдера вполне может сгодиться, скажем, Ростелеком, у которого уже есть обширная инфраструктура. Зачем так сложно? Почему просто не запретить vpn и mesh-сети законодательно, и дело с концом? Затем, что опять мягко и незаметно варят лягушку. Прямая блокировка vpn на законодательном уровне может обернуться лишними имиджевыми неприятностями для правительства, тогда как в схеме с государственным провайдером-монополистом выгода по крайней мере двойная (очередная карманная компания-монополист с огромными прибылями в кармане у особы, приближённой к императору , безнаказанные огульные блокировки всего подряд — о подоплёке блокировок умолчу, она и так большинству понятна) и без каких-либо рисков. Зачем тогда весь нынешний цирк с конями блокировками? Вероятно, банальная апробация методов блокировок и методов обхода. Основной профит — самим ничего делать не нужно, всё сделали провайдеры в части разработки методов блокировок и пользователи в части методов обхода. Кроме того, если принять, что подобный план действий, как описан в заметке, действительно существует — он мог родится не сразу. Всё таки история раскручивается уже не один год, а долгосрочное планирование — не про наше правительство. Почему вдруг понадобилась искать «левый» смысл в поправках пакета Яровой? Потому что в нынешнем виде никакого прямого смысла эти поправки не несут. Результатами сбора трафика будет пользоваться, мягко говоря, проблематично. Закон не предусматривает его обработку. UPD: Комментарий пользователя Furriest даёт основание полагать, что при подобном раскладе частники могут стать не нужны вообще никому и отмереть из отрасли естественным путём. Это просто очередной прогноз вероятного развития событий, не более того. Я никого ни к чему не призываю, в том числе верить этой заметке. Единственное — прошу по возможности прокомментировать Ваш взгляд на вероятность такого развития событий.
https://geektimes.ru/post/284106/
habrahabr
Как я научился не волноваться и полюбил микросервисы, часть 1: Эффекты плохого кода
['микросервисы', 'soa', 'microservices']
Преамбула В этой серии постов я собираюсь обсудить различные преимущества микросервисов как архитектурного паттерна. Я постараюсь охватить аспекты, которые либо не обсуждаются в сети совсем или...
Преамбула В этой серии постов я собираюсь обсудить различные преимущества микросервисов как архитектурного паттерна. Я постараюсь охватить аспекты, которые либо не обсуждаются в сети совсем или обсуждаются, но недостаточно глубоко. Все паттерны разработки, как правило, имеют свои плюсы и минусы. Таким образом, преимущества зачастую носят субъективный характер и разработчику следует выбирать подходящие модели в зависимости от условий и контекста. Я постараюсь выделить объективные или почти-объективные плюсы — преимущества, которые дадут положительный эффект любому разработчику независимо от языка программирования, размера команды или диеты. Первая статья посвящена стоимости плохо написанного кода – мы сравним эффекты влияния такого кода на монолитные приложения и на микросервисы. Кроме того, позже, когда наберется несколько статей, я планирую смонтировать видео для YouTube – анимации и скринкасты донесут мою точку зрения яснее. Введение: Как конвенции и фреймворки улучшают запутанный код Когда вы пишете программу из 100 строк, то, в принципе, не имеет значения насколько крутой вы выбрали дизайн или насколько четко вы будете следуете модным идеям. Небольшое приложение относительно легко понять, просто потому что оно небольшое. А начать его оптимизировать было бы анти-паттерном само по себе – такую оптимизацию часто называют преждевременной. Как правило, вы начинаете рефакторить код, когда заметили, как выросли исходные файлы или как вы повторяете одну и ту же логику более двух раз. Но если у приложения всего 100 строк, сколько реально таких повторений может поместиться? И тут ваш начальник просит все больше и больше фич, и ваше приложение начинает расти. Теперь уже не имеет смысла держать всю логику в одном файле, необходимо разбить приложение на несколько файлов. А когда файлов стало много, вы начинаете организовывать их в папки. Когда стало много и файлов и папок, вы ищете способ логически сортировать элементы. Вероятно, вы начинаете делить исходные файлы на модели, контроллеры и так далее. Начинает появляться опасность запутанного кода – файл X обращается файлу Y, Y зависит частично от файла Z, файл Z импортирует несколько функций из файлов А и Б. Приходит младший разработчик, изменяет один файл и ломается всё приложение, а вы должны исправить ошибку, прежде чем боссу позвонит первый разгневанный клиент. Решать проблему к нам пришли фреймворки. Фреймворки зачастую насаждают свои конвенции (правила), систематические разбиение приложения на файлы и каталоги. Например, контроллеры должны иметь дело только с веб-запросами, классы моделей должны содержать бизнес-логику, шаблоны должны содержать только HTML, конфигурация должна храниться в отдельном месте и желательно зависеть от текущей среды. Хотите добавить ресурс? Измените файл маршрутов! Хотите добавить дополнительную логику, которая запускается после сохранения записи? Подпишитесь на событие! Хотите добавить дополнительные условия для запросов в базу данных? Создайте класс поведения таблицы! И так далее. Это не просто помогает разрабатывать более крупные монолитные приложения, это единственный способ разработать крупное приложение и не сойти с ума! Если каждый член команды будет иметь право добавлять код куда угодно, то ваш процесс разработки выскочит из-под контроля довольно быстро. Посмотрим на структуру пустого приложения на Ruby on Rails: ./app/assets ./app/assets/config ./app/assets/images ./app/assets/javascripts ./app/assets/javascripts/channels ./app/assets/stylesheets ./app/channels/application_cable ./app/controllers ./app/controllers/concerns ./app/helpers ./app/jobs ./app/mailers ./app/models ./app/models/concerns ./app/views/layouts ./bin ./config ./config/environments ./config/initializers ./config/locales ./db ./lib ./lib/assets ./lib/tasks ./log ./public ./test ./test/controllers ./test/fixtures ./test/fixtures/files ./test/helpers ./test/integration ./test/mailers ./test/models ./tmp ./vendor ./vendor/assets ./vendor/assets/javascripts ./vendor/assets/stylesheets Реальность такова, что в вашей команде могут быть неопытные (или с похмельем) коллеги, которые будут нарушать вроде бы простые конвенции время от времени, и код будет становится всё сложнее и уродливее, несмотря на выбор «правильных» фреймворка и структуры. Написание хорошего кода особенно важно в контексте большого приложения. Принципы SOLID, паттерны разработки, фреймворки и конвенции появились в первую очередь, чтобы помочь разработчику с крупными приложениями. Монолиты и микросервисы: Влияние на спагетти-код Вот что делают микросервисы со спагетти: Ой, не та картинка. Вот так примерно выглядит спагетти-код в случае монолитного приложения: Один класс (или функция) вызывает другой класс, а тот класс зависит от другого класса, а тот класс зависит от нескольких других классов и так далее. Вы хотите пробежаться по коду и исправить ошибку — будьте готовы открыть много файлов и изучать их параллельно. Почему я считаю, что это является характеристикой именно монолитного приложения? В монолитном приложении, модули (элементы) кода вызывают друг друга непосредственно –используя тот факт, что все они загружены в оперативную память в рамках одной машины. Это приводит к тому, что ленивые разработчики излишне тесно связывают части приложения между собой. Микросервисы, с другой стороны, как правило, общаются через веб-запросы (обычно RESTful) или через сообщения. Таким образом, разработчик не может просто взять и вызвать функционал одного микросервиса из другого микросерфиса – как минимум, придется создать дополнительный маршрут, открыть этот метод в контроллере и так далее. Это дополнительная работа, барьер, который разработчики не будут преодолевать без абсолютной необходимости. Существует также вероятность того, что тот другой микросервис в настоящее время поддерживается другой командой вашей компании, а разработчики там вредные и они не хотят добавлять ненужный (с их точки зрения) маршрут лишь ради того, чтобы сделать вашу жизнь проще. В результате, вы, скорее всего, будете иметь меньшее количество по-лучше организованных соединений. А факт меньшего количества зависимостей между микросервисами (различными функциональными модулями вашего приложения) означает, что если микросервис А плохо реализован, он не будет иметь такого дурного влияния на другие микросервисы. В среде микросервисов плохой код изолирован. Микросервисы: Успокой своего внутреннего перфекциониста Так как отдельно взятый микросервис – это не более, чем класс или два, вырезанных из вашего монолитного приложения, то теперь у вас меньше, значительно меньше файлов в рамках одного открытого приложения в IDE. Таким образом, вероятно, уже не нужно так сильно заботиться о строгих правилах наименования файлов и папок и, возможно, вы даже можете ослабить правила SOLID. Теперь вы можете позволить себе «халяву» – можно сделать несколько ошибок, несколько неоптимальных реализаций, а ваше приложение всё еще достаточно легко читать и править, потому что ваш LoC (Lines of code) упал с нескольких тысяч до жалких десятков или сотен! Процесс разработки ускорится, потому что вы меньше обеспокоены строгими правилами и мириадой зависимостей! Вывод Микросервисы, как архитектурный паттерн, позволяют снизить стоимость (издержки от) неоптимального исходного кода, ускорить разработку и повысить качество сна.
https://habrahabr.ru/post/318520/
habrahabr
Умная карта: новое слово в среде карт лояльности
['даджет. бонусные карты', 'карты лояльности', 'скидочные сервисы']
Близится Новый Год, Рождество и масса замечательных праздников, которые нас ожидают в следующем году. В преддверии всех этих события начинается забег по магазинам с целью приготовить все к...
Близится Новый Год, Рождество и масса замечательных праздников, которые нас ожидают в следующем году. В преддверии всех этих события начинается забег по магазинам с целью приготовить все к праздникам и заранее обзавестись подарками для всех родных и близких. И очень удачно именно в это время в мои руки попала универсальная электронная карта Даджет, которая призвана сэкономить место в кармане и сберечь средства. Как это получается смотрите под катом. Ну а кому лень читать — в конце материала будет видео, где я пошагово расскажу о работе карты. Идея собрать все бонусные и скидочные карты в одном месте витала давно. Большой популярностью пользуются специальные кошельки для карт. Но носить с собой помимо документов, прав, ключей от дома\машины\работы еще и отдельный кошелек со скидочными картами? Нет уж, увольте! Поэтому я все больше оставался без скидок, когда, повинуясь импульсу, заходил в магазин за понравившейся мне вещью. Все решилось буквально в один день, когда из рук курьера я получил заветный пакет. В пакете лежала небольшая коробка с устройством внутри. В комплект входит картридер с кабелем. Сама карта с программируемой магнитной полосой. И инструкцией из одного крохотного листка. Работа с устройством интуитивно понятна и даже компьютер для этих простых действий не потребуется. Все, что нужно: это все доступные карты лояльности, USB порт с питание (подойдет от зарядки телефона) и смартфон с Android или iOS на борту. Сокращаем карты до одной Начнем с установки приложения. Его легко найти по названию Cardberry. Во время регистрации приложения требуется сообщить свой номер, так как по нему производится привязка. В случае смены телефона достаточно будет зайти по старому номеру и получить список всех имеющихся карт. При регистрации присылают смс с кодом подтверждения. Далее, в несколько шагов добавляем новую карту. Сначала фотографируем из приложения с двух сторон. Это позволит потом идентифицировать ее визуально, хотя можно искать и по названию. Следующим шагом выбираем способ идентификации карты в магазине: бывает штрих-кодом и/или магнитной полосой. Ставим соответствующие галочки и появляется окно сканера. Если штрих-код просто сканируется камерой, то для чтения магнитной полосы надо обратиться к карт-ридеру. Он должен быть подключен к питанию и мы просто прокатываем карту. На экране получаем QR-код и его считываем камерой смартфона. Карты можно классифицировать по типам (скидочная, накопительная, бонусная, иная) и назначению (еда, автозапчасти и т.д.). Постепенно список будет пополняться и в приложении будет выглядеть так. Как вести себя в магазине Что же делать с этой картой дальше? А теперь можно взять с собой только одну карту и отправляться за покупками. Перед покупкой достаточно включить карту кнопкой (одну секунду, чтобы увидеть мигающий синий светодиод), запустить приложение и выбрать нужную карту. Смартфон свяжется с картой по Bluetooth и передаст данные чипу, ну а тот уже намагнитит ленту, как это требуется. Если же карта только со штрих кодом, то достаточно показать экран смартфона — штрих код выводится на нем. Есть еще одна возможность работы со штрих кодом: достаточно поднести и попасть лазером сканера на светодиод и тот промигает требуемый код — это менее удобно, так как на кассе, как правило, многолюдно и объяснять кассиру тонкости работы карты долго. Можно просто показать экран смартфона. Трудности Какие могут возникнуть трудности? Первое, с чем неизбежно придется столкнуться, так это с удивленным взглядом кассира, непонимающего, что за карту Вы передаете. После объяснения и проверки появляются улыбки и радость — вот такие метаморфозы. Второе, с чем придется столкнуться, лучше проверить работу дома, так как карта остается активной несколько минут, а передача данных на нее занимает от пары до десятка секунд. (На самом деле дольше осуществляется поиск карты, если вокруг много активных Bluetooth устройств). Безопасность У всех сразу появляется вопрос: Можно ли клонировать банковскую карту? Отвечаю: можно. Но такая карта вместо банковской сразу вызовет массу вопросов и скорее всего вас попросят расплатиться наличными. Кроме того, большинство выпускаемых сейчас карт являются чипованными и терминал после проведения магнитной полосой попросит воспользоваться чипом карты. Да и сами производители карты не рекомендуют клонировать банковскую карту, так как вопрос безопасности хранения клона карты остается открытым. В общем, с деньгами лучше не шутить. Бонусы Добавлю, что есть отличный бонус, который вызывает еще больший интерес. Разработчики предусмотрели возможность обмена бонусными картами между друзьями. В списке контактов появляются отдельные метки напротив тех друзей, которые уже зарегистрировали приложение Cardberry. Можно посмотреть список их открытых карт (карты можно открывать или оставлять для приватного пользования) и попросить воспользоваться какими-либо. Если пользователь даст добро, то у вас есть сутки, чтобы воспользоваться «чужой» скидкой. Мы находимся на старте образования сообщества, которое будет обмениваться скидками и наращивать количество бонусов. Как на это отреагируют магазины — пока не ясно. Заключение Пользоваться картой оказалось не просто, а очень просто. Она заменила почти три десятка карточек, которые катались со мной ежедневно многие годы просто так, на всякий случай. Теперь портмоне не выглядит таким пухлым и привлекательным для любителей чужого, зато ходить по магазинам с двумя картами — банковской и скидочной — стало гораздо проще. Ну а с возможностью поделиться или позаимствовать у друзей скидку приходится бороться с желанием пройтись по магазинам. Всех с праздниками! Вот и обещанное видео. Купить универсальную электронную карту с 10% скидкой можно по промокоду GEEKT-UK в течение 14 дней. Меня попросили разместить информацию для авторов: Компания «Даджет» заинтересована в публикации независимых объективных обзоров даджетов в разного рода СМИ. Компания «Даджет» с радостью предоставит даджеты блогерам и авторам, желающим протестировать их и написать обзор. Устройство после написания обзора остается у автора. Компания не пытается указывать автору, что именно писать о нашем товаре, но просит показать статью до публикации. В этом случае есть возможность уточнить информацию и предотвратить ошибки. Учитывать ли комментарии компании или нет, всегда остается на усмотрение автора. Подробнее...
https://geektimes.ru/company/dadget/blog/283574/
habrahabr
10 новых сказок о потерянном времени
['гипотеза эйлера', 'сумма степеней', 'бинпоиск', 'двоичный поиск', 'два указателя', 'модули', 'сказка о потерянном времени']
Привет Хабр! Я решил продолжить серию статей про гипотезу Эйлера, написав несколько улучшенных версий программ для решения диофантова уравнения вида a5 + b5 + c5 + d5 = e5. Как известно, для...
Привет Хабр! Я решил продолжить серию статей про гипотезу Эйлера, написав несколько улучшенных версий программ для решения диофантова уравнения вида a 5 + b 5 + c 5 + d 5 = e 5 . Как известно, для того, чтобы решить какую-либо сложную вычислительную задачу, нужно обратить внимание как минимум на следующие пункты: Эффективный алгоритм Быстрая реализация Мощное железо Распараллеливание Я уделил больше всего внимания первому пункту. Давайте посмотрим, что из этого получилось. Сразу отмечу, что код писался на С++, компилировался 32-битный MS Visual C++ 2008 Compiler и запускался в один поток на машине i5-2410M 2.3Ghz. Просто мне так удобнее — писать код лежа на не очень мощном ноутбуке, а 64-битный компилятор ставить лень. Замеры времени не блещут точностью, поскольку код редко запускался более 1 раза на замер, при этом другие процессы вроде браузера могли немного влиять на время работы. Однако для наших целей точность приемлемая. И еще, с подачи Dimchansky , уточню, что я буду искать целочисленные решения упомянутого выше уравнения для a,b,c,d,e>0, коих известно ровно 2 штуки. Есть еще третье решение, но там переменные могут принимать отрицательные значения. Их все можно найти тут . Сказка #1 за O(n 5 ) Давайте начнем с самого тупого решения, которое может быть. Код: Код long long gcd( long long x, long long y ) { while (x&&y) x>y ? x%=y : y%=x; return x+y; } void tale1( int n ) { for (int a=1; a<=n; a++) for (int b=a+1; b<=n; b++) for (int c=b+1; c<=n; c++) for (int d=c+1; d<=n; d++) for (int e=d+1; e<=n; e++) { long long a5 = (long long)a*a*a*a*a; long long b5 = (long long)b*b*b*b*b; long long c5 = (long long)c*c*c*c*c; long long d5 = (long long)d*d*d*d*d; long long e5 = (long long)e*e*e*e*e; if (a5 + b5 + c5 + d5 == e5) if (gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } } На самом деле, это не самое тупое, ибо можно все переменные гонять от 1 до n и в конце проверять, что a n Время 100 1563ms 200 40s 500 74m Плюсы: простое как валенок, быстро пишется, требует O(1) памяти, находит классическое решение 27 5 + 84 5 + 110 5 + 133 5 = 144 5 . Минусы: оно тормознутое . Сказка #2 за O(n 4 log n) Давайте немного ускорим наше решение. По сути, этот вариант эквивалентен тому, что предложил товарищ drBasic . Код void tale2( int n ) { vector< pair< long long, int > > vec; for (int a=1; a<=n; a++) vec.push_back( make_pair( (long long)a*a*a*a*a, a ) ); for (int a=1; a<=n; a++) for (int b=a+1; b<=n; b++) for (int c=b+1; c<=n; c++) for (int d=c+1; d<=n; d++) { long long a5 = (long long)a*a*a*a*a; long long b5 = (long long)b*b*b*b*b; long long c5 = (long long)c*c*c*c*c; long long d5 = (long long)d*d*d*d*d; long long sum = a5+b5+c5+d5; vector< pair< long long, int > >::iterator it = lower_bound( vec.begin(), vec.end(), make_pair( sum, 0 ) ); if (it != vec.end() && it->first==sum) if (gcd( a, gcd( gcd( b, c ), gcd( d, it->second ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, it->second ); } } Тут мы создаем массив, куда сохраняем пятые степени всех чисел от 1 до n, после чего внутри четырех вложенных циклов двоичным поиском проверяем есть ли число a 5 + b 5 + c 5 + d 5 в массиве или нет. n Время #1 Время #2 100 1563ms 318ms 200 40s 4140ms 500 74m 189s 1000 55m Этот вариант работает уже быстрее, у меня даже хватило терпения дождаться окончания работы программы для n=1000. Плюсы: все еще довольно простое, быстрее тупого решения, несложно пишется, находит классическое решение. Минусы: требует O(n) памяти, все еще тормознутое . Сказка #3 за O(n 4 log n), но с O(1) памяти На самом деле нет смысла хранить все степени в массиве и искать там что-то бинпоиском. Мы же и так знаем какое число в этом массиве на позиции i. Можно просто запустить бинпоиск на «виртуальном» массиве. Сказано — сделано: Код void tale3( int n ) { for (int a=1; a<=n; a++) for (int b=a+1; b<=n; b++) for (int c=b+1; c<=n; c++) for (int d=c+1; d<=n; d++) { long long a5 = (long long)a*a*a*a*a; long long b5 = (long long)b*b*b*b*b; long long c5 = (long long)c*c*c*c*c; long long d5 = (long long)d*d*d*d*d; long long sum = a5+b5+c5+d5; if (sum <= (long long)n*n*n*n*n) { int mi = d, ma = n; // invariant: for mi <, for ma >= while ( mi+1 < ma ) { int s = ((mi+ma)>>1); long long tmp = (long long)s*s*s*s*s; if (tmp < sum) mi = s; else ma = s; } if (sum == (long long)ma*ma*ma*ma*ma) if (gcd( a, gcd( gcd( b, c ), gcd( d, ma ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, ma ); } } } Теперь массив не нужен, у нас чистый бинарный поиск. n Время #1 Время #2 Время #3 100 1563ms 318ms 490ms 200 40s 4140ms 6728ms 500 74m 189s 352s 1000 55m К сожалению, время выполнения просело, вероятно, из-за того, что внутри бинпоиска мы каждый раз заново вычисляем пятую степень. Ну и ладно. Плюсы: требует O(1) памяти, находит классическое решение. Минусы: тормознее предыдущего решения. Сказка #4 за O(n 4 ) Давайте еще раз всмотримся в наше уравнение: a 5 + b 5 + c 5 + d 5 = e 5 или, для простоты A = B. Пусть алгоритм выполняет наши 4 вложенных цикла. Зафиксируем значения a, b и с и посмотрим как себя ведут значения d и e. Пусть для какого-то d=x наименьшее значение e, для которого A y. Заметим также, что для d=x+1 наименьшее значение e, для которого A Код void tale4( int n ) { for (int a=1; a<=n; a++) for (int b=a+1; b<=n; b++) for (int c=b+1; c<=n; c++) { int e = c+1; for (int d=c+1; d<=n; d++) { long long a5 = (long long)a*a*a*a*a; long long b5 = (long long)b*b*b*b*b; long long c5 = (long long)c*c*c*c*c; long long d5 = (long long)d*d*d*d*d; long long sum = a5+b5+c5+d5; while (e<n && (long long)e*e*e*e*e < sum) e++; if (sum == (long long)e*e*e*e*e) if (gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } } } Кода меньше, чем для бинпоиска, а пользы больше. n Время #1 Время #2 Время #3 Время #4 100 1563ms 318ms 490ms 360ms 200 40s 4140ms 6728ms 4339ms 500 74m 189s 352s 177s 1000 55m 46m Из-за большой скрытой константы это решение начинает обгонять решение #2 за O(n 4 log n) только при n порядка 500. Его, конечно же, можно ускорить, вычисляя пятые степени более обдуманно, но мы не будет этого делать. Плюсы: асимптотически быстрее решения #2, требует O(1) памяти. Да, находит. Минусы: далеко не самый оптимум, большая скрытая константа. Сказка #5 за O(n 3 ) Давайте будем развивать идею с двумя указателями, а все остальное в решении перевернем вверх дном. Пусть у нас есть уравнение A+B=C, причем для каждого из A, B, C у нас есть n(A), n(B), n(С) способов их выбрать. Давайте зафиксируем какое-нибудь значение C, а все допустимые значения для A и B отсортируем по возрастанию. Тогда мы можем бежать по значениям A и B при помощи двух указателей и за O(n(A)+n(B)) проверить все что нужно для текущего значения С! А именно: для какого-то фиксированного A мы будем уменьшеать значение B, пока A+B>C. Как только станет A+B Для случая, когда A и B — элементы одного множества, алгоритм проверки зафиксированного C можно остановить как только текущие A и B встретятся (поскольку, без ограничения общности, можно считать, что A Теперь в нашем уравнении обозначим (a 5 + b 5 ) за A, (c 5 + d 5 ) за B, а e 5 за С. И напишем следующий код: Код void tale5( int n ) { vector< pair< long long, int > > vec; for (int a=1; a<=n; a++) for (int b=a+1; b<=n; b++) { long long a5 = (long long)a*a*a*a*a; long long b5 = (long long)b*b*b*b*b; if (a5 + b5 < (long long)n*n*n*n*n) // avoid overflow for n<=5000 vec.push_back( make_pair( a5+b5, (a<<16)+b ) ); } sort( vec.begin(), vec.end() ); for (int e=1; e<=n; e++) { long long e5 = (long long)e*e*e*e*e; int i = 0, j = (int)vec.size()-1; while( i < j ) { while ( i < j && vec[i].first + vec[j].first > e5 ) j--; if ( vec[i].first + vec[j].first == e5 ) { int a = (vec[i].second >> 16); int b = (vec[i].second & ((1<<16)-1)); int c = (vec[j].second >> 16); int d = (vec[j].second & ((1<<16)-1)); if (b < c && gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } i++; } } } Поскольку пар (a,b) (и (c,d)) у нас порядка n 2 , сортировка займет O(n 2 log n), а дальшейшая проверка при помощи указателей — O(n 3 ). Итого чистый куб. Упражнение . Найдите логическую ошибку в коде выше. Подумайте пару минут перед тем, как смотреть ответ. В нашем случае в отсортированном массиве теоретически могут попасться одинаковые суммы и тогда два указателя могут пропустить некоторые равенства. Но на самом деле они будут все разные из следующих рассуждений: если будут совпадения, то x^5+y^5 = z^5+t^5 для некоторых x, y, z, t и мы нашли контрпример к этой гипотезе . В качестве исправления самое простое, что можно сделать — это проверить, что все числа действительно различны. n #1 #2 #3 #4 #5 100 1563ms 318ms 490ms 360ms 82ms 200 40s 4140ms 6728ms 4339ms 121ms 500 74m 189s 352s 177s 516ms 1000 55m 46m 3119ms 2000 22s 5000 328s Значительное ускорение позволяет затащить n=5000 за приемлемое время. Проверки при добавлении пар в массив нужны для избежания переполнения. Плюсы: вероятно, самый быстрый алгоритм по асимптотике. Минусы: большая скрытая константа, работает только до n порядка 5000, жрет аж O(n 2 ) памяти. Сказка #6 за O(n 4 log n) с невероятно маленькой скрытой константой Внезапно. С подачи пользователя erwins22 из этого комментария, рассмотрим остатки, которые мы можем получить при делении пятой степени на 11. То есть, какие a могут быть в сравнении x 5 =a mod 11. Оказывается, что возможные значения a — это 0, 1 и -1 (mod 11) (проверьте сами и убедитесь). Тогда в равенстве a 5 + b 5 + c 5 + d 5 = e 5 единиц и минус единиц суммарно четное количество (они должны друг друга уравновесить, чтобы четность сошлась), из этого следует, что одно из чисел a, b, c, d, e сравнимо с 0 до модулю 11, то есть делится на 11. Давайте вынесем его отдельно в одну сторону, получим один из двух вариантов: (a 5 + b 5 ) + (c 5 + d 5 ) = e 5 ; e = 0 mod 11 (e 5 — a 5 ) — (b 5 + c 5 ) = d 5 ; d = 0 mod 11 Вы не поверите, но если число x делится на 11, то число x 5 делится на 161051. Значит, на 161051 должна делиться и левая часть приведенных выше равенств. Как можно видеть, в уравнениях выше некоторые числа уже заботливо объединены в пары при помощи скобок. Теперь, если мы зафиксируем первую скобку, то вторая скобка может иметь только один из всевозможных 161051 остатков при делении на 161051. Таким образом, на каждую из O(n 2 ) первых скобок в среднем приходится O(n 2 /161051) вторых. Если мы теперь переберем их все и посмотрим, является ли результат точной пятой степенью (например, биноиском в массиве пятых степеней) — то найдем все решения за O(n 4 log n/161051). Код: Код void tale5( int n ) { vector< pair< long long, int > > vec; for (int a=1; a<=n; a++) for (int b=a+1; b<=n; b++) { long long a5 = (long long)a*a*a*a*a; long long b5 = (long long)b*b*b*b*b; if (a5 + b5 < (long long)n*n*n*n*n) // avoid overflow for n<=5000 vec.push_back( make_pair( a5+b5, (a<<16)+b ) ); } vector< pair< long long, int > > pows; for (int a=1; a<=n; a++) pows.push_back( make_pair( (long long)a*a*a*a*a, a ) ); // a^5 + b^5 + c^5 + d^5 = e^5 for (int a=1; a<=n; a++) for (int b=a+1; b<=n; b++) { long long a5 = (long long)a*a*a*a*a; long long b5 = (long long)b*b*b*b*b; long long rem = (z - (a5+b5)%z)%z; for (int i=0; i<(int)vec[rem].size(); i++) { long long sum = a5 + b5 + vec[rem][i].first; vector< pair< long long, int > >::iterator it = lower_bound( pows.begin(), pows.end(), make_pair( sum, 0 ) ); if (it != pows.end() && sum == it->first) { int c = (vec[rem][i].second >> 16); int d = (vec[rem][i].second & ((1<<16)-1)); int e = it->second; if (gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } } } // e^5 - a^5 - b^5 - c^5 = d^5 for (int e=1; e<=n; e++) for (int a=1; a<e; a++) { long long e5 = (long long)e*e*e*e*e; long long a5 = (long long)a*a*a*a*a; long long rem = (e5-a5)%z; for (int i=0; i<(int)vec[rem].size(); i++) if (e5-a5 > vec[rem][i].first) { long long sum = e5 - a5 - vec[rem][i].first; vector< pair< long long, int > >::iterator it = lower_bound( pows.begin(), pows.end(), make_pair( sum, 0 ) ); if (it != pows.end() && sum == it->first) { int b = (vec[rem][i].second >> 16); int c = (vec[rem][i].second & ((1<<16)-1)); int d = it->second; if (gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } } } } Время работы работы данного решения: n #1 #2 #3 #4 #5 #6 100 1563ms 318ms 490ms 360ms 82ms 129ms 200 40s 4140ms 6728ms 4339ms 121ms 140ms 500 74m 189s 352s 177s 516ms 375ms 1000 55m 46m 3119ms 2559ms 2000 22s 38s 5000 328s 28m Из таблицы видно, что для n=500 и n=1000 это решение даже обгоняет кубическое. Но затем кубическое решение все же начинает сильно обгонять. Асимптотика она такая — ее не обманешь. Плюсы: очень мощное отсечение. Минусы: большая асимптотика, непонятно как прикрутить эту идею к кубическому решению. Сказка #7 за O(n 3 ) co 128-битными числами Давайте пока временно забудем про трюки с модулями (мы обязательно из вспомним чуть позже!) и переделаем наше кубическое решение, чтобы оно могло корректно работать для n>5000. Для этого реализуем 128-битные целые числа. Код typedef unsigned long long uint64; typedef pair< uint64, uint64 > uint128; uint128 operator+ (const uint128 & a, const uint128 & b) { uint128 re = make_pair( a.first + b.first, a.second + b.second ); if ( re.second < a.second ) re.first++; return re; } uint128 operator- (const uint128 & a, const uint128 & b) { uint128 re = make_pair( a.first - b.first, a.second - b.second ); if ( re.second > a.second ) re.first--; return re; } uint128 power5( int x ) { uint64 x2 = (uint64)x*x; uint64 x3 = (uint64)x2*x; uint128 re = make_pair( (uint64)0, (uint64)0 ); uint128 cur = make_pair( (uint64)0, x3 ); for (int i=0; i<63; i++) { if ((x2>>i)&1) re = re + cur; cur = cur + cur; } return re; } void tale7( int n ) { vector< pair< uint128, int > > vec = vector< pair< uint128, int > >( n*n/2 ); uint128 n5 = power5( n ); int ind = 0; for (int a=1; a<=n; a++) for (int b=a+1; b<=n; b++) { uint128 a5 = power5( a ); uint128 b5 = power5( b ); if (a5 + b5 < n5) vec[ind++] = make_pair( a5+b5, (a<<16)+b ); } sort( vec.begin(), vec.begin()+ind ); for (int e=1; e<=n; e++) { uint128 e5 = power5( e ); int i = 0, j = ind-1; while( i < j ) { while ( i < j && vec[i].first + vec[j].first > e5 ) j--; if ( vec[i].first + vec[j].first == e5 ) { int a = (vec[i].second >> 16); int b = (vec[i].second & ((1<<16)-1)); int c = (vec[j].second >> 16); int d = (vec[j].second & ((1<<16)-1)); if (b < c && gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } i++; } } } Операции, которые потребовалось дописать — сложение и возведение в пятую степень. Еще есть вычитание, в этом решении оно не нужно, но оно понадобится позже. Поэтому пусть будет. Так как 128-битное число реализовано как pair, там уже есть операции , =, причем они работают именно так, как нам нужно. В самом начале мы сразу задаем размер вектора. Не то, чтобы это сделано для оптимизации, просто мне пока лень расчехлять 64-битный компилятор, а на 32 битах доступно только 2Гб памяти. Сейчас для n=10000 требуется около 1.2Гб на вектор. Если расширять вектор через push_back, то он под самый конец захватывает больше 2Гб при реаллокации (чтобы увеличиться с длины N до 2*N нужно 3*N промежуточной памяти). n #1 #2 #3 #4 #5 #6 #7 100 1563ms 318ms 490ms 360ms 82ms 129ms 20ms 200 40s 4140ms 6728ms 4339ms 121ms 140ms 105ms 500 74m 189s 352s 177s 516ms 375ms 1014ms 1000 55m 46m 3119ms 2559ms 7096ms 2000 22s 38s 52s 5000 328s 28m 13m 10000 89m Можно видеть, что теперь программа замедлилась почти ровно в 2 раза относительно решения #5, зато мы покорили новую неприступную вершину n=10000! Плюсы: теперь не переполняется для n>5000. Минусы: работает в 2 раза медленнее решения #5, жрет кучу памяти. Сказка #8 за O(n 3 ) с меньшей скрытой константой Вспомним опять про остатки при делении на 11. Имеем два равенства: (a 5 + b 5 ) + (c 5 + d 5 ) = e 5 ; e = 0 mod 11 (e 5 — a 5 ) — (b 5 + c 5 ) = d 5 ; d = 0 mod 11 Напомним, что пятые степени по модулю 11 всегда имеют остатки 0, 1 или -1. Снимем ограничения вида a Можно сформулировать такой факт: число таких пар будет порядка 51/121 от общего числа пар (подумайте почему это так). К сожалению, нам нужно будет сохранить два массива таких пар (для суммы и для разности), что даст выигрыш по памяти только 102/121. Ну, 15% — это тоже сокращение. Зато далее нам по этим массивам надо будет чуть меньше бегать. Ну и, наконец, самые хорошие новости: теперь нам имеет смысл одну из переменных (которая самая внешняя в кубическом решении) перебирать с шагом в 11. Плохие новости в том, что надо будет отдельно решать оба вида равенств. Самое печальное во всем этом: увы, это ускорит программу всего в 11 раз (на самом деле, пока не факт), вместо 11 5 раз, как в решении #6. Код void tale8( int n ) { vector< pair< uint128, pair< int, int > > > vec_p, vec_m; uint128 n5 = power5( n ); for (int a=1; a<=n; a++) for (int b=1; b<a; b++) { uint128 a5 = power5( a ); uint128 b5 = power5( b ); int A = a%11; int B = b%11; int A5 = (A*A*A*A*A)%11; int B5 = (B*B*B*B*B)%11; if ( (A5+B5)%11 == 0 ) vec_p.push_back( make_pair( a5+b5, make_pair( a, b ) ) ); if ( (A5-B5+11)%11 == 0) vec_m.push_back( make_pair( a5-b5, make_pair( a, b ) ) ); } sort( vec_p.begin(), vec_p.end() ); sort( vec_m.begin(), vec_m.end() ); // (a^5 + b^5) + (c^5 + d^5) = e^5 for (int e=11; e<=n; e+=11) { uint128 e5 = power5( e ); int i = 0, j = (int)vec_p.size()-1; while( i < j ) { while ( i < j && vec_p[i].first + vec_p[j].first > e5 ) j--; if ( vec_p[i].first + vec_p[j].first == e5 ) { int a = vec_p[i].second.first; int b = vec_p[i].second.second; int c = vec_p[j].second.first; int d = vec_p[j].second.second; if (gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } i++; } } // (e^5 - a^5) - (b^5 + c^5) = d^5 for (int d=11; d<=n; d+=11) { uint128 d5 = power5( d ); int i = 0, j = 0, mx_i = (int)vec_m.size(), mx_j = (int)vec_p.size(); while (i < mx_i && j < mx_j) { while (j < mx_j && vec_m[i].first > vec_p[j].first && vec_m[i].first - vec_p[j].first > d5) j++; if ( j < mx_j && vec_m[i].first > vec_p[j].first && vec_m[i].first - vec_p[j].first == d5 ) { int e = vec_m[i].second.first; int a = vec_m[i].second.second; int b = vec_p[j].second.first; int c = vec_p[j].second.second; if (gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } i++; } } } Тут с реаллокацией векторов повезло больше и программа для n=10000 укладывается в 2Гб. n #1 #2 #3 #4 #5 #6 #7 #8 100 1563ms 318ms 490ms 360ms 82ms 129ms 20ms 16ms 200 40s 4140ms 6728ms 4339ms 121ms 140ms 105ms 49ms 500 74m 189s 352s 177s 516ms 375ms 1014ms 472ms 1000 55m 46m 3119ms 2559ms 7096ms 2110ms 2000 22s 38s 52s 13s 5000 328s 28m 13m 161s 10000 89m 20m Увы и ах, программу ускорилась всего в 4,5 раз. Видать, многочисленные проверки во втором уравнении сильно подпортили скрытую константу. Ну ничего, тут еще есть простор для оптимизаций. Самая большая проблема сейчас: дикое потребление памяти. Если по времени для текущего рекорда n уже терпимо, то по памяти мы уже не влезаем. Плюсы: наверно, самое быстрое решение из предложенных. Минусы: все еще проблема с большим потреблением памяти. Сказка #9 за O(n 3 log n) с потреблением памяти O(n) Как же нам уменьшить потребление памяти? Давайте воспользуемся трюком, описанным здесь . А именно: давайте возьмем какое-нибудь простое число p, большее n, но не намного. Рассмотрим первое уравнение, которое у нас есть (второе уравнение рассматривается аналогично): (a 5 + b 5 ) + (c 5 + d 5 ) = e 5 ; e = 0 mod 11 Теперь пусть (a 5 + b 5 ) = w mod p для какого-то w от 0 до p-1. Тогда число пар (a,b), которые удовлетворяют данному сравнению — линейное количество. Чтобы показать это, давайте переберем параметр a от 1 до n. Тогда, чтобы найти b, нам надо будет решить сравнение b 5 = (w — a 5 ) = u mod p. И утверждается, что у этого сравнения всегда будет не более одного решения. Следует это вот из этой страницы на e-maxx . Там нужно обратить внимание на формулу получения всех решений из одного: То есть, всего решений у нас gcd( 5, phi( p ) ) = gcd( 5, p-1 ). Отсюда получаем, что если p=5q+1, то у нас 5 решений (или ни одного), а в остальных случаях — решений не более, чем одно. (Кстати, я понятия не имею откуда эта формула берется и как она работает. Если кто знает источник, где это доходчиво описано — просьба поделиться ссылкой.) Теперь вопрос — как найти для фиксированного u значение b? Чтобы сделать это единоразово, но быстро — нужно довольно сильно разбираться в теории чисел. Но нам нужны b для всех возможных значений u, поэтому можно просто для каждого b найти u, и записать в табличку: вот для такого u — такое решение b. Далее, для фиксированного w и фиксированного e 5 , получаем, что (c 5 + d 5 ) = (e 5 — w) mod p. Тут тоже линейное количество пар, удовлетворяющих сравнению. То есть, для фиксированного w и фиксированного e мы получаем линейное количество пар, которые нужно отсортировать (к сожалению, здесь вылезает лишний логарифм в асимптотике), после чего пройтись двумя указателями. Поскольку различных значений w и e порядка O(n), общая асимптотика получается O(n 3 log n). Давайте напишем пробный страшный код: Код bool is_prime( int x ) { if (x<2) return false; for (int a=2; a*a<=x; a++) if (x%a==0) return false; return true; } void tale9( int n ) { int p = n+1; while ( p%5==1 || !is_prime( p ) ) p++; vector< int > sols = vector< int >( p, -1 ); for (int i=1; i<=n; i++) { uint64 tmp = ((uint64)i*i)%p; tmp = (((tmp*tmp)%p)*i)%p; sols[(unsigned int)tmp] = i; } for (int w=0; w<p; w++) { // (a^5 + b^5) + (c^5 + d^5) = e^5 // (a^5 + b^5) = w (mod p) vector< pair< uint128, pair< int, int > > > vec1; for (int a=1; a<=n; a++) { uint64 a5p = ((uint64)a*a)%p; a5p = ((a5p*a5p)%p*a)%p; int b = sols[ (w - a5p + p)%p ]; if (b!=-1 && b<a) { uint128 a5 = power5( a ); uint128 b5 = power5( b ); int A = a%11, A5 = (A*A*A*A*A)%11; int B = b%11, B5 = (B*B*B*B*B)%11; if ( (A5+B5)%11 == 0 ) vec1.push_back( make_pair( a5+b5, make_pair( a, b ) ) ); } } sort( vec1.begin(), vec1.end() ); for (int e=11; e<=n; e+=11) { // (a^5 + b^5) + (c^5 + d^5) = e^5 // (a^5 + b^5) = w (mod p) // (c^5 + d^5) = (e^5 - w) = q (mod p) uint64 e5p = ((uint64)e*e)%p; e5p = ((e5p*e5p)%p*e)%p; int q = (int)((e5p - w + p)%p); vector< pair< uint128, pair< int, int > > > vec2; for (int c=1; c<=n; c++) { uint64 c5p = ((uint64)c*c)%p; c5p = ((c5p*c5p)%p*c)%p; int d = sols[ (q - c5p + p)%p ]; if (d!=-1 && d<c) { uint128 c5 = power5( c ); uint128 d5 = power5( d ); int C = c%11, C5 = (C*C*C*C*C)%11; int D = d%11, D5 = (D*D*D*D*D)%11; if ( (C5+D5)%11 == 0 ) vec2.push_back( make_pair( c5+d5, make_pair( c, d ) ) ); } } sort( vec2.begin(), vec2.end() ); uint128 e5 = power5( e ); int i = 0, j = (int)vec2.size()-1, mx_i = (int)vec1.size(); while( i < mx_i && j >= 0 ) { while ( j >= 0 && vec1[i].first + vec2[j].first > e5 ) j--; if ( j >= 0 && vec1[i].first + vec2[j].first == e5 ) { int a = vec1[i].second.first; int b = vec1[i].second.second; int c = vec2[j].second.first; int d = vec2[j].second.second; if (gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } i++; } } // (e^5 - a^5) - (b^5 + c^5) = d^5 // (b^5 + c^5) = w (mod p) // already computed as vec1 for (int d=11; d<=n; d+=11) { // (e^5 - a^5) = (d^5 + w) = q (mod p) uint64 d5p = ((uint64)d*d)%p; d5p = ((d5p*d5p)%p*d)%p; int q = (int)((d5p + w)%p); vector< pair< uint128, pair< int, int > > > vec2; for (int e=1; e<=n; e++) { uint64 e5p = ((uint64)e*e)%p; e5p = ((e5p*e5p)%p*e)%p; int a = sols[ (e5p - q + p)%p ]; if (a!=-1 && a<e) { uint128 e5 = power5( e ); uint128 a5 = power5( a ); int E = e%11, E5 = (E*E*E*E*E)%11; int A = a%11, A5 = (A*A*A*A*A)%11; if ( (E5-A5+11)%11 == 0 ) vec2.push_back( make_pair( e5-a5, make_pair( e, a ) ) ); } } sort( vec2.begin(), vec2.end() ); uint128 d5 = power5( d ); int i = 0, j = 0, mx_i = (int)vec2.size(), mx_j = (int)vec1.size(); while (i < mx_i && j < mx_j) { while (j < mx_j && vec2[i].first > vec1[j].first && vec2[i].first - vec1[j].first > d5) j++; if ( j < mx_j && vec2[i].first > vec1[j].first && vec2[i].first - vec1[j].first == d5 ) { int e = vec2[i].second.first; int a = vec2[i].second.second; int b = vec1[j].second.first; int c = vec1[j].second.second; if (gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } i++; } } } } Запускаем эту жестокую жесть: n #1 #2 #3 #4 #5 #6 #7 #8 #9 100 1563ms 318ms 490ms 360ms 82ms 129ms 20ms 16ms 219ms 200 40s 4140ms 6728ms 4339ms 121ms 140ms 105ms 49ms 1741ms 500 74m 189s 352s 177s 516ms 375ms 1014ms 472ms 25s 1000 55m 46m 3119ms 2559ms 7096ms 2110ms 200s 2000 22s 38s 52s 13s 28m 5000 328s 28m 13m 161s 10000 89m 20m Господа, добро пожаловать снова в каменный век! Что ж оно так тормозит-то безбожно? Ах да, там же теперь функция power5() на самом дне трех вложенных циклов, внутри которой цикл аж на 63 итерации. Переписывать на интринсики? Спокойно, в следующем решении мы просто будем тащить ответ из предпосчитанной таблички. Зато теперь оно почти не ест память, а также появилось одно очень полезное свойство: теперь задачу можно разбить на независимые подзадачи, то есть «распараллелить», а точнее — распределить вычисления на несколько ядер. А именно: для каждого ядра давать свои значения параметра w и при покрытии этими w всех чисел от 0 до p-1 мы покроем все случаи в задаче, при этом нагрузка на все ядра будет распределена примерно равномерно. Плюсы: потребляет очень мало памяти, поддерживает распределенные вычисления. Минусы: тормозит как сапожник с похмелья. Сказка #10 за O(n 3 log n) с хардкорными оптимизациями Берем решение #9 и добавляем хардкорные оптимизации. Ну, на самом деле, не такие уж они и хардкорные. Но их много: Предпросчитываем все, что только можно предпосчитать и выносим в таблички. Отказываемся от векторов с их push_back-ами и переделываем все на статичные массивы. Везде, где только можно, убираем операции взятия остатка от деления. В массивах для пар теперь храним только сумму (или разность) пятых степеней, а сами пары пытаемся восстановить только если найдено решение (так как решения очень редки — пара ищется втупую за квадрат). Массивы, которые генерируются внутри циклов по e и d теперь в среднем в 2 раза короче. Действительно, для случая (a 5 + b 5 ) + (c 5 + d 5 ) = e 5 нам интересны только (c 5 + d 5 ) < e 5 (хорошо при малых e), а для (e 5 — a 5 ) — (b 5 + c 5 ) = d 5 нам интересны только (e 5 — a 5 ) > d 5 (хорошо при больших d). И получаем код: Код #define MAXN 100500 int pow5modp[MAXN]; int sols[MAXN]; uint128 vec1[MAXN], vec2[MAXN]; int vec1_sz, vec2_sz; uint128 pow5[MAXN]; int pow5mod11[MAXN]; void init_arrays( int n, int p ) { for (int i=1; i<=n; i++) { uint64 i5p = ((uint64)i*i)%p; i5p = (((i5p*i5p)%p)*i)%p; pow5modp[i] = (int)i5p; } for (int i=0; i<p; i++) sols[i] = -1; for (int i=1; i<=n; i++) sols[pow5modp[i]] = i; for (int i=1; i<=n; i++) pow5[i] = power5(i); for (int i=1; i<=n; i++) { int ii = i%11; pow5mod11[i] = (ii*ii*ii*ii*ii)%11; } } void tale10( int n, int start=0, int step=1 ) { int p = n+1; while ( p%5==1 || !is_prime( p ) ) p++; init_arrays( n, p ); for (int w=start; w<p; w+=step) { cerr << "n=" << n << " p=" << p << " w=" << w << "\n"; // (a^5 + b^5) + (c^5 + d^5) = e^5 // (a^5 + b^5) = w (mod p) vec1_sz = 0; for (int a=1; a<=n; a++) { int tmp = w - pow5modp[a]; int b = sols[ tmp<0 ? tmp+p : tmp ]; if (b!=-1 && b<a) if ( (pow5mod11[a]+pow5mod11[b])%11 == 0 ) vec1[vec1_sz++] = pow5[a]+pow5[b]; } sort( vec1, vec1 + vec1_sz ); for (int e=11; e<=n; e+=11) { // (a^5 + b^5) + (c^5 + d^5) = e^5 // (a^5 + b^5) = w (mod p) // (c^5 + d^5) = (e^5 - w) = q (mod p) int q = (int)((pow5modp[e] - w + p)%p); uint128 e5 = pow5[e]; vec2_sz = 0; for (int c=1; c<e; c++) { int tmp = q - pow5modp[c]; int d = sols[ tmp<0 ? tmp+p : tmp ]; if (d!=-1 && d<c) if ( pow5mod11[c]+pow5mod11[d]==0 || pow5mod11[c]+pow5mod11[d]==11 ) { uint128 s = pow5[c]+pow5[d]; if (s < e5) vec2[vec2_sz++] = s; } } sort( vec2, vec2 + vec2_sz ); int i = 0, j = vec2_sz-1, mx_i = vec1_sz-1; while( i < mx_i && j >= 0 ) { while ( j >= 0 && vec1[i] + vec2[j] > e5 ) j--; if ( j >= 0 && vec1[i] + vec2[j] == e5 ) { int a=-1, b=-1, c=-1, d=-1; for (int A=1; A<=n; A++) for (int B=1; B<A; B++) if (pow5[A]+pow5[B]==vec1[i]) { a=A; b=B; } for (int C=1; C<=n; C++) for (int D=1; D<C; D++) if (pow5[C]+pow5[D]==vec2[j]) { c=C; d=D; } if (gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } i++; } } // (e^5 - a^5) - (b^5 + c^5) = d^5 // (b^5 + c^5) = w (mod p) // already computed as vec1 for (int d=11; d<=n; d+=11) { // (e^5 - a^5) = (d^5 + w) = q (mod p) int q = (int)((pow5modp[d] + w)%p); uint128 d5 = pow5[d]; vec2_sz = 0; for (int e=d+1; e<=n; e++) { int tmp = pow5modp[e]-q; int a = sols[ tmp<0 ? tmp+p : tmp ]; if (a!=-1 && a<e) if ( pow5mod11[e]==pow5mod11[a] ) { uint128 s = pow5[e]-pow5[a]; if (s > d5) vec2[vec2_sz++] = s; } } sort( vec2, vec2 + vec2_sz ); int i = 0, j = 0, mx_i = vec2_sz, mx_j = vec1_sz; while (i < mx_i && j < mx_j) { while (j < mx_j && vec2[i] > vec1[j] && vec2[i] - vec1[j] > d5) j++; if ( j < mx_j && vec2[i] > vec1[j] && vec2[i] - vec1[j] == d5 ) { int e=-1, a=-1, b=-1, c=-1; for (int E=1; E<=n; E++) for (int A=1; A<E; A++) if (pow5[E]-pow5[A]==vec2[i]) { e = E; a = A; } for (int B=1; B<=n; B++) for (int C=1; C<B; C++) if (pow5[B]+pow5[C]==vec1[j]) { b = B; c = B; } if (gcd( a, gcd( gcd( b, c ), gcd( d, e ) ) ) == 1) printf( "%d^5 + %d^5 + %d^5 + %d^5 = %d^5\n", a, b, c, d, e ); } i++; } } } } Код стал компактнее, проще и добрее, что ли. А еще он стал быстрее: n #1 #2 #3 #4 #5 #6 #7 #8 #9 #10 100 1563ms 318ms 490ms 360ms 82ms 129ms 20ms 16ms 219ms 8ms 200 40s 4140ms 6728ms 4339ms 121ms 140ms 105ms 49ms 1741ms 30ms 500 74m 189s 352s 177s 516ms 375ms 1014ms 472ms 25s 379ms 1000 55m 46m 3119ms 2559ms 7096ms 2110ms 200s 2993ms 2000 22s 38s 52s 13s 28m 24s 5000 328s 28m 13m 161s 405s 10000 89m 20m 59m Мы проверили все варианты для n=10000 за более-менее приемлемое время, используя какие-то жалкие 10 Мб памяти. Плюсы: достаточно быстрое, ест мало памяти. Минусы: их нет. Ни в сказке сказать, ни пером описать А ТЕПЕРЬ я достаю из широких штанин 64-битный компилятор, 6-ядерный i7-5820K 3.3GHz и 4-ядерный i7-3770 3.4GHz и запускаю решение #10 в 16 независимых потоков на несколько дней. n Суммарно по ядрам Реального времени Потоков 10000 29m 29m 1 20000 318m 58m 6 50000 105h 7h 16 100000 970h 62h 16 Точные времена для n=100000 00 221897112ms 01 221697012ms 02 221413313ms 03 219200228ms 04 222362721ms 05 221386814ms 06 221880726ms 07 219676217ms ** 08 222212701ms 09 221865811ms 10 213299815ms * 11 211880251ms 12 211634584ms ** 13 210114095ms 14 211691320ms * 15 212125515ms * found 27^5 + 133^5 + 133^5 + 110^5 = 144^5 ** found 85282^5 + 28969^5 + 28969^5 + 55^5 = 85359^5 00-09 : i7-5820K 3.3GHz 10-15 : i7-3770 3.4GHz sum ~ 970h max ~ 62h 64-битная программа на более быстрой машине (напомню, ранее я тестировал код на i5-2410M 2.3Ghz) работает примерно в 2 раза быстрее. В итоге удалось затащить n=100000 и найти второе решение искомого диофантова уравнения: 55 5 + 3183 5 + 28969 5 + 85282 5 = 85359 5 Сказка — ложь, да в ней намек Вот так вот не самое быстрое решение с не самой быстрой асимптотикой бывает лучше всего на практике. По идее, код можно ускорить еще или отрезать логарифм от асимптотики, но на текущий момент мне пока надоело оптимизировать — я уже потерял достаточно времени . Насчет логарифма решения два: заменить быструю сортировку на radix sort (но тогда константа возрастет до космических размеров), либо вместо идеи двух указателей использовать хэш-таблицу (тут уже надо писать и смотреть что действительно быстрее). Профилировка показала, что для n=10000 сортировка занимает примерно половину всего времени, то есть для наших маленьких значений n логарифм довольно терпимый. Насчет ускорения: наверняка есть еще какие-нибудь трюки с модулями, позволяющие ускорить программу в 5-10 раз. Затащим? Еще у меня есть дикая идея проверить все n вплоть до миллиона. Ожидаемое время проверки, в принципе, реальное — около миллиона ядрочасов. Но моих мощностей для этого будет явно недостаточно. Затащим вместе? Впрочем, я не нашел информации о том, до какого n уже все перебрали. Может до миллиона искать уже нет смысла, ибо все давно посчитано. Прошу отписаться, если у кого есть информация по этому поводу. Тут и сказочке конец, кто осилил — молодец!
https://habrahabr.ru/post/318244/
habrahabr
«Прохладная история», или Почему жидкий гелий не смог совершить революцию в разгоне?
['kingston', 'разгон', 'экстремальный разгон']
Привет, Гиктаймс! Разгон железа в домашнем ПК — это улучшенное воздушное охлаждение, отобранные производителем чипы и, желательно, залихватская подсветка комплектующих (+80 к разгону). «Спортивный»...
Привет, Гиктаймс! Разгон железа в домашнем ПК — это улучшенное воздушное охлаждение, отобранные производителем чипы и, желательно, залихватская подсветка комплектующих (+80 к разгону). «Спортивный» разгон на соревнованиях — это почти всегда жидкий азот и модификация системы питания железа. Куда подевались все альтернативы и какими они были — разбираемся сегодня. Что мешает профессиональному спорту стать потешным и зрелищным, как покатушки «Безумного Макса»? Регламент! «Уравниловка» касается и одежды спортсменов, и характеристик техники, и многих-многих других мелочей — для обеспечения безопасности и более-менее равных условий соперничества (вместо соревнования «кошельков»). А некоторые решения отметают и сами участники чемпионатов, потому что шаг вправо, шаг влево — потерянный подиум. Иначе мы бы наблюдали очень много уморительных находок в той же «Формуле-1» , например. Но вот какое дело — в оверклокинге нет жёстких ограничений на типы охлаждения железа. В так называемых «оффлайн-чемпионатах» энтузиаст волен охлаждать компьютер всеми доступными способами ради максимального результата. Отчего же тогда таблицы мирового первенства не набиты рекордами с применением жидкого гелия? Куда исчезли модные и эффективные холодильные машины «на фреоне»? Почему термоэлектрическое охлаждение оказалось утопией? И как так случилось, что милая сердцу энтузиаста «водянка» (система жидкостного охлаждения) сегодня стала пригодна только для «гражданских ПК»? Выясняем, в каких условиях жили-поживали, и почему вымерли диковинные системы охлаждения. Миллионы рублей на разгон железа «Все мелодии спеты, стихи все написаны», всё азотом разогнано, а вот гелий — бессмысленный. Странная ситуация выходит, потому что именно жидкий гелий должен был стать символом новой эры оверклокинга. Именно с его помощью, в теории, можно было бы переписать таблицу мировых рекордов по разгону на новый лад. Но этот тип охлаждения как был маргинальным, так и остался. И дело не в технических ограничениях — жидкий гелий кипит аж при -269 градусов по Цельсию, тогда как азот капитулирует уже при -196°C. То есть, с гелием можно «наваливать» попугаев в бенчмарках там, где потенциала азота уже недостаточно. В теории. Dancop и Smoke на мероприятии Extrem OC Absolute Zero от ASUS — разгон Intel Core i7-6700K жидким гелием На деле же оверклокеры по всему миру сторонятся гелия, и на то есть пара веских причин. Забудем на минутку о «жэстачайшем» и дорогостоящем подборе комплектующих, у которых не проявится колдбаг (coldbug — порог температуры, ниже которой железо отказывается работать) на характерных для гелия температурах. В конце концов, оверклокер обязан быть максималистом. Главная преграда — цена вопроса. Один литр жидкого гелия обойдётся в 15-20 раз дороже, чем такое же количество жидкого азота, при этом для интенсивного охлаждения гелия всегда понадобится эдак в 4 раза больше. В интервью с оверклокером Smoke мы упоминали конкретные цифры — 200 литров гелия стоимостью 20 тысяч долларов на полчаса бенчмарка против $65-110 в случае с азотом. Один миллион и двести тысяч рублей для того, чтобы разок «поразгонять железки»! Уже по этой причине разгон с помощью гелия стал редким ритуалом, который проводится на спонсорские деньги. Чаще всего такие мероприятия спонсирует AMD, с подачи которой и началась история оверклокинга гелием, или ASUS ROG, который таким образом громко заявляет о потенциале своих материнских плат. Самый эффективный и самый проблемный разгон Жидкий гелий стал мощным рекламным орудием AMD — когда на выставке CES 2009 «красный лагерь» решил выжать из процессоров максимум, оверклокеры SF3D и Sampsa получили в распоряжение объём гелия суммарной стоимостью примерно $40 тысяч. Впрочем, ходят слухи, что ради экономии средств энтузиасты даже вышли на поставщика гелия для медучреждений и сторговались на более гуманной сумме. Зато итоговые 6301 МГц на Phenom II X4 привлекли общее внимание. При этом уже в июле Phenom II X4 955 Black Edition удалые ребята neoforce , DeDaL , DoNNy и pofigist в составе международной команды раскочегарили до 7 ГГц А ещё круче смотрелись 8429 МГц в процессоре FX-8150 спустя пару лет. В рекордах разгона с применением гелия до недавнего времени царила атмосфера «AMD на AMD и AMD погоняет» — просто потому, что чуть более горячие сами по себе чипы «красных» лучше переносят экстремально низкую температуру и хорошо скалируются от температуры и напряжения. Для разгона чипов Intel, до недавнего времени, «с головой» хватало жидкого азота. Почему при максимальной эффективности жидкий гелий не используют в разгоне другого типа железа? Потому что современной оперативной памяти не нужны отрицательные температуры для максимального быстродействия — оверклокеры, наоборот, подогревают её феном, чтобы ОЗУ работала в стандартном режиме, а не «замораживалась», как процессор. А вот в разгоне видеокарт гелием видеопамять — «самое слабое звено». Потому что, если видеочипы хорошо переносят экстремальное охлаждение, то GDDR5/GDDR5X характерные для гелия температуры очень не любит. С распространением HBM-памяти ситуация лишь ухудшится. Вдобавок, актуальные видеокарты поколения NVIDIA Pascal («тысячная» серия) раскрывают свой потенциал при куда менее суровых температурах — им попросту не нужен жидкий гелий для того, чтобы «ехать на все деньги». Даже транспортировка жидкого гелия и поиск помещения для бенч-сессии проблематичны И даже в самом разгоне процессоров на сверхнизких температурах появляются новые «приколы». Если охлаждать процессор слишком быстро, пины (ножки) покрываются льдом и теряют контакт в сокете. То есть, процессор моментально виснет. Никто не отменял ретроклокинг на более стойких к заморозке комплектующих, и фанаты разгона могли бы установить новые рекорды на старом железе. Но поддержка производителей в профессиональном разгоне всегда связана с рекламой новинок индустрии — никто не хочет делать рекламу и вкладываться в бенч-сессии с видеокартами и процессорами минувших лет. Десять секунд на мировой рекорд Проблемы разгона с применением жидкого гелия продолжаются даже на организационном уровне. Даже если найти поставщика и договориться о цене, понадобится арендовать гигантский сосуд Дьюара, найти хорошо вентилируемое помещение (гелий испаряется моментально и в оставляет после себя огромное количество конденсата — в 3 раза больше, чем жидкий азот). Сама процедура разгона гелием тоже сопряжена с хлопотами, поскольку начинается он с… разгона азотом. Медный «стакан» для отвода тепла сначала охлаждают до -196 градусов по Цельсию, а уже потом через капилляр на него подаётся жидкий гелий. И не в режиме «нонстоп», а порционно, чтобы у оверклокера была возможность контролировать стабильность системы. Техника охлаждения гелием устроена так, что у энтузиаста есть порядка 10 секунд на запуск теста и результат, после чего нужно будет предпринимать попытку заново. Это одна из причин, по которой такое охлаждение не применяют для видеокарт — графические тесты не столь кратковременны. Сейчас гелий помогает выдать рекордные результаты разве что в дисциплинах SuperPi 1M, PiFast, HWBot Prime и, в меньшей степени, Cinebench. Вам частоту или эффективность? Разгон процессоров AMD и Intel с помощью жидкого гелия — это таки «две большие разницы». В случае с AMD и его запредельно высокими частотами речь скорее идёт о так называемой валидации — максимально возможной частоте процессора без оглядки на то, даёт она прирост в бенчмарках, или же нет. Разгон новых архитектур Intel даётся сложнее, зато он эффективен и именно с ним сопряжены новые достижения в бенчмарках. Кстати, ожидайте мировые рекорды за авторством российских оверов в январе, когда будет снято эмбарго на публикацию обзоров новых Core i7 Kaby Lake :) Разгон с помощью гелия при всей его дороговизне и эффективности охлаждения — это отнюдь не «чит», но и не гарант рекордов. К примеру, гелий до сих пор не оккупировал вершины турнирных таблиц в оверклокинге. Сейчас он, скорее, орудие для «крайних мер», когда у организаторов есть гарантия, что железо будет способно выдать результат на сверхнизкой температуре в короткий срок. Альтернативы азоту и гелию в оверклокинге Существуют ли «нетрадиционные» способы охлаждения комплектующих? Конечно, да, но почти все они тянут разве что на баловство в сравнении с потенциалом жидкого азота. Например, охлаждение с помощью термоэлектрических пластин, или, иначе говоря, элементов Пельтье . Это такие аналоги «термонасоса»: с одной стороной, которая поглощает тепло, и другой, которая его выделяет. То есть, подобный элемент способен принять на себя тепло, которое выделяет процессор, и передать его на радиатор, который уже охлаждает процессорный кулер. Конструкция модуля Пельтье Сам по себе такой вариант охлаждения любопытен, который из-за низкого КПД и высокого энергопотребления так и остался слабо распространенным. Сегодня модули Пельтье чаще всего используются для охлаждения или подогрева компонентов со скромным TDP. Оверклокеры чаще всего просто меняют полярность местами и используют модули… для разогрева видеопамяти. Да и то, как мы уже упоминали выше, с этой задачей обычно справляется обычный промышленный фен. Тем более, что в некоторых оверклокерских видеокартах подогрев памяти реализован самим производителем. А вот так называемый « чиллер », хоть и не бьёт рекордов эффективности, по-прежнему распространён и любим оверклокерами. Чиллер — это система, подобная промышленному аквариуму, только для охлаждения железа. То бишь, фреоновая, с хладагентом, и жидкостная — с водоблоками. Компрессор сжимает фреон, а затем переводит его в жидкий вид, охлаждает и прокачивает по водоблокам. Самодельный чиллер (фото: overclockers.ru ) В отличие от обычного водяного охлаждение, поддерживает не комнатную, а «околонулевую» температуру или даже позволяет чуть уйти «в минус». Очень шумная, но надёжная конструкция, которой и обслуживание толком не требуется. Отлично подходит для разгона в домашних условиях, в профессиональном оверклокинге не используется, поскольку для соревнований сегодня нужно достичь гораздо более низких температур. Сухой лёд когда-то был очень эффективным и доступным способом разгона — полным ходом использовался во времена архитектуры Intel Sandy Bridge. Однако сегодня он мало кому нужен, поскольку применим в процессорах, которым достаточно охлаждения до -75 градусов по Цельсию. То есть, годится скорее для использования в любительских целях. Сухой лёд А вот холодильные машины, основанные на системе фазового перехода, по-прежнему жизнеспособны и эффективны. Самый простой вариант такой системы — Single Stage («фреонка», как говорят в народе). Она представляет собой одноступенчатую холодильную машину — что-то наподобие кондиционера. Компрессор сжимает хладагент, который от этой процедуры нагревается. Затем хладагент попадает в конденсатор, теряет в температуре и становится жидким, после чего проходит сквозь фильтр-осушитель и в виде пара возвращается в компрессор. Этого достаточно, чтобы охладить процессор до -60 градусов по Цельсию. Для более внушительных результатов понадобится охлаждать конденсатор системы Single Stage ещё одной «фреонкой» (чтобы вы могли охлаждать фреон пока вы охлаждаете фреон). По закону «бабка за дедку, дедка за репку» и конструируются каскадные системы . Каскадная холодильная система (фото: overclockers.ru ) Они хороши надёжностью и, при долговременной эксплуатации, позволяют забыть о приобретении жидкого азота вовсе. Могут обеспечить охлаждение, сравнимое с этим самым азотом (для таких систем не бывает недостижимых температур — бывает мало ступеней каскада), но популярность такие системы растеряли почти полностью. Почему? Во-первых, из-за громоздкой конструкции — для постройки системы, сравнимой по эффективности с охлаждением азотом, понадобится внушительных размеров комната. Во-вторых, энергопотребление каскадных систем выходит за все разумные рамки — таким оверклокингом можно легко сжечь проводку в жилом помещении. Зато это и есть те самые «хардкорные» системы, которых недостаёт публике, безразличной к жидкому азоту и его спецэффектам. Не нужно изобретать велосипед В оверклокинге не бывает «ультимативно лучших» способов охлаждения — «попса» в лице жидкого азота всего лишь стала меньшим из зол среди себе подобных. Азот покрывает температурные границы большей части современных процессоров, дёшев в эксплуатации и позволяет меньшими усилиями достичь результата. Более крутой, в теории, жидкий гелий даёт прирост только в некоторых сценариях и обходится несоизмеримо дороже, а альтернативные системы охлаждения либо недостаточно эффективны, либо обходятся слишком дорого. Именно поэтому современный оверклокинг в его стереотипном понимании ассоциируются с парнем, вооружённым стаканом с азотом внутри. Но, право слово, покуда мы видим новые рекорды, в этом нет ничего плохого. Дамы и господа, капитан Очевидность рапортует, что «Новый год к нам мчится — скоро всё случится». Огромное спасибо всем, кто нас читает и комментирует! А чтобы компьютер в новом году принёс больше радости, чем в старом, мы приготовили скидки на железо и аксессуары Kingston/HyperX. В главных ролях: — скидка в размере 12% на память DDR4 Predator в сети Юлмарт . Вооружаетесь промо кодом GEEKPR16 — и до 31 декабря 2016 года получаете возможность купить флагманскую «оперативку» дешевле. — хотите ещё дешевле? Не пропустите скидку в 10% на оперативную память Savage DDR3/DDR4 и твердотельные накопители HyperX Savage. Промокоду SAVAGE16 в сети Юлмарт действует до 28 декабря 2016 года . — память ещё дешевле даже там, где она изначально недорогая. С промокодом KING16 в сети Юлмарт до 28 декабря скидка 10% на ОЗУ Kingston ValueRAM! С наступающим всех! Подписывайтесь и оставайтесь с нами — будет интересно! Для получения дополнительной информации о продукции Kingston и HyperX обращайтесь на официальный сайт компании . В выборе своего комплекта HyperX поможет страничка с наглядным пособием .
https://geektimes.ru/company/kingston_technology/blog/284072/
habrahabr
Как обновить ядро в системе без перезапуска сервисов (пошаговая инструкция)
['linux', 'open source', 'travis-ci', 'travis', 'criu', 'openvz', 'virtuozzo', 'vz', 'kernel', 'systemd', 'ubuntu', 'containers', 'kexec', 'checkpoint', 'docker']
Как вы думаете на сколько реально зайти на машину по ssh, обновить систему, загрузить новое ядро и при этом оставаться в той же ssh сессии. Сейчас есть модное движения по обновлению ядра на лету...
Как вы думаете на сколько реально зайти на машину по ssh, обновить систему, загрузить новое ядро и при этом оставаться в той же ssh сессии. Сейчас есть модное движения по обновлению ядра на лету (ksplice, KernelCare, ReadyKernel, etc), но у этого способа есть много ограничений. Во-первых, он не позволяет применять изменения, которые меняют структуру данных. Во-вторых, объекты в памяти могут уже содержать неверные данные, которые могут вызвать проблемы в дальнейшем. Здесь будет описан более «честный» способ обновить ядро. На самом деле, сам способ уже давно известен [1] , а ценность этой статьи в том, что мы разберем все в деталях на реальном примере, поймем, насколько это просто или сложно, и чего стоит ждать от подобных экспериментов. Travis CI — одна из популярных систем непрерывной интеграции, которая хорошо работает с Github. Сервис быстро развивается и если несколько лет назад он предоставлял только контейнеры с не очень свежими дистрибутивами, то сегодня там есть выбор между контейнерами и вмками, есть поддержка не только Linux систем и многое другое. Мы начали использовать Travis-CI в нашем проекте CRIU (checkpoint/restrore in userspace) несколько лет назад и всегда брали от сервиса максимум. Начинали с проверки компиляции на x86_64, а сегодня Travis-CI запускает наши тесты, проверяет компиляцию на всех архитектурах, с разными компиляторами и даже тестирует совместимость с новыми ядрами, в том числе и самой нестабильной и передовой веткой Linux-Next. И самое главное тут, то что любой из разработчиков может воспользоваться всем этим в своих целях и ему не нужно ничего локально настраивать, приседать, подпрыгивать. А теперь к делу, господа… Но сегодня я хочу рассказать совсем не о том, как мы тестируем CRIU, а об одном интересном варианте его использования. Представьте, что на входе у нас есть виртуальная машина, в которой через ssh запущен процесс. Как нам загрузить свое ядро так, чтобы процесс этого не заметил? Это ровно та ситуация, которую мы имеем в Travis-CI. Внешнего доступа к виртуалке мы не имеем, и если процесс Travis по какой-то причине умирает (завершается), то сервис завершает задачу и удаляет ВМ. Согласитесь, задачка, прямо скажем, непростая. Мы даже сделали внизу голосование – просигнальте, пришло ли вам сразу в голову решение или нет. Но мы поступили следующим образом: берем CRIU, дампим ssh-сессию Travis, загружаем новое ядро, восстанавливаем процессы и бежим дальше. Примерно так я думал, когда решил немного развлечься после обеда и показать, как все это взлетит. Сразу скажу, что задача – отнюдь не абстрактная. У нее есть несколько реальных применений. Одно из них — это желание некоторых пользователей загрузить Ubuntu 16.04 ( https://github.com/travis-ci/travis-ci/issues/5821 ). Разработчики Travis решать эту задачу пока не собираются, а мы можем попробовать сделать это без их помощи. Идея тут та же, берем начальную систему 14.04, обновляем ее и перезагружаемся в новое окружение. Решение Обновление системы — меньшая из бед, решается парой команд: sed -i -e "s/trusty/xenial/g" /etc/apt/sources.list apt-get update && apt-get dist-upgrade -y Но дальше становится намного веселее. Во-первых, возникает опрос: откуда начинать дампить? Во-вторых, как будем восстанавливать? Если что-то пойдет не так, как мы узнаем, что именно? От замороженного Travis помощи ждать не приходится. Так что начнем разбираться своими силами. Смотрим на дерево процессов и понимаем, что дампить надо начинать с процесса SSHD, который обрабатывает нашу SSH-сессию. Дерево процессов: 12253 ?        Ss     0:03 /usr/sbin/sshd -D 32443 ?        Ss     0:00  \_ sshd: root@pts/0 32539 pts/0    Ss     0:00  |   \_ -bash Идем по всем родителям, начиная с себя, и берем второй процесс sshd от init-а: ppid="" pid=$$ while :; do    p=$(awk '/^PPid:/ { print $2 }' /proc/$pid/status)    test “$p” -eq 1 && break    ppid=$pid    pid=$p done echo $pid Теперь мы знаем кого дампить и надо решить кто будет этим заниматься. Стоит учесть, что CRIU не позволяет «пилить сук, на котором сидит», так что придется создать сторонний процесс: setsid bash -c "setsid ./scripts/travis/kexec-dump.sh $ppid < /dev/null &> /travis.log &" Пришло время сочинить команду для дампа. Если вы думаете, что это не сложно, то сильно ошибаетесь. В CRIU уже наросло такое количество опций, что не все разработчики могут сразу в них разобраться. Но на самом деле, все не так плохо, если разобраться. Строчка кода получилась достаточно короткая. ./criu/criu dump -D /imgs -o dump.log -t $pid --tcp-established --ext-unix-sk -v4 --file-locks —link-remap Если перевести ее на русский язык, это команда звучит примерно так: “CRIU, сделай нам дамп поддерева начиная с процесса $pid, все данные сложи в директорию /imgs, логи сохрани в файле dump.log, рассказывай подробно обо всем что делаешь, а также разрешаем тебе сохранить tcp-сокеты, unix-сокеты, связанные с внешним миром, файловые локи и дескрипторы на удаленные файлы”. Кажется, тут все понятно, кроме удаленных файлов — откуда они возьмутся? Но достаточно вспомнить, что мы установили мажорный update на систему, а это значит, что обновилось почти все, в том числе библиотеки и запускаемые файлы. При этом наш процесс не перезапускался и по прежнему использует старые версии этих файлов. Именно для них мы и указываем опцию --link-remap. Тут же возникает и еще одна проблема. Между сохранением и восстановлением процессов сетевой трафик должен быть заблокирован, иначе нет никакой гарантии, что TCP соединения переживут эту операцию. CRIU добавляет для этого пару правил iptables, и наша задача — эти правила восстановить после загрузки нового ядра, но до того как произойдет настройка сети. Здесь мне пришлось немного погуглить, но в целом также задача решилась не слишком сложно. cat > /etc/network/if-pre-up.d/iptablesload << EOF #!/bin/sh iptables-restore < /etc/iptables.rules unlink /etc/network/if-pre-up.d/iptablesload unlink /etc/iptables.rules exit 0 EOF chmod +x /etc/network/if-pre-up.d/iptablesload iptables-save -c > /etc/iptables.rules Восстановление Итак, процессы сохранены, и пришло время время подготовить того, кто будет их восстанавливать. Тут нам придется написать свой небольшой сервис. cat > /lib/systemd/system/crtr.service << EOF [Unit] Description=Restore a Travis process [Service] Type=idle ExecStart=/root/criu/scripts/travis/kexec-restore.sh $d $f [Install] WantedBy=multi-user.target EOF Кажется все готово и можно взлетать. Ключ на старт. kernel=$(ls /boot/vmlinuz* | tail -n 1 | sed 's/.*vmlinuz-\(.*\)/\1/') echo $kernel kexec -l /boot/vmlinuz-$kernel --initrd=/boot/initrd.img-$kernel --reuse-cmdline Полетели! kexec -e Так мы взлетели, но, как и SpaceX, с первого раза сесть не смогли. А не смогли мы, потому что посадочная платформа была кем-то уже занята. А если серьезно, то проблема в том, что CRIU позволяет восстанавливать процессы только с теми же идентификаторами, что у них были на момент дампа. Мы же перезагрузились в новую систему, где systemd (!!!) и процессов стало немного больше. Эта проблема уже давно изучена наукой, и тут нам помогут контейнеры, точнее говоря, только их маленькая часть, называемая пространством имен процессов (pid namespace). unshare -pfm --mount-proc --propagation=private ./criu/criu restore \ -D /imgs -o restore.log -j --tcp-established --ext-unix-sk \ -v4 -l --link-remap & Попробуем взлететь, и снова наш корабль не выходит на связь. На этот раз идей о неполадках никаких нет, и надо как-то добывать логи. Тут было решено не думать долго, а взять да и залить их на одно из популярных хранилищ разных отходов. #!/usr/bin/env python2 import dropbox, sys, os access_token = os.getenv("DROPBOX_TOKEN") client = dropbox.client.DropboxClient(access_token) f = open(sys.argv[1]) fname = os.path.basename(sys.argv[1]) response = client.put_file(fname, f) print 'uploaded: ', response print "=====================" print client.share(fname)['url'] print "=====================" Под прицелом камер мы теряем очередной корабль и понимаем, что шутки кончились. На этот раз нам жалуются на DBus сокет, т е это уже такая связь, состояние которой нам недоступно, ведь ей владеет только DBus-демон. С другой стороны, зачем sshd нужен этот сокет? Наверняка он хочет отслеживать состояние сети и прочую ерунду. Мы ничего такого делать не собираемся (точнее мы уже все сделали), так что давайте просто восстановим этот сокет как-нибудь и поедем дальше. diff --git a/criu/sk-unix.c b/criu/sk-unix.c index 5cbe07a..f856552 100644 --- a/criu/sk-unix.c +++ b/criu/sk-unix.c @@ -708,5 +708,4 @@ static int dump_external_sockets(struct unix_sk_desc *peer)                                if (peer->type != SOCK_DGRAM) {                                        show_one_unix("Ext stream not supported", peer);                                        pr_err("Can't dump half of stream unix connection.\n"); -                                       return -1;                                } Фактически мы сделали свой собственный патч для CRIU. Это можно было решить более элегантно с помощью плагинов, но так было быстрее. Снова заливаем наши изменения и ждем очередного падения. На этот раз возникает проблема с псевдотерминалами: нужные нам номера уже кем-то используются. Мы могли бы монтировать devpts с newinstance, но эта опция с недавнего времени не работает.    - The newinstance mount option continues to be accepted but is now       Ignored. // Eric W. Biederman Похоже пришло время залезть в образы процессов и немного подправить их напильником. Давайте поменяем в них номера псевдотерминалов и добавим префикс 1. Был терминал с номером 1, станет с номером 11. Для этого в CRIU есть возможность переформатировать образа в Json формат и обратно. Выглядит это примерно так: ./crit/crit show /imgs/tty-info.img  | \    sed 's/"index": \([0-9]*\)/"index": 1\1/' | \    ./crit/crit encode > /imgs/tty-info.img.new ./crit/crit show /imgs/reg-files.img  | \    sed 's|/dev/pts/\([0-9]*\)|/dev/pts/1\1|' | \    ./crit/crit encode > /imgs/reg-files.img.new Опять запускаем и ждем. Время уже давно послеобеденное, и вся эта затея явно сильно затянулась. Привычно получаем ошибку — на этот раз о том, что какие-то fifo файлы из /run/systemd/sessions не могут быть восстановлены. Разбираться, что это за файлы, нет никакого желания, поэтому перед восстановлением просто создадим их и побежим дальше. f=$(lsof -p $1 | grep /run/systemd/sessions | awk '{ print $9 }') ... criu dump kexec mkfifo $f criu restore Опять падаем, и на этот раз похоже налетаем на баг в CRIU. Видим, что sys_prctl(PR_SET_MM, PR_SET_MM_MAP, …) возвращает EACCES, лезем в ядро и находим, что виной тому восстановление ссылки на запускаемый файл. Ядро видит, что мы передаем ссылку на файл, у которого нет соответствующего бита. Вы же помните, что мы обновили систему целиком, и теперь эта ссылка из процесса указывает на удаленный файл. Оказывается, что перед тем как удалить файл, dpkg снял с него права на запуск. # strace -e chmod,link,unlink -f apt-get install --reinstall sudo ... 3331  link("/usr/bin/sudo", "/usr/bin/sudo.dpkg-tmp") = 0 3331  chmod("/usr/bin/sudo.dpkg-tmp", 0600) = 0 3331  unlink("/usr/bin/sudo.dpkg-tmp")  = 0 ... Кажется, достаточно сделать еще один патч к CRIU, и золотой ключик будет у нас в кармане. diff --git a/criu/cr-restore.c b/criu/cr-restore.c index 12f13ae..39277cf 100644 --- a/criu/cr-restore.c +++ b/criu/cr-restore.c @@ -2278,6 +2278,23 @@ static int prepare_mm(pid_t pid, struct task_restore_args *args)        if (exe_fd < 0)                goto out; +       { +               struct stat st; + +               if (fstat(exe_fd, &st)) { +                       pr_perror("Unable to stat a file"); +                       return -1; +               } + +               if (!(st.st_mode & (S_IXUSR | S_IXGRP | S_IXOTH))) { +                       pr_debug("Add the execution bit for %d (st_mode %o)\n", exe_fd, st.st_mode); +                       if (fchmod(exe_fd, st.st_mode | S_IXUSR)) { +                               pr_perror("Unable to add the execution bit"); +                               return -1; +                       } +               } +       } +        args->fd_exe_link = exe_fd;        ret = 0; out: Заключение Ура! Все работает https://travis-ci.org/avagin/criu/builds/181822758 . На самом деле, это очень краткий пересказ всей истории. Мне пришлось запускать эту задачу в Travis 33 раза, прежде чем она впервые прошла успешно. Что мы этим доказали? Во-первых, решили пару прикладных задач, а во-вторых показали, что CRIU — это очень низкоуровневый инструмент и даже простая задача может потребовать глубоких знаний системы. Зато старания компенсируются мощностью, гибкостью и широкими возможностями. Хотя никто не гарантирует, что вам не придётся повоевать с багами. Удачи на космических просторах!
https://habrahabr.ru/company/virtuozzo/blog/318522/
habrahabr
Как делался новый дизайн сайта viva64.com разработчиков анализатора кода PVS-Studio
['pvs-studio', 'дизайн сайтов', 'разработка сайтов', 'управление продуктом']
Сайту viva64.com — основной площадке разработчиков анализатора кода PVS-Studio исполнилось 10 лет! Домен был зарегистрирован 09.11.2006 года, а последнее серьезное обновление дизайна было...
Сайту viva64.com — основной площадке разработчиков анализатора кода PVS-Studio исполнилось 10 лет! Домен был зарегистрирован 09.11.2006 года, а последнее серьезное обновление дизайна было выполнено в декабре 2010 года. Пришло время что-то поменять. Участники проекта Сейчас сайтом viva64.com занимаются 4 человека: Константин Потапов — веб-разработчик; Сергей Харлеев — веб-дизайнер ; Илья Тетерин — инженер Linux; Евгений Рыжков — руководитель проекта. Остальные люди занимаются созданием контента и не имеют отношения к инфраструктуре сайта, его внешнему виду и работоспособности. Что делает компания Мы делаем свой программный продукт. Это инструмент для программистов — анализатор кода PVS-Studio. Он помогает найти ошибки в программах путем анализа исходного кода. Компании-клиенты экономят деньги за счет раннего обнаружения ошибок до стадии бета-тестирования и, тем более, публичного выпуска. Этот программный продукт мы и продаем. Для продвижения анализатора PVS-Studio мы пишем статьи о проверке проектов с открытым исходным кодом, в которых находим ошибки с помощью нашего инструмента. Концепция сайта Долгое время даже мы сами не могли сформулировать к какому типу сайтов относится наш ресурс. С одной стороны, у нас есть компания, а значит, это корпоративный сайт. Но мы не Disney и не Microsoft, поэтому про нашу компанию никому ничего знать не интересно. С другой стороны, у нас есть продукт для программистов, но в эпоху AppStore, Play Market и прочих сторов, сайт отдельного продукта не так-то уж интересен конечным пользователям. Многие успешные продукты вообще обходятся без сайта и ничего. Наконец, с третьей стороны, у нас контентный сайт. Ведь основное, за чем приходят люди на наш сайт — это почитать статьи о проверке проектов с помощью нашего анализатора, узнать какие интересные ошибки мы в них нашли и как писать код так, чтобы их не допускать. Получается, чуть ли не образовательный ресурс. Объединив все это в одну концепцию, мы пришли к следующему. У нас контентный сайт. Однако с любой его страницы должно быть понятно, что есть такой программный продукт PVS-Studio. Какую мысль мы хотим донести посетителю сайта? Итак, у нас контентный проект. Но какую мысль мы хотим донести до тех, кто оказался у нас на сайте? Сначала надо разобраться с тем, как посетители попадают к нам на сайт и какие страницы пользуются популярностью. Обратимся к Google Analytics. Вот обзор источников трафика за 10 месяцев 2016 года (Acquisition Overview for Jan-Oct 2016): При этом, если смотреть самые популярные страницы, то главная страница сайта будет лишь на 15 месте. Таким образом, можно сделать вывод, что люди почти никогда не бывают на главной странице сайта, а всегда попадают на какой-то опубликованный на сайте контент (статьи) или из поиска, или из социальных сетей, или по ссылке с другого ресурса. Первый важный вывод: посетители всегда попадают сразу «в середину» сайта, минуя главные страницы, а значит пытаться «провести» человека с главной до покупки продукта (условно) — идея так себе. Хорошо, с этим разобрались. Но как тогда «вести» посетителя сайта к покупке продукта? Ведь в конце концов все статьи пишутся ради этого. Мы считаем, что наш цикл продажи составляет около трех-шести месяцев. За это время человек должен прочитать 3-4 статьи про PVS-Studio и проверить инструмент на своем проекте. Дальше, если нам повезет, и инструмент человеку понравится, то он его купит. Таким образом, наша задача донести до посетителя сайта сразу две мысли: Надо прочитать 3-4 статьи, а не уйти после той, на которую он пришел. Надо авторитетно и с фактами убедить, что предлагаемый программный продукт не пустышка, не мошенничество, а реально крутая штука. Для того, чтобы человек прочитал 3-4 статьи, надо показать ему, что эти статьи есть на сайте. Поэтому у нас есть блок «Последние статьи», который должен попадаться на глаза. Мы делаем огромную работу — находим ошибки в проектах с исходным кодом, и это помогает человеку поверить в инструмент. Задача сайта сделать так, чтобы посетитель узнал о проверках. Поэтому у нас есть блок «сколько мы проверили проектов и сколько нашли ошибок». Перейдя в этот раздел, пользователь видит полный список проектов, которые мы когда-либо проверяли и все найденные ошибки. Находясь на любой странице сайта, посетитель должен понимать, что есть такой программный продукт PVS-Studio и его можно на этом сайте получить. Поэтому в разных местах «разбросаны» упоминания об анализаторе кода. Какие конкретно элементы разработаны для достижения цели сайта Мы определились, что цель сайта – проинформировать посетителя, что на сайте есть интересные статьи про проверку проектов, и написаны они не без помощи PVS-Studio. Который, в свою очередь, является объективно достойным инструментом. Как же конкретно эту мысль мы доносим? Поехали по пунктам. Шапка сайта В шапке сайта написано, чем занимается компания («Мы делаем анализатор кода»). По моему опыту, часто сайт, в который даже вложено много денег, не всегда отражает деятельность компании. И ладно, когда это многопрофильные компании вроде Siemens или Samsung. Но часто даже небольшие организации на 10-20 человек настолько увлекаются креативом, что сайт весь прыгает и переливается, но что компания предлагает — непонятно. Наши контакты указаны как в виде электронной почты, так и в виде формы обратной связи. Написать нам должно быть легко и удобно. Поэтому мы предлагаем два способа связи и всегда хотим, чтобы они были доступны посетителям сайта. Левое меню сайта Левое меню сайта является супер минималистичным. В нем содержатся только самые важные пункты. Что на нашем сайте самое важное? По нашему мнению: Блог, чтобы всегда можно было почитать «что новенького проверили». Список проверенных проектов и список найденных в них ошибок с конкретными числами, чтобы люди видели, что мы работаем. Советы по программированию. Ну и, конечно, наш программный продукт. Подвал сайта Подвал довольно простой: Еще одно напоминание о PVS-Studio. Список основных страниц и разделов сайта. Контакты. Twitter, RSS. Поиск по сайту. Правый блок сайта (сайд-бар) В правом блоке разместились следующие традиционные элементы: Последние статьи. Трансляция твиттера. Список ссылок «это интересно». Из нетрадиционных элементов: Блок «проверенных проектов» — с количеством проектов и числом найденных ошибок. Блок «примеры ошибок» — реальные фрагменты кода из разных проектов. Цель правого блока заключается в том, чтобы читая статью, посетитель понял, что на сайте есть множество других интересных материалов. Для поклонников продукта Как у любого продукта с историей, у PVS-Studio есть поклонники (и ненавистники, но про них мне нечего сказать). Для этой категории людей мы подготовили раздел с бесплатной сувенирной продукцией . У нас на сайте можно скачать обои на рабочий стол, а также картинки для печати на майках и кружках. Очень забавно бывает увидеть в чьем-то офисе эти вещи. Интервью с разработчиками сайта Статья о разработке новой версии сайта была бы неполной без комментариев со стороны самих участников процесса. Я попросил ответить их на несколько вопросов. Сергей Харлеев, веб-дизайнер ЕР: Сергей, скажи, пожалуйста, насколько легко далась концепция сайта? Все-таки не магазин, не лендинг, не просто блог. Как ты понял, что мы делаем? СХ: Да, проект оказался больше и сложнее чем на первый взгляд. Основная сложность была в удержании грани, не перебарщивать с маркетингом. Но при этом не забывать основную задачу сайта — продажу продукта. Целевая аудитория у нас особая, придирчивая, и не терпит навязчивость. Поэтому мы внутри компании создали импровизированную фокус группу из программистов и на ней откатывали некоторые элементы и блоки сайта. Для начала во главу угла мы поставили публикации, ведь в первую очередь viva64.com это обучающий информационный ресурс. Поэтому основной упор был на удобочитаемость статей, и удобство пользователей. А сам анализатор PVS-Studio ушёл на второй план, переехав в подраздел. Мы не используем такие элементы маркетинга как разноцветные баннеры, большие красивые иллюстрации, кричащие заголовки, так как подобные вещи разработчики не уважают. И такими фишками возможно получить только обратный эффект. Но мы не забыли о продукте, ненавязчиво упоминая о нем, например, с помощью блока «Проверенные проекты». В нем мы рассказываем, как анализатор PVS-Studio в своё время находил серьезные ошибки в коде у крупных, известных программных продуктов, при этом прикрепляя конкретную ошибку в коде. И в довесок демонстрировали весомую статистику проверенных открытых проектов, и найденных в них ошибок. ЕР: Какими способами было решено возвращать пользователей на сайт? Вообще в мире способов много, но не каждый подходит для нашей аудитории. Например, мы не используем e-mail подписку, так как наши пользователи мягко говоря недолюбливают рассылки, также и социальные сети. Выбор пал на два канала, где у нас уже есть подписчики, это твиттер Андрея Карпова, и RSS . ЕР: Насколько сильно полет творческой мысли подвергался цензуре? СХ: В начале бывали моменты когда меня заносило в плане графики, например, с концепцией волшебного мира, как в мультике «Время приключений» для нашего героя — единорога. Но команда меня остепенила, так как фокус внимания уходил с нашего героя. Но когда ты не один месяц живешь с продуктом, начинаешь хорошо его понимать, принципы, философию, и ближе к завершению, я с клиентом и командой был на одной волне. ЕР: Сколько страниц в итоге пришлось отрисовать? Насколько типично такое количество страниц? СХ: Более 60 макетов, для каждой страницы проектировалась планшетная и мобильная версия. Подобный подход типичный для онлайн сервисов, но не часто используется для корпоративных и информационных сайтов. ЕР: Чем этот проект отличался от других твоих проектов? СХ: У меня впервые заказали бренд-бук для сайта, с правилами использования шрифтов, цветов, расстояний, элементов и блоков. Это было откровение, оказалось на редкость удобный инструмент, и для разработчиков, и для самого себя, документ заметно ускорил и упростил процесс. Константин Потапов, веб-разработчик ЕР: Константин, первый вопрос про сроки. В какие временные рамки ты первоначально оценивал проект и сколько в итоге получилось? Как думаешь почему большое такое расхождение? КП: Изначально я видел лишь простой элементарный сайт со статьями. И оценил создание сайта в более современном дизайне в 3 недели. Сколько получилось я не в курсе, как говорят «после релиза сайта его жизнь только начинается». ЕР: Ну я-то про сроки все знаю. Над дизайном с Сергеем мы начали работать в середине мая 2016, закончили (условно конечно) в середине ноября, то есть полгода. Первые работы над кодом сайта начались в июле. Хоть можно сказать, что это к дизайну не имело отношения, но это было нужно для того, чтобы появилось понимание, что сайт «больше чем кажется». Непосредственно новый дизайн начали верстать и кодировать в середине сентября, а релиз был в середине декабря. То есть три месяца на знакомство с кодом и три — на основную работу. Ну да, почти три недели и получается… (Сарказм) КП: Я не предполагал, что у такого маленького сайта такие большие внутренности. И это было как хорошо, так и плохо. Из хорошего там была крутая система публикации статей на сайт. Материал люди готовили в Word, специальным самодельным плагином преобразовывали это в набор .html специального вида, которые можно публиковать как на основном, так и на других сайтах. Кроме того, там были интеграции с приложением PVS-Studio, куча маркетинговой аналитики. Из плохого там было много «production-кода». Как я любил говорить своим программистам «это не production, тут не место для костылей». Но взвесив все за и против и потратив пару недель на попытку уместить все яйца в одной корзине, а также значительное время на причесывание legacy-кода, пришел к выводу об эволюционном подходе. Судя по всему, вариант «все взять и переписать» для таких проектов уже не работает. Отдельной сложностью был новый дизайн. Я привык работать структурно, по жестким сеткам и над смыслом, а не эмоциональной подачей (благо не умею красиво рисовать). Я вижу много недостатков, но как известно «идеальный продукт стоит бесконечных денег, бесконечно времени и не существует в природе». Поэтому пришлось идти на компромиссы. ЕР: Кстати какой размер сайта сейчас? Размер контента и размер исходников. КП: В момент написания этого текста у нас есть вот что: Общих статей (блог, новости, терминология, уроки и т.п.) — 836; Статей документации — 512 (как и положено программистам); Итого примерно 1350 страниц на русском и английском языках. Кроме того, есть 255 (откуда эти программистские числа?) страниц с примерами ошибок. Короче, получается примерно полторы тысячи статей на русском и английском. Если говорить про код, то это 14 мегабайт кода не считая библиотек, но это слегка искусственный показатель. А для любителей статического анализа кода вот еще более искусственный на картинке. ЕР: Расскажи про «начинку» на которой работает сайт? Какие технологии использовались? КП: Это сайт с богатой историей, который существует 10 лет, делался разными программистами. Наверное, слово «говнокод» вычистят при правке текста, поэтому скажу так обтекаемо. С учетом этого, как ответственный человек, я решил по минимуму использовать нестандартные или редкие технологии чтобы не было проблем с поиском разработчика, если меня собьет самолет. Внутри стандартный Python 2.7, Django 1.9. Если бы я начинал проект с нуля, я бы использовал более современные технологии и, возможно, еще внедрю их в процессе рефакторинга. Но тут как с первой брачной ночью — эта честь до меня выпала другому человеку 10 лет назад :-). ЕР: Об особенностях верстки есть что рассказать? КП: Я старался по максимуму внедрить «универсальную» верстку и зарезал (возможно зря) готовую верстку в БЭМ-стиле (это когда каждый элемент верстается отдельно). Этот подход хорош для неуправляемых проектов с сотней разработчиков и горячими изменениями. Но я сторонник того что CSS — это каскадная таблица стилей, и как минимум пытался работать в этой парадигме. Также я старался по максимуму использовать возможности фреймворка (imposition framework), чтобы просто приверстывать многие элементы, совсем не залезая в CSS. Но блин — это всегда компромисс. И я не уверен, что мое решение наилучшее. Например, сейчас я хотел бы переделать верстку через SASS и сделать ее еще гибче. Когда я начинал, были не решены многие композиционные вопросы, которые всплывают в процессе разработки. Кроме того, я не до конца воплотил все дизайнерские идеи Сергея, но старался сделать это по максимуму. Сайт — это софт, а как сказал в свое время директор HP (если не ошибаюсь) — хочешь делать классный софт, делай свое железо. Есть много разных устройств, и разрешений, и я старался найти компромисс. ЕР: Как был организован процесс разработки? Ветки, разные сервера, все такое. Побольше подробностей только! КП: У нас вот какая инфраструктура сейчас: Боевой сервер — это понятно. Stage-сервер (для разработки) в режиме горячего переключения нового релиза и старого сайта для теста изменений. «Спящий сервер» (как мы его назвали) для резервного разворачивания полной копии боевого. На программном уровне были внедрены автоматизации и синхронизации между разными серверами. Похоже, это оправдалось на 200%. Можно обновить версию сайта «по воздуху» прямо из системы администрирования. Кроме того, есть еще отдельный сервер на Jenkins, который автоматически конвертирует .docx-статьи в .html и заливает их на сайт. ЕР: Много ли приходилось переделывать по несколько раз и если да, то почему? КП: Я очень уважаю эффективность. И не понимаю людей, которые могут сидеть и смотреть в монитор по два часа подряд, дожидаясь пяти вечера или пока их не подтолкнет начальник. Этот сайт поставил передо мной архитектурный вызов с которым я раньше так плотно сталкивался лишь однажды, и я не считаю, что смог его решить в полной мере. Я окончил физтех и у меня на подкорке прошита идеология ученый-инженер-исследователь. Я создал где-то 5 версий движка с разным переплетением технологий и архитектур, но уперся в то что поменять «все и сразу» слишком рискованно. Помню я как-то разрабатывал IP-телефонию для Таджикистана. Но у них там электричество тогда было по карточкам, не то что интернет. И я, помимо прочих, столкнулся с проблемой что им нужен именно G729 кодек (а не open-source 723). Лицензией на который обладали лишь Intel и кто-то еще. Но суть в том, что из-за экономии 5% трафика я чуть не заработал нервный срыв. Но в этом проекте было кому остановить меня вовремя от этих попыток перфекционизма. ЕР: Теперь, постфактум, какую бы ты дал временную оценку для разработки новой версии дизайна сайта? А новой версии движка сайта? КП: Три недели на все. При условии, что не нужна интеграция с существующей инфраструктурой, дизайн соберу я на готовых компонентах и редактирование статей через админку. А что? Это же просто сайт со статьями!!! Надеюсь вы поняли, что это сарказм. ЕР: Какие дальнейшие шаги с сайтом необходимо сделать? КП: Как минимум, обязательно нужно следующее: Асинхронно грузить статику. Поупражняться в магии с настройками сервера. Улучшить отображение сайта на разных устройствах. Провести «учебные тревоги» и проверить как функционируют резервные системы. Задокументировать текущую систему (но у меня с этим проблемы). Если смогу создать доки, хотел бы уйти в отпуск или умереть с чувством что «работа сделана» :-). Илья Тетерин, инженер Linux ЕР: Илья, расскажи историю, благодаря которой мы познакомились? ИТ: Основной сайт отключили якобы за спам, да еще и начали заносить в черные списки за якобы распространение вирусов. Потребовалось срочно разбираться, что происходит, и это больше по моей части. В юности был в хакерской тусовке, кое-какие навыки остались. Впрочем, оказалось, что никакие злобные диверсанты не действовали, а всего лишь недостаточно хорошо организована защита от самых обычных вирусов, крадущих пароли от FTP. Офис-то защитили нормально, а вот на домашних компьютерах, где тоже бывает служебная информация, всё дыряво. Впрочем, сложно в этом упрекать рядовую софтовую фирму, когда на аналогичные грабли нарвались даже кандидаты в президенты США и их команды. Сейчас, думаю, ситуация значительно улучшилась, от опасных протоколов избавились, права всем порезали, сделали внушение сотрудникам и т.д. ЕР: Так, а расскажи про железо, на котором работает сайт. ИТ: Для данного сайта не требуется каких-то экстраординарных вычислительных мощностей, но нужна стабильная работа. Используется виртуальный выделенный сервер, он обеспечивает хороший резерв по прочности. В случае если что-то пойдет не так (рост посещаемости на порядки, DDoS-атаки) — мы готовы в кратчайшие сроки мигрировать на более мощный сервер или даже организовать кластер, а также подключить внешние сервисы защиты, чтобы обеспечить бесперебойную работу сайта. ЕР: Какие задачи по организации работы сервера были решены, а что еще только предстоит сделать в ближайшем будущем? ИТ: Планомерно снижается уязвимость системы для внешних угроз и скорость восстановления в случае поломки. Перешли на более безопасные протоколы обмена, навели порядок с ролями пользователей и их правами доступа. Бэкап теперь делается в облачный сервис с трехкратным резервированием. Сейчас на завершающем этапе организация репозитариев для пользователей Linux-версии PVS-Studio, благодаря чему нашим продуктом будет удобно пользоваться и особенно обновляться. Хотелось бы еще внедрить регламенты обеспечения информационной безопасности и работы с резервными копиями. А то тройной бекап — это хорошо, но его же надо и проверять все-таки. Кроме того, стоит создать скрипт автоматического развертывания готовой системы из образа на любом сервере (чтобы это делалось за минуты, а не за десятки минут). ЕР: Уже хочу это все! Заключение Мы хорошо поработали над новым сайтом, но не считаем свою работу законченной. Поэтому будем рады получить ваши замечания, пожелания по улучшению и просто комментарии о новой версии сайта www.viva64.com . Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Evgeniy Ryzhkov. The new design of viva64.com. The story behind it, told by the PVS-Studio developers
https://habrahabr.ru/company/pvs-studio/blog/318528/
habrahabr
Мониторинг системных вызовов Linux
['go-audit', 'audit-go', 'syslog', 'auditd', 'rsyslog']
Если вы инженер в организации, использующей Linux в промышленной эксплуатации, у меня к вам два небольших вопроса. Сколько уникальных исходящих TCP-соединений установили ваши серверы за...
Если вы инженер в организации, использующей Linux в промышленной эксплуатации, у меня к вам два небольших вопроса. Сколько уникальных исходящих TCP-соединений установили ваши серверы за последний час? Какие процессы и пользователи инициировали установку этих соединений? Если вы в состоянии ответить на оба вопроса, отлично — дальше можете не читать. А если ответа нет, то получить эту информацию поможет go-audit . Системные вызовы (syscalls) — средство общения между пользовательскими программами и ядром Linux. Они используются для таких вещей, как соединение сетевых сокетов, чтение файлов, загрузка модулей ядра, создание новых процессов и т. д. и т. п. Если вы когда-либо использовали strace , dtrace , ptrace или что-то подобное со словом trace в названии, то системные вызовы вам уже не в новинку. Большинство людей используют упомянутые trace -инструменты для отладки стоящих особняком единичных случаев, мы же в Slack собираем системные вызовы в качестве источника данных для постоянного мониторинга, что и вам советуем. Linux Audit был добавлен в ядро начиная с версии 2.6.(14?). Система аудита состоит из двух основных компонентов: код ядра для мониторинга системных вызовов и демон, журналирующий связанные с этими вызовами события. Архитектура kauditd и go-audit Давайте посмотрим на пример использования auditd . Допустим, мы хотим записывать в журнал события чтения файла /data/topsecret.data . ( Пожалуйста, не храните секретную информацию в файле под названием topsecret.data ). При использовании auditd нужно сначала сообщить ядру о нашем желании получать информацию об интересующих событиях. Это делается с помощью команды auditctl , которая запускается от имени суперпользователя: auditctl -w /data/topsecret.data -p rwxa Теперь ядро будет генерировать событие каждый раз, когда кто-то получит доступ к /data/topsecret.data (в том числе и через symlink ). Это событие посылается процессу в пространстве пользователя (обычно auditd ) через нечто под названием netlink -сокет. ( Другими словами, netlink — это когда вы говорите ядру посылать сообщения процессу с помощью его PID на соответствующий сокет. ) В большинстве Linux-дистрибутивов процесс пространства пользователя auditd пишет данные в /var/log/audit/audit.log . Если подключенный к netlink -сокету юзерспейсный процесс отсутствует, сообщения будут появляться в консоли и могут быть просмотрены с помощью dmesg . Все это замечательно, но наблюдение за единственным файлом — это слишком простой пример. Давайте возьмем что-нибудь поинтереснее, что-нибудь связанное с сетью. Демоны ( и еще бедовая netcat ) обычно используют системный вызов listen для организации приема входящих сетевых соединений. Например, если Apache желает слушать 80-й порт, он посылает соответствующий запрос ядру. Для журналирования этих событий мы снова сообщаем ядру о наших намерениях с помощью auditctl : auditctl -a exit,always -S listen Теперь каждый раз, когда процесс начинает слушать на каком-либо сокете, мы получаем соответствующее сообщение. Здорово! Такое журналирование может быть настроено на любой системный вызов. Для решения обозначенных в начале статьи вопросов нам нужен connect . Чтобы организовать наблюдение за каждым новым процессом и командой, можно использовать execve . Суперзамечание. Мы не ограничены лишь действиями пользователей. Подумайте о таких интересных событиях, как запуск Апачем bash или создание исходящего соединения к какому-то непонятному IP-адресу, и о том, что эти действия могут означать. Итак, теперь у нас есть некоторое количество событий в /var/log/audit/audit.log , но файлы журнала — это еще не система мониторинга. Что нам делать со всеми собранными данными? К сожалению, у формата журнала auditd есть особенности, которые затрудняют его обработку. Формат данных в основном представлен в виде «ключ=значение». Событие может занимать одну или несколько строк. События могут переплетаться и появляться не по порядку. Пример вывода auditd Есть несколько инструментов для обработки событий журнала (например, aureport и ausearch ), но они, похоже, нацелены на расследование уже случившегося события, а не на постоянный мониторинг. Мы видели много вариантов полезного использования получаемых от auditd данных. Но нужно было придумать способ масштабирования такой системы мониторинга. В итоге в качестве замены части auditd , работающей в пространстве пользователя, мы решили создать go-audit . Вот цели, на которые мы ориентировались: Конвертирование многострочных событий auditd в один JSON-blob. Общение с ядром напрямую с помощью netlink. Высокая производительность. Минимизация (или полное исключение) фильтрации событий на наблюдаемых узлах. Первые три условия, скорее всего, очевидны и понятны, а последнее требует пояснения. Вот два главных вопроса, на которые мы должны ответить при обсуждении четвертого пункта: Почему вы не хотите фильтровать события на каждом сервере? Не будете ли вы пересылать уйму лишней информации? Представьте, что на ваших серверах установлена утилита curl ( вероятно, что так оно и есть ). Во время очередных учений товарищ из «красной команды» (red team) использует curl для загрузки руткита и затем для выгрузки данных. Получив этот урок, вы начинаете журналировать каждую команду и отфильтровывать все, кроме curl , при запуске которой каждый раз поднимается тревога. У такого подхода есть несколько проблем. Существует примерно 92 481 124,5 способа выполнить загрузку руткита и выгрузку данных без использования curl . Мы даже перечислить их не сможем. Взломщик может посмотреть ваши правила для auditd и заметить, что вы следите за curl . Есть вполне легитимные случаи использования curl . Нам нужно кое-что получше... А не посылать ли все данные централизованной системе журналирования и оповещения, вместо того чтобы отфильтровывать конкретные команды на местах? У этого подхода есть несколько удивительно полезных свойств. Взломщик не знает, какие системные вызовы вас интересуют. ( А как метко подметил Rob Fuller , невидимые ловушки вызывают у хакеров ночные кошмары. ) Мы можем анализировать взаимосвязь различных событий, чтобы понимать, когда выполнение curl вполне законно, а когда нет. Новые правила можно оценивать и тестировать на архивных данных. Теперь у нас есть внешнее независимое хранилище криминалистической информации. Итак, друзья, встречайте — go-audit . Мы выпускаем этот инструмент как ПО с открытым исходным кодом. Им можно пользоваться свободно и совершенно бесплатно. Ребята из нашей команды Secops создали первую версию go-audit больше года назад, и мы используем его в промышленной эксплуатации почти столько же. Это небольшой, но очень важный элемент нашей инфраструктуры мониторинга. Рекомендую посмотреть мою предыдущую статью о принятом у нас подходе к работе с сигналами тревоги (alerting). В репозитории go-audit размещено множество примеров по конфигурированию и сбору данных. Здесь в Slack мы используем rsyslog + relp , поскольку хотим как можно быстрее убирать данные с сервера, но при этом иметь возможность записать события на диск, если syslog временно не может передать их по сети. Мы бы могли без труда перейти на другой механизм доставки логов и будем рады услышать ваши идеи. Мы приглашаем в проект новых участников и надеемся, что go-audit будет полезен не только нам. В течение года этот репозиторий был открыт определенному количеству людей вне Slack, и некоторые из наших друзей уже используют его в промышленной эксплуатации. Возможно, вы обратили внимание, что в этой статье еще ни разу не встретилось слово «безопасность». Давайте это обсудим. Я считаю, что многие инструменты общего назначения часто могут быть использованы и для обеспечения безопасности, но обратное, как правило, неверно. Auditd выдает данные мониторинга безопасности в таком виде, что их сложно использовать каким-либо другим способом, а go-audit был разработан как инструмент общего назначения. Его полезность сразу очевидна для специалистов служб эксплуатации и разработчиков, которые могут использовать go-audit для решения проблем на всем многообразии современных и в том числе очень крупных систем. Давайте вернемся к вопросам, поставленным в начале статьи. Любая компания с IDS/IPS/Netflow/PCAP и т. д. на сетевом шлюзе может многое сказать о своих сетевых соединениях и, возможно, ответить на первый вопрос. Но ни одно из перечисленных решений не предоставит контекст в виде user/pid/command , необходимый для ответа на второй вопрос. А в нем как раз и заключается различие между «кто-то запустил что-то где-то в нашей сети, и оно соединилось с таким-то IP» и «Mallory запустила curl от имени root на bigserver01 и подключилась к 1.2.3.4, порт 1337». В Slack мы часто говорим: «Не дай лучшему стать врагом хорошего». Go-audit не идеален, но мы считаем, что этот инструмент действительно очень неплох, и рады им с вами поделиться. FAQ: Почему auditd, а не sysdig или osquery? Osquery — отличный инструмент. На самом деле в Slack мы его тоже используем. Но для боевых серверов предпочитаем go-audit . Причина заключается в том, что эти системы работают в режиме 24/7, и нам нужно постоянно передавать данные. С osquery мы получаем снимок текущего состояния машины. Если что-то завершило выполнение в интервале между опросами, есть все шансы это пропустить. Думаю, такая модель хороша для ноутбуков и других пользовательских устройств, но для высокодоступных систем предпочитаю передавать данные непрерывным потоком. Sysdig также является замечательным инструментом отладки, и я использовал его достаточно активно. Основная проблема в том, что ему требуется модуль ядра на каждой машине. Sysdig Falco кажется полезным, но они предпочитают фильтровать события на каждом объекте мониторинга. А, как было сказано выше, нам интереснее хранить правила централизованно, вне зоны досягаемости взломщика, получившего доступ к системе. Auditd хорош тем, что существует уже достаточно давно и является частью основной ветки ядра. Это самый распространенный механизм аудита системных вызовов в мире Linux. Вот поэтому мы его и выбрали. Что нам делать со всеми этими сигналами тревоги? Они отправляются в кластер Elasticsearch. Там для генерации сигналов тревоги на основе анализа постоянно поступающих данных и для общего мониторинга мы используем ElastAlert . Также можно посмотреть на другие популярные системы журналирования, способные работать с большими объемами данных, но ( мое личное мнение не обязательно должно совпадать с мнением моего работодателя ) у меня фундаментальные проблемы с денежной оценкой структур, которые побуждают записывать в журналы меньше данных, чтобы сэкономить финансы. О журналах какого размера идет речь? Короткий ответ: значение может меняться в очень широких пределах. Длинный ответ: зависит от того, какие системные вызовы журналировать и как много серверов будут это делать. Мы пишем сотни гигабайт в день. Кажется, это много, но в данный момент у нас постоянно журналируются события с 5500 машин. Также следует учитывать выделение кластеру дополнительных ресурсов для отражения атак типа DoS. Почему rsyslog? Мы обладаем значительным опытом работы с rsyslog , у которого есть несколько полезных свойств. Настойчиво рекомендуем использовать версию 8.20+, где мы исправили несколько ошибок. У нас была возможность доверить выполнение доставки сообщений и самому go-audit , но выгоды такого подхода не перевесили преимуществ использования инструмента, который исправно служит нам уже несколько лет. Благодарности Моему коллеге Nate Brown , сделавшему go-audit намного лучше. Парням из Mozilla, занимающимся audit-go , за то, что вдохновили нас на этот проект. Большому количеству людей, прочитавших эту статью и написавших полезные отзывы. Chicago Cubs за победу в чемпионате.
https://habrahabr.ru/company/centosadmin/blog/316902/
habrahabr
Машинное обучение как новый инструмент бизнес-анализа
['parallels', 'машинное обучение', 'бизнес', 'бизнес-планирование']
Бизнес-анализ эволюционировал от статичных отчётов, рассказывающих, что произошло, до интерактивных информационных панелей, с помощью которых вы можете углубиться в данные и попытаться понять,...
Бизнес-анализ эволюционировал от статичных отчётов, рассказывающих, что произошло, до интерактивных информационных панелей, с помощью которых вы можете углубиться в данные и попытаться понять, почему это произошло. Новые источники больших данных, включая устройства интернета вещей, подталкивают бизнес перейти от пассивной аналитики — когда мы смотрим на какой-то период в прошлом и ищем тенденции, или раз в день проверяем на наличие проблем — к активной аналитике, способной предупредить о чём-то заранее и позволяющей создавать информационные панели с обновлением в реальном времени. Это помогает лучше использовать операционные данные, которые куда полезнее, если они получены «только что», пока ещё не изменились условия. Многие компании заинтересованы в подобной активной аналитике, позволяющей держать руку на пульсе своего бизнеса. Но даже информационные панели показывают только то, что уже произошло. По этой причине быстрее всего развиваются различные направления углублённой аналитики, в том числе предсказательной. Согласно отчёту Gartner, к 2018 году ради сохранения своей конкурентоспособности более половины крупных организаций по всему миру будут использовать методики углублённой аналитики (и основанные на них алгоритмы). Углублённая, предсказательная аналитика — это вычисление тенденций и будущих возможностей, прогнозирование конечных результатов и выработка рекомендаций. Она выходит за рамки привычных запросов и отчётов в знакомых инструментах вроде SQL Server Reporting Services, Business Objects и Tableau. Здесь используются сложные статистические расчёты, описательный и предсказательный глубинный анализ данных (data mining), машинное обучение, симуляции и оптимизации. И всё это ради поиска признаков вероятных тенденций и паттернов в данных, как структурированных, так и неструктурированных. Подобные инструменты сегодня используются маркетологами и аналитиками для понимания процессов оттока клиентов, покупательских жизненных циклов, возможностей по перекрёстным продажам, клиентских предпочтений, оценки заёмщиков и выявления мошенников. Например, многие телекоммуникационные компании сегодня стараются перейти от пассивной к активной аналитике, чтобы на основе пользовательских профилей и истории звонков определять, кто из абонентов хочет перейти к конкурентам. В подобных инструментах заинтересованы компании почти из любого сегмента рынка. Помимо предсказания поведения клиентов есть и масса других сфер применения углублённой аналитики. Например, своевременное проведение профилактического обслуживания, подразумевающее поиск аномалий в продуктах и работе сервисов. Но одним из наиболее интересных направлений является создание систем для поддержки принятия решений, отвечающих на вопросы «что может произойти?» и «что мне делать?». Основная трудность для бизнеса остаётся всё той же: как из накопленных данных извлечь какие-то глубинные причинно-следственные связи или неочевидную информацию, позволяющие выполнить какие-то действия или продвинуть бизнес вперёд. Привычный способ перейти от данных к решению — через создание статичного отчёта. Например, директор по продажам хочет знать, как у компании шла торговля в последнем квартале в разных регионах. И чтобы принять дальнейшие решения, нужно выполнить ряд процедур по составлению отчёта. Но для принятия решений нужно не просто знать, что произошло за последний квартал, но и почему оно так произошло. Допустим, продажи упали. Потому что не выгорели последние три сделки? Или потому что уменьшился средний объём сделки? Что мне нужно сделать с имеющейся статистикой, чтобы в этом разобраться? Например, в информационной панели Cortana Analytics можно формировать всевозможные отчёты, уменьшающего количество ручных манипуляций с данными. Благодаря технологиями машинного обучения система может заранее спрогнозировать спад продаж, например, за месяц, а не сообщить об этом уже по факту. Также здесь широко используется автоматизация выработки рекомендаций и принятия решений. Подобные системы углублённой аналитики, использующие технологии машинного обучения для прогнозирования и поддержки принятия решений, в идеале должны заранее информировать вас не только о том, что может произойти, но и что вы можете в связи с этим сделать. Например, система обнаружила, что ваш прогноз по продажам на следующую неделю не будет выполнен. При этом у вас в CRM запланированы две маркетинговые акции. В связи с ожидаемым спадом у вас есть возможность запустить акции на неделю раньше, чтобы поддержать продажи. Вы активируете акции в системе и запускаются автоматизированные бизнес-процессы, чтобы все необходимые мероприятия начались на неделю раньше. Такие системы углублённой аналитики могут использоваться для получения ответов на вопросы вроде кто из клиентов с наибольшей вероятностью уйдёт от вас в следующем квартале, а также могут предупреждать о том, что крупный клиент с вероятностью в 90% уйдёт к конкурентам в течение следующих 30 дней. Интеллектуальные советы Сегодня компании накапливают всё больше данных, на основе которых можно принимать бизнес-решения. И следующим этапом развития систем, принимающих решение на основе имеющихся данных, являются автоматизированные системы поддержки принятия решения. То есть — интеллектуальные электронные помощники, дающие советы по поддержанию и развитию бизнеса. Но готовы ли мы к этому? Согласно недавнему исследованию , проведённому среди 50 000 американских компаний-производителей с 2005 по 2010 годы, количество предприятий, на которых бизнес-решения принимались на основе данных, утроилось. Правда, это всего лишь 30% компаний. А когда в 2015 году телекоммуникационный провайдер Colt провёл опрос среди европейских руководителей IT-компаний, то 71% сказали, что интуиция и личный опыт при принятии решений работают лучше, чем анализ данных (хотя 76% сообщили, что их интуиция не всегда совпадала с полученными ими данными). С другой стороны, исследование компании Avanade показало, что руководители компаний в целом планируют использоваться цифровых помощников и автоматизированные интеллектуальные системы для решения возникающих проблем, анализа данных, сотрудничества и принятия решений. И они ожидают, что это позволит более чем на треть увеличить выручку. Более того, 54% руководителей заявили, что были бы счастливы работать с такими системами. Компании-первопроходцы, уже использующие машинное обучение для управления обслуживанием клиентов, финансовыми ресурсами, рисками и соответствием требованиям, как в продажах и маркетинге, так и в новых развиваемых сферах бизнеса, обнаружили « значительное, даже экспоненциальное увеличение выгоды» с точки зрения расходов, выручки и потребительских свойств . Эти кампании используют так называемый «перцептивный интеллект» (perceptual intelligence) — комбинацию распознавания речи и голосов, глубокой аналитики и поддержки принятия бизнес-решений. Согласно исследованию, быстрое отслеживание поведения покупателей, увеличение их удовлетворённости за счёт ускорения и повышения точности обработки звонков, позволяет снизить расходы на 70% и добиться 20-кратного увеличения выручки. Способствовать внедрению таких систем будет и вовлечение в их постройку самих бизнес-пользователей. Спрос на специалистов в сфере анализа данных превышает предложение, а это означает, что компании, не имеющие собственных серьёзных разработок, будут обращаться к сторонним аналитическим сервисам. А опытные пользователи (которых в Gartner называют «гражданские специалисты по анализу данных» (citizen data scientists)) будут перенимать эти инструменты и создавать собственные системы глубокой аналитики.
https://habrahabr.ru/company/parallels/blog/318526/
habrahabr
Голос Сиэтла: разговариваем с Сергеем Тепляковым
['многабукаф', 'много тегов', 'TDD', 'C#', '.NET', 'парное программирование', 'хабра', 'конференции', 'поставил минус - скажи за что']
Последние две мои статьи — интервью со спикерами одной прошедшей конференции. Мне показалось интересным поговорить с человеком, который в свое время отказался выступать на этой конференции, “из за...
Последние две мои статьи — интервью со спикерами одной прошедшей конференции. Мне показалось интересным поговорить с человеком, который в свое время отказался выступать на этой конференции, “из за одного маленького семейного обстоятельства”. Этот человек — Сергей SergeyT Тепляков, MVP, автор отличной книги про паттерны проектирования, адепт TDD, ныне разработчик Tools for Software Engineers в Microsoft и мейнтейнер библиотеки Code Contracts. Под катом много текста про конференции, TDD, парное программирование, архитектуру Code Contracts, Хабру. О конференциях с точки зрения Слушателя Сергей, добрый день. Зачем люди посещают конференции? Зачем их стоит посещать? Я, честно признаться, толком и не посещал конференций, если не являлся там спикером. Но вот каждый раз, когда я там был, то главное, что выносил оттуда – это вдохновение. Да, может быть это звучит завышено, но конференции и общение с умными коллегами для меня всегда были лучшей мотивацией: изучить что-то новое, поделиться чем-то старым или просто продолжать свое развитие, как специалиста и как человека. Ты прочел и дал обзоры на очень много книг. Что можешь посоветовать в плане конференций? Довольно сложно дать конкретный вопрос на довольно общий вопрос. Тут важно понимать, что именно вам там нужно: зарядиться энергией? Познакомиться и/или пообщаться с интересными людьми? Пополнить какие-то конкретные знания? Если последнее, то вместо конференции нужно взять пару толковых книг, а вот если один из первых пунктов, то опять-таки нужно выяснить качество и интересность конференции и самостоятельно решить: идти или нет. Как оценить конференцию по программе? Конференцию нужно оценивать по спикерам и идти нужно не на тему, а именно на человека. Если выступает Андрей Акиньшин, то я пойду его послушать не зависимо от того, о чем он будет говорить, об устройстве Stopwatch-а или о теме, вообще не связанной с производительностью. Поскольку я уверен, что качество будет высоким и я узнаю из него довольно много нового. Ок, а как оценивать спикеров? Довольно просто, на самом деле. Если спикер известен хорошими выступлениями — идешь. Если спикер не знаком, но беглый гуглеж выводит тебя на его блог, github или хабру — оцениваешь материал. Если спикер не знаком и не гуглится — лучше пойти на что-то другое. О конференциях с точки зрения Спикера С посещением понятно. Можешь рассказать, зачем люди выступают на конференциях? Думаю, это вопрос самореализации или подтверждения определенного уровня развития: «Да, я дорос до определенного уровня, когда мне не страшно выходить перед многими людьми и делиться своим опытом: как положительным, так и отрицательным. Мне не стыдно признаться в том, чего я не знаю, поскольку я знаю достаточно полезных вещей которыми интересно поделиться». Для меня выступление вообще, и на конференциях в частности, было таким себе показателем развития. Начиналось все с разговором за чашкой кофе, или в процессе вливания в новый коллектив, когда ты начинаешь более уверенно общаться с коллегами, делясь опытом, отстаивая свое мнение. После этого идут локальные выступления на всяких митапах и юзер-группах, после чего уже не страшно выступить и перед несколькими сотнями. Отдельный плюс: валидация знаний в процессе подготовки. Знаешь фразу: хочешь чему-нибудь научиться — научи другого. Подготовка к выступлению может занять в 10-20 раз больше времени, чем само выступление, и все это время ты целенаправленно копаешь одну тему. Бывают конечно эксперты, рассказывающие\пишущие что-то интересное без плана, но таких мало. С ходу могу вспомнить разве что Криса Брума, одного из архитекторов CLR. Он большинство постов писал прямо из головы, а как-то раз сделал вступление “Раньше я поднимал темы которые не требовали от меня дополнительных исследований. Эту статью я отдал на предварительное ревью, ибо на некоторые вопросы у меня не было ответов”. Так что конференция — это еще мотиватор изучить что-то подробнее, структурировать знания. А как понять, что “сейчас я знаю достаточно полезных вещей, и мне действительно есть о чем рассказать”? Как я уже говорил, проще всего обкатать материал «на кошечках». Это могут быть посиделки за кофе, корпоративные выступления, заметки в блоге или в любом другом виде. Тут очень важно провалидировать свои знания на ком-то, чтобы не оказалось, что твои знания не сильно соответствуют реальности или не являются такими уж глубокими и/или интересными. Есть вариант валидации своего опыта с помощью гитхабов и прочих опенсорсов. Если ты пофиксил пару багов в Розлине и предложил вариант дизайна, который одобрили старожилы проекта или другие участники, то это должно быть достаточным свидетельством твоего опыта и зрелости. То есть, детально ты не готовишься? Лишь канва? Канва, обязательный подстрочник (хоть я его и не смотрю в процессе выступления), и все. Разница между выступлением и написанием поста не так и велика: вступление, рассказ, заключение; тебе нужно подать мысль, ты прикидываешь, что знает читатель, какие места нужно пояснить, какие просто упомянуть. В посте, правда, можно на что-то сослаться, а вот на конференции сказать “ребята, сначала прочитайте вот эти три статейки, а потом возвращайтесь” уже не получится. Ты выступаешь в Штатах? Пока нет. Приоритеты иные. Плюс, уровень разговорного английского не позволяет свободно разговаривать. Как я уже говорил, я обычно не проговариваю все заранее, а просто готовлю план и рассказываю по нему, а в таких вещах язык очень важен. Трудно выступать, когда не можешь высказать ничего сверх подготовленного, когда даже пошутить не в состоянии. А еще уверенность нужна. У нас в MS есть традиция: иногда ребята собираются командой или проектом в комнате с ланчем, и там кто-то рассказывает коллегам об интересных технических штуках. Пока я выступаю только там. Какая аудитория в твоих MS посиделках? По сравнению с конференцией? Среди слушателей иногда встречаются люди, которые приходят померяться паттернами. Среди коллег такого обычно не бывает, а вот на конференциях случается. С такими товарищами надо уметь работать. Стыдно признать, но один раз я выступил в роли такого товарища. Как с такими работать? Тут надо понять, чего хочет слушатель; возможно, задавая вопрос, человек действительно пытается что-то понять, например он спец-смежник, или просто коллега с богатым опытом в другом языке. Если ты думаешь, что можешь ответить на вопрос, но это долго\сложно — предложи обсудить после выступления. Если он тебя подводит к ответу “я не знаю” — говори “я не знаю, погуглю, свяжусь с вами после”. Бывают, ты ссылаешься на Рихтера, а с тобой начинают споры типа “Рихтер говорил не так...”, “этого не было...”, такого рода споры обычно неконструктивны и достаточно сослаться на “после выступления”, вежливо. TDD Классическая схема: тест-код-рефакторинг. Насколько я понял из твоих статей, ты ей следуешь постольку-поскольку. Как определить, когда нужно ей следовать, а когда нет? Как удерживаться от скатывания к “да ладно, весь проект уже без тестов, и к этой фиче ничего писать не стану”? Честно сказать, я практически не использую TDD в его классическом представлении. Я пишу много тестов, но не пишу их до кода. Мой цикл выглядит примерно таким образом: Смотрим на проблему и пробуем увидеть высокоуровневые компоненты. Возможно, берем карандаш и рисуем квадратики с отношениями. Это позволяет увидеть картину целиком и то, какие подкомпоненты в нее входят. После этого можно набросать высокоуровневый тест кейс, но обычно я обхожусь без этого. После этого начинаем декомпозировать систему снизу-вверх (до этого мы попробовали разобрать/разрисовать проблему по принципу сверху вниз). Берем один из листовых классов и начинаем думать, чем он является. После этого я перехожу к реализации, набрасываю каркасы функций, возможно расставляя контракты. Затем перехожу к реализации определенной функции и только после ее написания добавляю тест. Получается совсем не test-first, но мне удобнее «видеть» дизайн в коде и уже валидировать его корректность с помощью тестов. Мне не удобно «выращивать» дизайн с помощью тестов, для меня такое переключение «тест»-«код» сильно отвлекает. Теперь давай перейдем ко второму вопросу: «как удержаться от скатывания». Тут все проще. Несколько лет назад я занимался продвижением («продаванием») юнит-тестирования заказчику. И я ни тогда, не сейчас не акцентировал внимание на регрессионной составляющей, на качестве дизайна и т.п. Я старался показать, как тесты помогают здесь и сейчас: «ок, нам нужно добавить новую фичу. Но вместо того, чтобы проверять ее вменяемость путем деплоя сервака с последующим проклацыванием 73 пунктов в UI-е, почему бы не добавить простой юнит-тест, который проверит наиболее сложную функциональность? Да, придется чутка подумать, как выделить эту возможность в отдельный компонент, но ведь это быстрее, чем вся эта муть с ручным тестированием». Другими словами, если мне нужно сделать минимально вменяемое дополнение нетривиальной сложности, я буду думать о том, как вынести новую логику в отдельный класс/метод, чтобы его можно было легко протестировать. Когда все сильно запущено, то это не всегда сделать легко и не всегда это работает, но, как это не странно, для меня это работает в большинстве случаев. Бывает, что все сильно запущено и новый функционал – это вариации старого, когда изменения вносятся в группу существующих классов. В этом случае думаем, как покрыть все это добро интеграционными тестами, после чего решаем, будет ли оправданным клин-ап существующего кода, будут ли существенные изменения в этих кусках или нет? Если речь идет о плохом коде, который мы собираемся активно развивать, то я попробую обосновать более вменяемые изменения перед внесением существенных функциональных изменений. Если же код мертв и толком не будет развиваться, то тут придется тестировать ручками. Когда тесты писать не нужно? Или ты тестируешь все, вплоть до PS скриптов? Есть ряд вещей, покрывать тестами которые нет никакого смысла. PS-скрипты – это один из них. Поскольку PowerShell по своей природе плотно работает с окружением, то тестировать скрипты изолированно – очень сложно. Кроме того, PowerShell – это немного безумная штука, и без реальных данных ты просто не будешь знать, чего от него ожидать и работает ли твой скрипт или нет. Есть довольно много вещей, которые я не тестирую напрямую. Если много легаси кода, то тут нужны несколько интеграционных тестов, а юнит-тесты с высоким покрытием стоит уже писать для новых компонентов. Есть вещи, которые должны быть покрыты тестами, но это будут не модульные тесты, а интеграционные, которые скорее проверять базовую валидность. К этому относятся тесты базы данных и коммуникационных вещей, типа WCF. Как и с многими другими вещами, нужно понимать, что тесты – это инструмент, не самоцель. При этом нужно менять отношение к инструменту в процессе работы. Если тестов много, и они ловят постоянные регрессии – это хорошо. Если тестов много и они постоянно ломаются – то это плохо. Но тут важно не кидаться из крайности в крайность, не прибивать все тесты одним махом, считая их бесполезными. Тут нужно подумать, как мы тестируем, что мы тестируем, хорош ли наш дизайн? Обычно хрупкие тесты – это симптом более общей проблемы – проблемы с дизайном, высокой связностью и с тестами, которые проверяют детали реализации, а не поведение абстракции. Парное программирование Как написание тестов сочетается с парным программированием? У тебя было пару статей на тему парного программирования, но прямой связи с тестами я не заметил. Теоретически, работа в паре подразумевает разделение ролей, когда один лабает тесты, а второй – логику. К сожалению, у меня не слишком много опыта классического парного программирования, при которой мы бы следовали этому принципу. В результате я всегда работал в паре так, чтобы было комфортно обоим. Это значит, что тесты писались так, как мы считали нужным. Часто это были интеграционные тесты, которые покрывали довольно крупные куски, после чего мы вместе работали над реализацией. Полноценные тесты мы же потом добавляли по одному. Но тут нужно понимать, что если TDD – это дело в некоторой степени личное, то TDD в паре – это дело этой самой пары. Пара должна определиться с тем, как ей быть эффективной. В моей работе мы не стеснялись говорить о том, что сейчас стоит делать, а что нет. Тут догм быть никаких не должно. Как договариваться с агрессивными напарниками, как со стеснительными, закрытыми? У меня опыта не особо много, все-таки парное программирование — подход довольно редкий в индустрии, как в Штатах, так и на Украине. У нас есть немало умных людей на проектах, но я не готов прогать с партнером “с потолка”. На мой взгляд, парное программирование неэффективно если один человек аккуратен в коде, другой нет, или один быстро пишет, другой вдумчиво, или один агрессивен другой стеснителен. Будь я в такой паре — попытался бы избежать такого. Очень мало людей мне подойдут чисто психологически. Это я именно про парное программирование говорю. Если нужно менторить — думаю, процентов 90 меня устроят, я найду к ним подход. Как ты сам начал кодить в паре? Я участвовал в хакатоне, и заджойнился к одному из коллег для создания следующей версии Code Search, это поисковый движок для referencesource.microsoft.com — предыдущая версия много лишних данных держала в памяти. У меня был опыт подходящий в Elastic Search, я заджойнился. Ты знаешь хакатоны: времени мало, сделать надо много, времени и возможности разделить работу не было, и мы сидели за одним компом набирая один код. Получилось удачно, и с тех пор некоторые задачи кодим парой, благо через несколько месяцев оказались на одном проекте. Но еще раз повторюсь, это редкость. На Украине я про такое вообще не слышал, в MS слышал про одну команду практикующую регулярное парное программирование, но это капля в море. У нас бывало с коллегами, что мы спорим по какому-то поводу чуть дольше чем надо, слишком неуступчивы. Такие обсуждения можно считать ПП? Это всегда так, особенно если кто-то в команде новичок. Когда притретесь, пободаетесь — можете попробовать покодить в паре. Когда уже выясните, кто чего стоит, когда поймете что “ну да, человек упрямый, но мысли дельные, ну да, я тоже не подарок, но тоже привношу пользу”, тогда можно пробовать. До этого будет довольно сложно коммуницировать, да и пользы будет мало. Если бы ты работал с профи парного программирования, который очень быстро адаптируется — можно было бы попробовать, но это явление еще более редкое чем обычный “парник”. Как готовишься к парному программированию? Никак. Вообще. Разве что, стоит в контекст вникнуть до начала работы, а так вообще ничего не нужно. Как мешает языковой барьер? Вообще не мешает. Общий проект, общий язык программирования, общая предметная область. В самом крайнем случае можно взять бумажку и начертить на ней что-то. Инструментальный барьер? Да, это классика. Мой приятель R#-хейтер, я же скорее наоборот. Иногда мы ржем с этого. То есть кодишь ты такой, ставишь скобку фигурную, тут у тебя все выравнивание с непривычки летит, и ты такой, “стоп, горшочек, не вари, Ctrl+Z, все отменяется...”. Вроде мелочи, иные переносы, скобки, хоткеи, но наблюдать за процессом забавно. С другой стороны, неплохой способ перенять навыки использования тулзы. В последнее время я слышу фразы типа “не хочу признаваться, но вот эта фича R# мне нравится”. То есть, сначала человек не любил R# из-за тормозов на больших проектах, а теперь начинает ценить. Плюс, у нас были различия в тулзах для diff-merge, интересно было посмотреть за аналогом. Мне вообще наблюдение нравится больше всего в процессе, начиная от подхода к дизайну, заканчивая используемыми тулами. То есть, ты не мануал читаешь, а смотришь как живой человек справляется с задачей “на лету”. Очень удобно. Code Contracts Ты один из разработчиков Code Contracts. Как ты начал работать с проектом? Я являюсь давним поклонником контрактного программирования. Началась моя любовь после знакомства с книгой Бертрана Мейера “Объектно-ориентированное построение программных систем”. Обдумывание дизайна в терминах ответственности позволяет существенно упростить разработку, позволяет сделать его более чистым. На платформе .NET для этих целей давно существует библиотека CodeContracts, и я её использую уже давно. Где-то за год до перехода в MS я написал плагин для R# для упрощения контрактного программирования, и использования этой либы. Плагин отлавливает типичные ошибки Code Contracts, позволяет добавлять Contract.Requires(arg != null) контракты и делает ряд других полезных вещей. В первый год работы в MS я сделал небольшую тулзу для Applications Insights. Она оказалось полезной для Майка Барнета , одного из авторов Code Contracts. Потом я перешел в другую команду, и так вышло, что эта команда вовсю использует Code Contracts и это один из самых крупных пользователей Code Contracts в MS. После выхода VS 2015 мы могли отказаться от Code Contracts, или исправить библиотеку, чтобы она могла поддерживать C# 6.0. В результате я полтора-два месяца активно занимался доработкой Code Contracts. Именно в этот период времени я был активнее всего на github. Помимо добавления новых возможностей были починены ряд фич, которые Code Contracts никогда нормально не поддерживал, в частности, постусловия в асинхронных методах. После этого я стал одним из мейнтейнеров библиотеки. Сейчас я занимаюсь проектом в свободное от работы время, но занимаюсь значительно меньше времени чем хотелось бы. Почему? Другие приоритеты. Новый проект? Новый, но связанный с Code Contracts. Не понимаю. У Code Contracts есть несколько серьезных проблем, которые сильно затрудняют развитие. Проект большой, сложный, сотни тысяч строк местами запутанного кода. Кроме того, библиотека предназначена для анализа и изменения IL кода, без привязки к конкретному .NET языку или компилятору. Библиотека содержит три основных компонента. Инфраструктура (Common Compler Infrastrucutre, CCI) — декомпилит IL в объектную модель (Abstract Syntax Tree, AST). AST на выходе получается мутабельное, низкоуровневое. Замыканий нет, async нет, блоков итераторов нет. Статический верификатор CC Check, проверяющий валидность контрактов во время билда. То есть, она парсит AST, и если видит метод с NotNull “аннотацией” пытается доказать, что Null в этот метод никогда не придет. Runtime IL Rewriter (CC Rewrite). Занимается трансформацией dll файлов во время билда. Преобразует обращения к классу Contract в различные конструкции: в генерацию исключения, в Debug.Assert или просто удаляет утверждение целиком. Это отдельная утилита, не связанная с верификатором. У этого подхода есть важная особенность: разные компиляторы и даже разные версии одного компилятора, генерируют разный IL-код для одних и тех же синтаксических конструкций. А CCI предоставляет лишь тонкую обертку над IL: там нет лябда-выражений, итераторов или асинхронных методов. Ты видишь, что у тебя создается объект некоторого класса, но ты не знаешь, это реальный класс, созданный программистом, или сгенерированный компиляторов в результате использования лямбда-выражения. Точнее ты можешь об этом узнать, поскольку компиляторы используют специальные паттерны генерации кода. Поэтому ccrewrite анализирует код, смотрит на имена типов и уже по ним определяет, является ли это класс-замыкания, класс для итератора или асинхронного метода или что-то еще. При этом паттерны меняются в разных версиях компилятора. Для тех же лямбд C# 5.0 генерировал статическое поле с делегатом, а в C# 6.0 появился новый тип классов-замыканий. Разработчики языка C# выяснили, что экземплярные методы дешевле статических, поэтому теперь для «незахватывающих» лямбда-выражений генерируется синглтон вместо статической переменной. Совершенно безумный пример можно привести для асинхронных методов. Компилятор C# 6.0 генерирует разный код в зависимости от количества await-операторов в методе: если await-ов нет получится один код, если await только один — другой, и так далее. И мы должны учитывать все эти детали. Каждый раз когда компилятор начинает иначе обрабатывает языковую конструкцию — нужно менять и верификатор, и Rewriter. Каждое изменение языка — это большая и серьезная работа: нужно не только внести поддержку новых языковых конструкций, но и но и проверить, что все старые конструкции также продолжают работать, да еще и обратную совместимость сохранить. Отдельная проблема: очень тяжело чинить баги. Можно просидеть 8 часов ради двух строчек фикса. Так я бился с одним из багов, когда в сгенерированном обобщенном методе внутри обобщенного класса в определенном случае тип аргумента был !T, а не !!T (это значит, что использовался обобщенный параметр типа, а не обобщенный параметр метода). В общем, AST генерируемое CCI слишком низкоуровневое, что выливается в слишком сложную поддержку. С каждой новой версией языка\компилятора приходится проделывать все больше тяжелой и неблагодарной работы. Еще одна проблема: негативное влияние CC Rewrite на время билда. CC Rewriter недетерминирован. То есть, ты берешь одну DLL, дважды вызываешь CC Rewriter — и гарантированно получаешь два разных бинарника. Для современных билд систем это очень большая проблема; фактически теряется возможность кеширования и инкрементальных билдов. То есть, если ты используешь CC Rewrite и внес изменение в один файл — ты гарантированно должен перебилдить все решение. Если же ты не используешь CC Rewrite — ты можешь перебилдить только один проект и всех его прямых клиентов. На сотне проектов использование CC Rewrite увеличивает время билда в разы. Плюс, CC Rewriter при перезаписи хачит pdb, и не всегда это делает корректно, что негативно сказывается на дебаге. Из недавнего — мой коллега просто не мог заниматься дебагом без отключения CC Rewriter, у него съезжает call stack, неправильные показывались локальные переменные, весь debug experience был потерян. Из-за этих проблем мы с коллегой сейчас работаем над Source Level Rewriter (SL Rewriter). То есть, мы не оперируем IL, мы изменяем высокоуровневый код. Из недостатков — это только утилита только для C#. То есть, вы берете Roslyn-дерево, изменяете его, и отдаете компилятору? Обычный фиксер? Именно. Roslyn предоставляет ровно тот механизм который нам нужен. Мы берем наш Workspace, ищем все обращения к контрактам, и вставляем нужные нам фрагменты. Если вы используете Roslyn, вы ограничены С# 6.0? Почти. На самом деле, нас больше волнует интеграция с компилятором, но это тема для отдельного разговора. Где можно пощупать Source Level Rewriter? Сейчас это внутренний продукт, который пилят 2 человека. Пока что он не готов, но как только он будет корректно работать у нас в команде — мы его расшарим. Будут прогнозы про быстродействие? Сейчас Code Contracts часто ругают за “тормознутость”. Смотри, CC Check очень медленный. Для корректной работы ты должен расставить очень много аннотаций, и билд ста тысяч строк кода будет занимать минуты, а то и десятки минут. Потом еще надо вывод проанализировать. Короче, медленный и неэффективный инструмент с точки зрения разработчика. Точнее, идея хорошая, но задача очень сложная и медленно решаемая. Я знаю буквально несколько команд активно его использующих. Моя команда отказалась от него года два назад и никто не стремится снова его использовать. Теперь CC Rewrite. Как я уже говорил, он существенно влияет на билд-процесс. Есть конечны трюки, например отключить его локально и использовать только на билд-машине, но замедление все-таки есть. Гораздо важнее влияние на рантайм. С контрактами очень легко расплодить лишние проверки. Так, если у тебя есть тяжелые инварианты на классе — в начало и конец каждого открытого метода добавятся проверки. Или контракты на коллекцию — ты должен проитерировать всю коллекцию. Особенно это может быть заметно если у тебя есть цепочка из пяти методов пробегающих по коллекции. Или проверка рекурсии, на ограничение вызова контрактов в глубину. Она использует вызов к thread local, что добавляет тормозов. Одним только отключением этой проверки мы повысили end-to-end производительность на 15%. Подобных деталей не сильно много, но про них стоит знать. С другой стороны, мы сейчас пилим билд-движок, это системное ПО и немалая кодовая база. Нам приходится настраивать контракты для минимально влияния на производительность в рантайме, но отказываться от контрактов мы не хотим: сообщения от контрактов в получаемых нами креш-дампах дают очень много полезной информации, добиться этого другими стандартными средствами — значительно сложнее. Кроме того, надо сказать что для большинства приложение накладные расходы на рантайм будут минимальны. То есть, для малых проектов инструмент можно использовать без настроек? Для малых — да. Для средних можно поставить только проверку предусловий и открытых методов, тогда импакт будет минимален. Ключевую функциональность, тщательно покрытую тестами, можно настроить на удаление всех контрактов из рантайма. Инструмент настраиваемый — им вполне можно (и стоит) пользоваться. Тюнить его придется только на крупных проектах. Вопросы про Хабру. Почему ты на нее пришел? Ух… давно это было. Я пришел на Хабр в 2010-м, когда rsdn уже умирал, dou.ua уже был, но не был столь популярным. Хабр в то время активно развивался, с множеством глубоких технических постов и, самое главное, с высоким уровнем сигнал-шума. Его было интересно читать, в него было интересно писать. Публикации там – это был самый простой способ обсудить какую-то техническую проблему. Да, не все комментарии были одинаково полезны, но в тот момент это было мне интересно. Почему ты ушел с Хабра? Прежде всего изменился я, изменились мои интересы. Я продолжаю писать в своем блоге, часто выбирая более философские темы, и там уже сложилась некоторая аудитория, с которой интересно, которая знает меня и мои интересы. Писать же параллельно в блоге и на Хабре — не совсем «правильно». После того как мои последние “параллельные” посты собрали больше комментариев в блоге — я практически перестал писать на Хабр. Я все еще читаю Хабр, но чаще благодаря соц-сетям и другим способам. Уровень же шума путем чтения через RSS для меня слишком высок: видимо, я не интересуюсь всем, что интересно аудитории Хабра, которая стала еще более разнообразной. При этом я часто попадаю на отличные статьи, вдумчивые, глубокие и интересные. Кроме того, Хабр – это крупнейший IT-портал, с помощью которого можно почерпнуть много полезной информации. Изучая конкретную тему я все еще часто там оказываюсь, если ищу в русскоязычном сегменте. От автора: наш разговор с Сергеем вышел несколько сумбурным и затронул сразу несколько несвязанных тем. Если я что-то упустил — Сергей доступен в личке и комментариях. Ответ может идти больше обычного, учитывайте часовой пояс: время Сиэтла отличается от московского на 11 часов.
https://habrahabr.ru/post/318446/
habrahabr
Отладочная плата ПЛИС — Франкенштейн. Часы. Altera EPM7064 VS Lattice LC4064v
['ПЛИС', 'FPGA', 'Verilog', 'Altera', 'Lattice', 'часы']
Продолжение предновогодней серии приключений маленькой ПЛИС Altera EPM7064 на отладочной плате — Франкенштейн. В предыдущей серии... Настала пора сравнить две ПЛИС из одной весовой категории:...
Продолжение предновогодней серии приключений маленькой ПЛИС Altera EPM7064 на отладочной плате — Франкенштейн. В предыдущей серии... Настала пора сравнить две ПЛИС из одной весовой категории: Altera EPM7064 и Lattice LC4064v . Хотя, один у них — только вес — это 64 макроячейки. В остальном, судя по параметрам, у этих ПЛИС совсем разные назначения. ПЛИС от Altera, судя по документации 2005 года, является просто не молодой, от этого и обладает низким количеством ячеек. Так же, обладает популярным по тем временам напряжением питания — 5 вольт. Максимальная рабочая частота не превышает 200 МГц. В то же время Lattice может работать до частот в 400 МГц, но при этом, питается от напряжения — 3.3 вольта. Да, это не так удобно, как 5 вольт, если мы хотим взаимодействовать со старыми схемами (однако, заявлена толерантность к 5В). В документации на Lattice этой серии указан 2014 год, поэтому я предположу, что это современные высокоскоростные ПЛИС, но малого объема, и судя по "SuperFAST CPLD" в описании, позиционируются они несколько иначе. Как нам их сравнить? Попробуем решить на них одну и ту же задачу. Часы на Lattice LC4064v мы уже попробовали сделать и у нас получилось. Теперь попробуем сделать часы на Altera EPM7064 — на нашем Франкенштейне. Индикатор Плата у нас уже готова, поэтому нам нужно добавить к ней индикатор. Естественно, динамический. Для чистоты эксперимента, конечно, нужно было бы применить тот же самый индикатор, что и на Lattice (или идентичный). Но такого же у меня нет, а снимать детали с рабочих устройств, я считаю плохой привычкой. Поэтому я взял другой, подходящий для изготовления часов индикатор, который мне недавно подарили. Выглядит он совсем, как этот, однако имеет другую распиновку. Найти ее мне не удалось. Описывать ее не вижу смысла, т.к. таких экранов много и они могут быть разными. С помощью тестера можно легко установить назначения выводов. А с помощью макетной платы и своего любимой технологии монтажа накруткой , я упорядочил последовательность выводов индикатора (1-2-3-4, A-B-C-D-E-F-G). В часах на Lattice я использовал транзисторы, для разгрузки линий, выбирающих группы. Тут же я решил ничего этого не делать, а подключить светодиоды напрямую к выводам ПЛИС, даже не используя токоограничивающих резисторов (вообще так делать не правильно). Логика примерно, как на этом рисунке: В итоге, тестовая конфигурация отобразила цифры 1-2-3-4. Светодиоды достаточно яркие. ПЛИС почти не греется. Надеюсь, Френки доживет до светлых дней и не выйдет из строя от такой нагрузки. А чтобы снизить эту вероятность, уменьшим период, в течение которого индикаторы будут включены, тем самым, снизив и яркость индикатора. В целом, код весь тот же самый, кроме логики вывода на экран. Главный модуль module epm7064_clock(clk, dig_sel, segs, btn_HH, btn_MM, btn_SS, btn_SAFE, led_second_tick); ... output wire [3:0] dig_sel; // выбор номера цифры output wire [6:0] segs; // номера сегментов ... //номера цифр чередуются, для этого возьмем несколько бит счетчика-делителя тактовой частоты //конкретные номера бит выбираются из расчета полученной частоты //младшие биты равные нолю я выбрал для того, чтобы светодиоды работали только 1/4 времени. //цифры выбираются по очереди 0001 -> 0010 -> 0100 -> 1000 wire [3:0] top_bits = clk_div[6:3]; // wire [4:0] t_dig_sel = (top_bits == 4'b0000 && h_show &&(!SAFE_MODE)) ? 4'b0001 : (top_bits == 4'b0100 &&(!SAFE_MODE)) ? 4'b0010 : (top_bits == 4'b1000 &&(!SAFE_MODE)) ? 4'b0100 : (top_bits == 4'b1100 &&(!SAFE_MODE)) ? 4'b1000 : 4'b0000; //значения семисегментных индикаторов соответствующего разряда //выбираются в зависимости от номера цифры, которая сейчас выводится ... bcd2seg0_2 sseg_1( .sin(hh), .sout(s_m1)); bcd2seg0_9 sseg_2( .sin(h), .sout(s_m2)); bcd2seg0_5 sseg_3( .sin(mm), .sout(s_m3)); bcd2seg0_9 sseg_4( .sin(m), .sout(s_m4)); wire [6:0] t_segs = (top_bits == 4'b0000) ? ~s_m1 : (top_bits == 4'b0100) ? ~s_m2 : (top_bits == 4'b1000) ? ~s_m3 : (top_bits == 4'b1100) ? ~s_m4 : 7'b0000000; ... //остальной код не отличается Проект полностью — https://github.com/UA3MQJ/epm7064_clock Тактовый генератор В часах на Lattice я пытался запустить генератор на логических элементах самой ПЛИС. В этот раз я тоже попробовал запустить генератор, только уже на Altera. В сети есть упоминания о том, что генераторы успешно запускались на max и даже на cyclone . Но мне запустить генератор на 32768 так и не удалось. Может это кварц неудачный попался, либо я его в процессе экспериментов попортил, или параметры не те. Пробовал как схему с одним инвертором, так и с двумя. Инверторы брал как буфером, так и без. В общем, целый выходной был потрачен зря, запустить генератор не удалось. Вообще считается, что такие генераторы — это плохая идея. Готовые генераторы стабильнее, разработка быстрее. С другой стороны, те, кто сумел все правильно рассчитать и стабильно запустить генератор на ПЛИС, пользуются таким решением. А пока, я не смог запустить генератор, я подожду, может это сумеет сделать мой товарищ. А я пока закажу 32.768KHz OSC Active Crystal Oscillator. Схема из [1] почему-то тоже не заработала. Вернее, генерация там была, но амплитуда была мала, и стабильности формы сигнала было недостаточно, чтобы с ней смог синхронизироваться мой осциллограф. Возможно, всетаки, проблема с конкретным кварцем. Для проверки, можно использовать генератор часов на Lattice, что мы и сделаем Выводы Внутри ПЛИС от Altera мы реализовали ту же самую логику, за исключением вывода на светодиодный экран (т.к. он другого типа). Интересно заметить, что затраченные ресурсы ПЛИС Altera составили 61 ячейку, в то время, как у Lattice было потрачено 59. Я думаю, что причина как раз в разных экранах. У Lattice для управления экраном используется 16 линий, а для экрана на Altera требуется 11 линий. Возможно, на меньшее количество линий получилось сложнее дешифровать. Так что можно считать, что синтезаторы и аппаратные возможности у них равны. Выходной ток Altera немного выше, и другой тип экрана, поэтому удалось обойтись без дополнительных транзисторов, и светодиодный индикатор подключился и заработал вообще на прямую. Ток потребления Altera EPM7064 составил в среднем 100 мA и в 66 мА в safe_mode (без учета тока генератора 32768 Гц), в то время, как Lattice потребляет 125 мА при 3.3 вольтах. Потребление примерно одного порядка. В целом, питание от 5 вольт более удобное. Однако в этом проекте это только вопрос стабилизатора напряжения, т. к. взаимодействия с другими микросхемами пяти-вольтовой логики нет. Поэтому и преимущества перед 3.3В питанием тоже нет. Генератор на 32768 собрать не удалось ни на Lattice ни на Altera. Убежден, что генератор можно соорудить, в данном проекте такой аппаратный хак был бы весьма эффектен, но не получилось. И мы не будем задерживаться, потому что хотим увидеть Френки в других проектах! Список использованных источников СЕМИСЕГМЕНТНЫЙ ИНДИКАТОР. ОРГАНИЗАЦИЯ ДИНАМИЧЕСКОЙ ИНДИКАЦИИ Калейдоскоп схем кварцевых НЧ генераторов
https://habrahabr.ru/post/316586/
habrahabr
Неприлично простой алгоритм генерации лабиринтов
['Лабиринты', 'лабиринт', 'алгоритмы', 'генерация лабиринтов']
Простенький алгоритм генерации идеальных лабиринтов в самом обычном двухмерном пространстве. Nuff said, остальное под катом. Поиск и разочарование Начну без лишних подробностей и прелюдий —...
Простенький алгоритм генерации идеальных лабиринтов в самом обычном двухмерном пространстве. Nuff said, остальное под катом. Поиск и разочарование Начну без лишних подробностей и прелюдий — мне в ходе моей студенческой жизнедеятельности понадобился алгоритм генерации прямоугольного лабиринта. С молитвой на грешных устах я с головой погрузился в бесконечные недра гугла и накопал вот эту статью . Алгоритм был прост и понятен, он давал необходимые мне идеальные, не цикличные лабиринты (из любой точки лабиринта можно попасть в любую другую его точку, причем только одним путем), но из-за своих скудных на тот момент познаний в программировании, я затянул полноценную реализацию на полгода. Так получилось. И, откровенно говоря, разочаровался в результате. Алгоритм выдавал более-менее интересные лабиринты при размерности меньше 20, однако где-то с этого рубежа начались проблемы. 1. Предсказуемость Как я не пытался, попасть из левого верхнего угла лабиринта в правый верхний можно было только пройдясь по двум нижним уровням. Что давало некоторые возможности, вроде сделать их чем-то вроде широкого коридора, но мне это было не нужно. 2. Потребление памяти Алгоритм я писал на старом добром Pascal, который запускал через эмулятор DOSBox. Это ограничивало мою оперативную память 64-килобайтным обрубком. Поскольку лабиринт я хранил в массиве структур, которые включали в себя три байтовых переменных, то создание лабиринта размерностью больше 150х150 без привлечения динамической памяти было проблемным. 3. Несовершенство алгоритма Так уж получилось, что алгоритм рассматривал не все возможные варианты развития событий, что приводило к появлению различных нежелательных артефактов. После осознания этих трех пунктов, я решил отказаться от этого алгоритма и создать свой. Идея и реализация Итак, мне нужен был идеальный и не цикличный лабиринт. Предыдущий алгоритм подразумевал возведение стен в пустом помещении, поэтому я решил пойти другим путем, а именно — прокапывать дороги в сплошном грунте. Делать это будет небольшая «землеройка», которая будет для нас оставаться двухмерными координатами. Но какой алгоритм будет руководить движениями «землеройки»? Никакой! «Землеройку» по нашему необъятному подземелью будет гонять Великий Корейский Рандом. Собственно, алгоритм Обозначим 1 как проход и 0 как стену. Начальные условия — двухмерный массив, заполненный нолями. Размерность массива — любые нечетные числа. Считаем что левый верхний угол стены имеет координаты (1;1). Координаты «землеройки» всегда четные , передвигается она, соответственно, только прыжками длинной в два элемента массива. Случайным образом выбираем точку приземления «землеройки» — генерируем случайные ненулевые координаты. Точке приземления присваивается значение 1. Случайно выбираем одно из направлений — верх, низ, лево, право. Если после прыжка в выбранном направлении мы окажемся во внешней стене или в проходе, то вернуться к предыдущему пункту. Иначе — прыгаем в указанном направлении. Присваиваем значение 1 клетке, в которую приземлились и через которую перепрыгнули. Если после приземления мы не можем совершить прыжок (попадание в тупик), то мы случайным образом генерируем координаты. Иначе — переходим ко второму пункту. Повторяем пункт выше до тех пор, пока в указанных координатах не будет проход. Все до неприличности просто. Рано или поздно мы зациклимся в последних двух пунктах. Прерыванием для алгоритма может быть либо счетчик, либо простая проверка — если в каждой ячейке с четными координатами находится 1, то алгоритм можно смело прерывать. Преимущества: простота в реализации работает с двумя состояниями ячейки простые входящие и исходящие данные работает без ошибок при любых размерах лабиринта Недостатки: простые по структуре лабиринты На этом все. Надеюсь, что пригодится хоть кому-нибудь. UPD Было бы логично приложить сюда иллюстрацию, поэтому вот. Размеры лабиринта — 320х240
https://habrahabr.ru/post/318530/
habrahabr
Лучезарный китайский станок и окрасочная машина им. Франкенштейна
['производство', 'настольные игры', 'станок', 'китайский', 'коробки', 'окраска', 'животное', 'уважаемый коллега', 'зачем', 'вы', 'льёте', 'мне', 'раскалённый', 'расплав', 'за шиворот']
Вы реквестировали пост с деталями про бурные эротические приключения с китайской линией оклейки коробок. Вот он. Оцените, какие мы редкостные бакланы. Для начала посмотрите вот на эту...
Вы реквестировали пост с деталями про бурные эротические приключения с китайской линией оклейки коробок. Вот он. Оцените, какие мы редкостные бакланы. Для начала посмотрите вот на эту фотографию: Это один из первых апгрейдов. Под ведром — реле питания, здоровая такая штука, которая переключает энергию нагревателей чана с клеем. Чан с клеем выше. Клей в нём, внезапно, кипит. И когда он брызгается — а кипящие жидкости вообще часто брызгаются — его потёки попадают ровно в это долбанное реле. Водный раствор клея — плохой, но проводник. Происходит короткое замыкание, и всё производство встаёт. За время восстановления (пока подадут питание, чтобы был свет, пока снимем реле, пока его почистим) клей в машине успевает застыть. А там в станке десятки тонких трубочек, которые забиваются намертво. Детское ведро для игры в песочнице решило эту проблему и остановило увеличение нашего словарного запаса. Мы посмеялись и решили, что это единичный забавный случай. О, как мы жестоко ошибались! Но для начала вернёмся в 2014-й, когда мы только покупали линию. Вся линия состоит из четырёх частей. Первая часть сгибает углы каппы (картонной основы коробки), превращая плоский раскрой в трёхмерную «шапочку», то есть полукоробку — крышку или дно. Вторая часть линии — клеемазательный станок, как раз тот, что с кипящим клеем (ранее мы использовали холодный на обычных ручных станках). Третья часть линии умеет брать каппу с первого станка, намазанный клеем лайнер со второго станка и прилеплять лайнер к каппе (то есть наклеивать цветную бумагу с надписями и всем прочим на картонное основание). Четвёртая часть станка загибает клапаны, то есть обрабатывает точки сгибов на краях, в общем, превращает полукоробку в готовое изделие, которое надо просто высушить. В 2014 году мы упёрлись в то, что ручной труд на производстве очень медленный и печальный, и самое узкое место — как раз коробки. Опытный сборщик делал 200-300 половинок в 12-часовую смену из намазанного холодным клеем лайнера и каппы. То есть это было три человека: один гнёт каппу, второй мажет лайнер, третий их накладывает друг на друга и проходится по бортам. Китаец, продававший нам станок, обещал, линия будет делать более 1500 половинок в смену. Первое, что мы сделали — это попросили китайцев включить станок и заснять рабочий процесс. Видео занимало примерно две минуты, за которые они успели сделать очень дофига коробок. Мы просмотрели его, наверное, раз сто, чтобы убедиться, что это реально эта линия, и это не предзаготовленные коробки. Вроде, всё ОК. Заказали ту часть, которая совмещает лайнер с каппой — вроде, именно она даёт больше всего выигрыша. Думали взять лайнер, проклеить на обычной клеемазке на холодном клею, каппу с лайнером наложить на пластиковый поддон и отдать в стандартный интерфейс третьего станка. Не вышло. В основном из-за того, что лайнер (тонкая бумага с цветным изображением) вёл себя крайне непредсказуемо. Чаще всего посреди процесса у него спонтанно загибались углы (клей же влажный, вот они это и делали). Спросили китайцев, что делать. Они говорят — дело в вашем контрольно-пропускном пункте клея. В общем, купите горячую клеемазку. Мы купили. Вот такой «куриный кубик» клея Модест бросает в горячую клеемазку Начало получаться. Целых два дня мы думали, что на верном пути, потому что из станка выходило готовое изделие с вероятностью около 50%. На 10 заготовок получалось пять нормальных коробок и пять разных браков. Творчески неповторимых — каждый бракованный экземпляр был самостоятельным произведением искусства. Воспроизводить хорошие результаты стабильно не получалось, хоть ты тресни. Мы решили, что дело в обучении оператора (там нужно точно отцентрировать заготовку при подаче) — и что научимся. Проблема была в том, что китайцы, кажется, откалибровали станок под свой китайский клей, свою китайскую бумагу и свой китайский менталитет. При незначительном изменении параметров всё сразу рушилось, и станок превращался в линию по производству неповторимых предметов абстрактного искусства. Была важна вязкость клея, толщина его нанесения на лайнер, скорость схватывания, материал бумаги, её плотность — и так далее. На третий день мы более-менее подобрали набор параметров, соответствующий тому, на что была откалибрована линия. И обрадовались. Но рано. Тут это животное начало разваливаться. Про ведёрко вы уже знаете. Дальше начали отлетать пневмошланги — они оказались очень тонкими, и в местах крепления прикрученными чуть ли не на соплях. Потом станина начала подниматься-опускаться рывками. Потом от вибраций начали отлетать детали — китайцы собрали «богомола» для подачи коробки так, что все напряжения пришлись на самые тонкие участки конструкции. У станка самопроизвольно откручивались гайки, выпадали шарниры и так далее. Пару раз ломался насос для клея (его перебирали в итоге три раза). В первой части станка есть система, которая подаёт нечто вроде скотча, работающего при 160 градусах Цельсия (при меньшей температуре не клеится) — эта штука сломалась от того, что склеилась изнутри. Четыре раза выходили из строя ТЭНы кипятильника для клея. Электроника чудила с завидным постоянством — китайские контакты были плохо завинчены. Ещё одним из факторов был клей. Варьируя компоненты (основу и формулу, фактически), можно повлиять на его характеристики. Мы решили отказаться от горячего клея и попробовать другие составы. Логика была в том, что при остановке станка не пришлось бы всё это вычищать. Попробовали на акрилатной основе (акрилаты-этиленвинилацетат 7:3 и других соотношениях) и наш клей для ручной оклейки (на основе ЭВА). Костя, душа производства, он же химик по образованию, заказал лабораторию и провёл там ряд тестов. Пробовал образцы десятками. От одного образца сборщик поймал нехилый приход и пришёл жаловаться шкафу руководителя. В итоге подобрали нужный, а потом, в конце эпопеи, вернулись к органическому горячему — как и задумывалось by design. Итак, станок ломался. Руководитель производства нанял механика с автомобильного завода и придумал следующее: он, почти в родных для себя условиях, стоит около станка и ждёт поломки. Наша смена работает. Если что-то ломается — механик начинает шаманить. Предполагалось, что через два месяца станок будет залечен везде, где мог сломаться, а механик перейдёт к апгрейдам других линий. Через три недели мы застали смену, собирающую коробки на станке вручную — они использовали его как стол: — Вы чего делаете? — Ну, так быстрее. — А где механик? — В Москве, заявление на увольнение повёз. В общем, станок свёл его с ума, и он ушёл. В заявлении он особо восхитился хитроумностью китайского гения и написал хокку. Хокку я не привожу по причине того, что пост могут читать маленькие дети. Объяснить ему, чем отличается японская поэзия от китайской, мы не успели. Ещё через неделю станок стал просто городским мемом среди механиков. Они приходили на производство, смотрели на него, а потом начинали смеяться. В одной из рассылок по московским клиентам я коротко описал эту историю и попросил посоветовать хороших инженеров, если есть знакомые. Нашёлся с десяток контактов, из системно-важного — до производства доехало две ключевые экспедиции. Первыми были парни, которые специализируются на станках под заказ. Как только они увидели линию, начался уже знакомый нам смех. Но поскольку парни — интеллигенты, они смогли ещё выговорить несколько слов: — Это ж… линия 1920 года! Диагноз — эвтаназия и покупка новой линии, они посоветуют, какой. Мол, проще собрать всё заново, чем сношаться с этим. Мы было решили, что это такой способ продажи, потому что, естественно, делать всё с нуля и долго, и дорого. Позвали вторую группу, уже профессиональных спасателей старых заводов. Эти смеялись поменьше, но зато спросили, где мы взяли такого динозавра. Моральный возраст был определён примерно 1930-1940 годом. По всему выходило, что линию надо сдать в металлолом (продать мы её не могли — она ж не работает!), и покупать или делать новую. Но решили обсудить всё ещё раз и выступить консерваторами. В нашей душе начала просыпаться нежная любовь к китайскому уродцу — избавляться было нерентабельно. Через месяц переговоров первая группа решилась модифицировать это китайское чудо. В июле этого года забрали линию — мы провожали её со слезами на глазах, как любимого домашнего зверька. Через месяц, говорят, отдадим. Мол, ребята мы опытные, может, пара недель, но для гарантии — месяц. Прошло полгода. Мы очень скучали, но иногда виделись. Забирать мы эту линию поедем через неделю. За всё это время они там разобрали по частям очень много чего, но, в основном, третий станок, перебрали каждый узел. Показывали — у некоторых двигающихся частей не было даже подшипников. Поменяли там в третьей части всё, кроме несущей конструкции. Проапгрейдили штуку — теперь лайнеру не дают потерять форму специальные воздуходувки, которые нежно подхватывают его «антигравитационным полем» и не дают согнуться. Поставили барьеры, которые придерживают эти края у лайнеров. Вот здесь теперь вместо нежных женских рук — пневмосистема По мере апгрейдов им нужны были бета-тесты. Мы ездил два раза в неделю вместе с ними работать. Привозили разную бумагу, разный клей, разных сборщиков. Люди изображали 4-часовую смену на полном серьёзе, а парни быстро-быстро бегали вокруг и что-то подкручивали. На одной бумаге получалось, на другой — нет. Мы работаем, а ребята крутят. В итоге пришли к тому, что на толстой бумаге он работает идеально. На 100 коробок — 1 косая, это даже меньше, чем при ручной сборке. Сейчас нам предстоит перевезти его обратно к себе, держите за нас пальцы. Окрасочная машина из Франкенштейна Ездить по немецким заводам мы начали примерно в 2012 году, когда нам очень хотелось сделать полный цикл производства в России. Одна из первых вещей, для которой нужна внеземная технология — это окраска деревянных фигурок. Мы пошли по проторенному пути — нашли фигурки, которые нам нравятся, договорились с производствами, где их красили — и пошли смотреть, как там всё происходит. Посетили несколько производств в Германии, перенимая опыт. Ради нас один раз даже накрыли чёрной тканью целую линейку производства, чтобы русский не сфотографировал чего лишнего. Потом мы долго изучали спецификации и фотографии, стараясь понять, как это чудо устроено и чем они отличаются. Одна из фабрик, кстати, продавала своё старое оборудование, и там было аж два таких станка. Но на вопрос «а чем они отличаются и какой лучше» нам ответили счётом с предоплатой за консалтинг. Причём ответил тот самый мужик, который их и продавал. В итоге выяснилось, что нужный нам станок — самый дешёвый — стоил около двух миллионов рублей с учётом доставки и таможни. И было непонятно, сможем ли мы его быстро окупить. Процесс терзаний длился примерно полгода, пока не нашёлся персонаж, обожающий продукцию АЗЛК. Мужик посмотрел на наши терзания, оглядел наброски станков предполагаемого противника, попробовал деревянного пирата из «Шакала» на зуб… И сказал, что ему нужна наша одежда и мотоцикл. Точнее — стиральная машина и обломки другой бытовой техники, какую найдём. Затем он заперся в своей мастерской и не выходил оттуда целый день. Даже за водкой, что вообще-то говоря, полностью порушило его образ «Левши». Вот что родил сумрачный русский гений, и что мы не показывали четыре года никому как ноу-хау: Как видите, всё просто. Есть два барабана, куда заливается краска, они крутятся. Внутри лежат деревянные солдатики и трутся друг об друга. При правильной пропорции, вращении и всех прочих условиях, солдаты выходят оттуда гладкие, с ровным слоем краски друг на друге и без всяких потёков. Если провести такой фишкой по столу, то она не оставляет след. Если взять её в руки — не получится найти на ней капельки или следы непрокрашенной поверхности. В общем, круто. Правда, до такого мы дошли далеко не сразу. Сначала долго подбирали краску. Первые партии заказывали у немцев, и краску, и пигмент, и лак. С учётом доставки солдатики получались золотыми, но даже это того стоило в сравнении с доставкой из Китая — там 2-3 месяца. На опытной эксплуатации отсев по браку составлял 35%. Мы складывали плохих солдатов в мешки, и однажды обнаружили, что у нас 10 картофельных мешков мечты любого пацана из Советского Союза. Костя, наш химик (тот самый, что случайно сварил странный клей), взялся уменьшать количество этого брака. И вовсе не потому, что мы складывали мешки в его кабинет, это всего лишь совпадение. Сначала он принялся за краску — было важно найти правильную пропорцию краски, пигмента и воды. А потом решить, сколько смешивать солдат и краски. Оказалось, что это не все переменные — ещё была важна скорость вращения барабана и продолжительность. После месяца игры в «Поле чудес» устаканилась технология, дающая стабильный результат. Следующий этап опытов касался самой краски и лака. Почти месяц ушёл на новую серию опытов — хотелось найти краску, доступную в России. Перебрали все краски от поставщиков, прошлись по Леруа, и там случайно нашли подходящую. А затем нашли, где её закупать правильно — и прописали к ней все нужные пропорции. Аналогично получилось с лаком, но только за ним в Леруа не ездили. В итоге снизили стоимость расходников в 9 раз. Финал этой истории поставили австрийцы, которые приехали на производство с экскурсией (перед большим заказом) и ждали везде подвоха. Как я уже рассказывал, зрелище промзоны «Зингер» перед получкой и после дождя (с грязью по колено) чем-то напомнило им боевики вроде «Занесло». И они решили, что русские партнёры везут их мочить. На производстве случился второй казус. Они покрутили в руках фишки, посмотрели на наш станок по окраске и оператора в противогазе, потом снова покрутили фишки, снова посмотрели на станок… и задали вопрос переводчику: — Яков, а вы уверены, что коллеги показывают нам продукцию своего производства, а не заранее заготовленные образцы? Всё. Пока конец запрошенной истории. Надеюсь, я удовлетворил ваше любопытство.
https://habrahabr.ru/company/mosigra/blog/318514/
habrahabr
HikVision — остановите Китай пока не поздно
['видеонаблюдение', 'китай', 'безопасность']
Медиапортал A&S ежегодно составляет рейтинг 50 крупнейших публичных мировых компаний рынка технических систем безопасности. Впервые рейтинг возглавил китайский производитель систем...
Медиапортал A&S ежегодно составляет рейтинг 50 крупнейших публичных мировых компаний рынка технических систем безопасности. Впервые рейтинг возглавил китайский производитель систем видеонаблюдения HikVision с результатом 3,5 млрд. долларов, еще в 2010 году компания занимала только 5 строчку с результатом 564 млн. долларов. Что позволило HikVision основанной в 2001 году со штатом 30 человек, за 14 лет стать безоговорочным лидером отрасли? Давайте для начала разберемся что из себя представляет компания HikVision Digital Technology. В отличие от Honeywell которую они потеснили, и которая производит — системы видеонаблюдения, системы контроля доступа доступа, охранные системы, системы автоматизации здания, HikVision производит исключительно системы видеонаблюдения, во всяком случае именно как компания производящая системы видеонаблюдения они фигурируют в рейтинге, и именно так HikVision знают на международных рынках. HikVision сегодня имеет 35 филиалов в Китае и 21 зарубежный филиал, всего в HikVision работает более 18000 сотрудников. Занимает 1098 место в глобальном списке Forbes — 2000 крупнейших компаний мира. В мае 2010 года провели IPO на Шэньчжэньской фондовой бирже (Shenzhen Stock Exchange — SZSE, на конец первого дня торгов общая оценка Hikvision составила 6 млрд. долларов США. Текущая стоимость конечно выше. Выручка Скажи мне откуда у тебя деньги, и я скажу тебе, кто ты. 3,5 млрд. долларов США цифра значительная давайте попробуем разобраться что за ней стоит. По сравнению с 2014 выручка Hikvision увеличилась на 47%, большая часть оборота, а именно 73,7% приходится на внутренний рынок Китая. Продажи на китайском рынке выросли на 43%, чему способствовала экспансия компании в сегмент малых и средних предприятий. Международные продажи выросли на 57%, увеличив свой вклад в выручку до 26,3%. По данным международного рейтингового агентства Moody's. Если и существует что то интересней выручки, то это чистая прибыль, и здесь тоже не обойдется без рекордов. Чистая прибыль (net margins) HikViision составляет примерно 25%, что намного выше любого публичного производителя систем видеонаблюдения. Хорошей нормой чистой прибыли для производителя систем видеонаблюдения, считается 10—15%. HikVision в Китае Ассортимент товаров предлагаемых HikVision в Китае значительно шире того, что предлагается на зарубежных рынках. В Китае кроме систем видеонаблюдения, они предлагают системы контроля доступа, охранные сигнализации, видеоаналитику. Кроме этого компания выступает не только как производитель, но и как подрядчик при реализации проектов по безопасности, то есть получает деньги не только от продажи оборудования, но и за услуги. В основном это крупные государственные заказы. В 2010 году HikVision анонсировали свое участие в качестве генерального подрядчика системы безопасности для города Чунцин, весь проект был оценен в 800 млн. долларов США. Эта новость дает примерное понимание структуры оборота и примерного влияния государственных заказов на выручку. А вот свое участие в проекте системы видеонаблюдения и видеоаналитики называющейся не много ни мало — китайский Skynet, HikVision не анонсировали. Но судя по тому что пишет британская Daily Mail проект несравнимо более масштабный, реализуется в партнерстве с Nvidia . Важно отметить что столь значительный рост выручки в Китае, даже несмотря на государственные проекты, свидетельствует что HikVision выигрывает конкурентную борьбу внутри Китая. Финансирование В ноябре 2015 г. китайский государственный банк China Development Bank одобрил кредитную линию для HikVision в размере 3,1 млрд. долларов, финансирование будет предоставлено в период с 2015 — 2019 год. И не успели отраслевые СМИ даже как следует распереживаться, что 3,1 млрд. долларов самое большое финансирование в отрасли систем видеонаблюдения. Как в августе 2016 HikVision анонсировала новую кредитную линию в размере $ 3 млрд от Exim Bank of China который как вы понимаете тоже является государственным. Финансирование в размере 6,1 млрд. долларов огромно, даже по сравнению с размером всей отрасли. Весь мировой рынок видеонаблюдения (включая Китай), составляет ~ 16 млрд. долларов США, 6,1 млрд. долларов США огромное количество денег, которое может свидетельствовать лишь об одном, что HikVision не собирается останавливаться на достигнутом. Структура собственности Если вам уже начал приходить в голову вопрос, а с чего это китайские государственные банки так расщедрились, так на него существует вполне определенный ответ. HikVision на 41,88% принадлежит китайскому правительству. Это почти детективная история, множество англоязычных источников пишет что свою принадлежность к китайскому правительству HikVision долго пытались скрывать, но шила в мешке не утаишь. Сейчас мы имеем официальное сообщение . Все становится ясно если посмотреть кто такие China Electronics Technology HIK Group Co., Ltd. (CETHIK) и CETC No.52, оба являются частью государственного предприятия CETC . Возможно именно это будет будет сложностью с которой HikVision столкнется в ближайшее время на международных рынках. Во всяком случае в Великобритании Daily Mail и The Times ( раз и два ), а в США Voice of America начали это обращать внимание, и даже дошло до демонтажа камер в посольстве США в Кабуле. Китайцы похоже тоже относятся к этому со всей серьезностью, чем то другим сложно объяснить, что именно на эту претензию они не просто отреагировали , а сделали это через СМИ. HikVision в мире На зарубежный оборот приходится 26,3%, что в долларовом эквиваленте составляет 926 млн. долларов США, для сравнения компания Axis занимает третью строчку в выручкой (включая Китай) 773 млн. долларов США. Одна из главных тенденций на мировом рынке — это снижение цены на оборудование для видеонаблюдения. Как пример можно привести среднюю цену на IP камеру которая в 2010 году составляла 500 $, а в 2015 году уже 130 $. Главными трендсеттерами естественно выступают китайские компании, во главе с HikVision, именно низкие цены позволили им в такие скромные сроки не просто получит значительную зарубежных рынков, но и выдвинутся на первое — второе место, в зависимости от страны. Например в 2015 году регионе EMEA например HikVision стал №2 , по выручке с долей рынка 9,2% Вторым важным элементом влияния является то что, зарубежные компании вынуждены опускать свою цену, чтобы окончательно не утратить положение на рынке, что естественно сказывается на выручке, и что гораздо более критично, на прибыли. Доли крупнейших публичных компаний на мировом рынке видеонаблюдения Инвестиции В 2016 году HikVision приобрела британскую компания Pyronix производящую охранные системы безопасности. Условия сделки не разглашаются, эксперты оценивает их в диапазоне $ 50 — $ 100 миллионов долларов США. Я про условия сделки, не для красного словца упомянул, похоже, что это была просто разминка, если верить Jeffrey He, президенту HikVision USA и HikVision Canada — 1,5 млрд. долларов, именно столько намерен потратить HikVision на инвестиций за пределами Китая. Нейронные сети В октябре 2016 американская компания Movidius объявила о сделке с HikVision, за месяц до этого о покупке Movidius объявила Intel, старший вице—президент Intel Джош Уолден так прокомментировал эту сделку: — «Компьютерное зрение вызовет кембрийский взрыв в мире вычислений» Movidius уже поставляет процессоры для Google и DJI. Благодаря этой сделке, следующее поколение смарт камер HikVision будет использовать процессор — Myriad 2 vision processing unit (VPU), который позволит использовать глубокие нейронные сети, что в свою очередь даст возможность производить обработку и анализ изображения процессором самой видеокамеры. Это кардинально снизит объем передаваемой информации. Разработка Movidius позволит смарт камерам HikVision точнее идентифицировать объекты и снизить количество ложных срабатываний. Пожалуй, для полноты картины добавлю, что Hikvision не единственные запартнерились с Movidius, как минимум два крупнейших китайских производителя Dahua and Uniview тоже объявили о своих устремлениях в развитии видеоаналитики. Проблемы безопасности Как только HikVision пошла на зарубежные рынки, сразу начали появляться сообщения о проблемах с безопасностью — c видеорегистраторами , мобильным приложением и облачным сервисом . И даже на Хабре компания ESET NOD32 подробно писала о компрометации различных сетевых устройств под управлением Linux в том числе и видеорегистраторов HikVision. После одного их таких новостей акций HikVision упали на 7,5%, в процентном выражении вроде немного, но в долларовом это более чем 1 млрд. долларов. «С кем не бывает» — скажете вы и, наверно будете правы тем более что, в плане реакции HikVision прогрессирует от полного ее отсутствия до 15 дней в которые они уложились в последний раз. Смарт кодек H.264+ Компанией разработан собственный кодек H.264+ который обеспечивает существенное на 70—80% увеличение степени сжатия по сравнению с H.264, без потери качества изображения. И это впечатляющий результат, кодек H.264+ уже сейчас поддерживает почти все оборудование под брендом HikVision. HikVision Digital Technology в России Представляет три бренда HikVision , HiWatch , и недавно появившийся Ezviz . Представляет исключительно системы видеонаблюдения и домофонии. HikVision Камеры видеонаблюдения (IP, HD-TVI ) — цена от 2 120 рублей Видеорегистраторы (IP, HD-TVI ) — цены от 5 990 рублей Камеры с функциями видеоаналитики — цены от 7 990 рублей . Программное обеспечение iVMS-4200 — бесплатно Клиентское программное под MAC OS X, Windows, iOS, Android для работы с камерами и регистраторами. Программное обеспечение iVMS-5200 Клиент — серверное программное обеспечение iVMS—5200, поддерживает иерархическую схему управления камерами, регистраторами и другими устройствами. iVMS-5200 может легко объединять между собой несколько распределенных систем видеонаблюдения для централизации управления и мониторинга. Именно в iVMS-5200 в полном объеме можно использовать возможности интеллектуальных камер со встроенной видеоаналитикой. Можно настроить такие Smart—функции, как подсчет людей, обнаружение вторжения, детекция лиц, детекция звуковых изменений, область интереса, автослежение, реакция на события и т.д Цена iVMS-5200 При использовании камер Hikvision — лицензия на 64 канала предоставляется бесплатно. При использовании в качестве хранения NVR HikVision — лицензия на 256 каналов предоставляется бесплатно. При любых других условиях iVMS-5200 обойдется — 1490 рублей за канал. Еще есть сетевые хранилища, мониторы, IP Домофоны, объективы и куча аксессуаров. Самое популярное оборудование HikVision в России 4 МП IP камера DS-2CD2042WD-I — цена 12 490 рублей 2 МП IP камера DS-2CD2622FWD-IS с вариофокальным объективом — цена 18 990 рублей 2 МП IP купольная камера DS-2CD2122FWD-IS — цена 10 990 рублей 8-канальный IP видеорегистратор DS—7608NI—E2/8p — цена 16 990 рублей 16-канальный IP видеорегистратор DS-7716NI-E4/16p — цена 33 990 рублей 16-канальный IP видеорегистратор HikVision DS-7616NI-E2 — цена 15 990 рублей *Популярность оценивалась по яндекс вордстат. На все оборудование линейки распространяется 5—ти летняя гарантия. HiWatch Бюджетный бренд выпускается с 2012 года, ориентированный на малый и средний бизнес, с гораздо более маленьким ассортиментом. На все оборудование линейки распространяется 2-х летняя гарантия. Камеры видеонаблюдения (IP, HD-TVI ) — цены от 1 458 рублей Видеорегистраторы (IP, HD-TVI ) — цены от 4 390 рублей Программное обеспечение — оборудование HiWatch полностью совместимо с программным обеспечением HikVision. Ezviz Буквально несколько месяцев назад запустили третий бренд ориентированный на конечных пользователей, на данный момент в линейке представлены только видеокамеры. Камеры видеонаблюдения — цены от 4 990 рублей . После очень краткого обзора оборудования и программного обеспечения представляемого HikVision в России, будет уместным отметить очевидное — мировой гегемонии они достигли не одними низкими ценами. Ну и что бы зафиналить часть посвященную HikVision в России, скажу HikVision имеет не только представительство в Москве, но и целую сеть региональных представительств — Санкт-Петербург, Казань, Ростов-на-Дону, Новосибирск, Екатеринбург, Владивосток, Самара, Благовещенск. Что абсолютно нетипично для производителей систем видеонаблюдения, среди 33 производителей представленных в рейтинге по пальцам одной руки можно посчитать тех кто имеет представительство в России, и нет ни одного кто имел бы хоть одно региональное представительство. Суммари Отправной точкой для международной экспансии китайских компаний является доминирование на внутреннем рынке. Дальше больше — кто лидирует в Китае, тот лидирует в мире, по крайней мере в сегменте систем безопасности это так. А значит единственный способ потеснить с лидирующих мировых позиций китайские компании, это сместить их с лидирующих позиций внутри Китая. На данный момент ни одна западная компания не имеет сколь бы то ни было, значимых продаж в Китае. И судя по значимым мировым событиям на рынке видеонаблюдения в 2016 году — в основном это консолидации и покупки, западные игроки не питают иллюзий, и не предпринимают значимых попыток экспансии на рынок Китая. В случае HikVision основа их лидерства это не просто продажи внутри Китая, а еще и гигантские государственные заказы, к которым судя по тому что HikVision принадлежит правительству Китая, пробиться шансов нет, не только у иностранных компаний, но и у китайских конкурентов HikVision. Государственная защита внутреннего рынка, не является вопиющим фактом, но похоже китайское правительство считает что этого недостаточно, и предпринимает действия по ограничению доступа не китайских компаний к рынкам зарубежных стран. В 2012 году правительство Китая выдает 240 млн. долларов Эквадору на развертывание системы безопасности В 2016 новый кредит, более 100 млн. долларов уже для Боливии. Вот так, легко и непринужденно, любые производители кроме китайских, выключаются из конкурентной борьбы. Для чего всё это мы написали Более 11 лет работая с системами видеонаблюдения, мы поняли одну важную вещь. Правильно выбрать, вендора оборудования чертовски сложно, особенно если выбирать приходится не обладая всей полнотой информации. О HikVision теперь вы знаете. Если остановите выбор на HikVision Скажу то, что вы и так уже поняли, никто не знает про HikVision столько сколько знаем мы. Мы не только знаем, но и активно эти знания используем — при проектировании , монтаже и обслуживании систем видеонаблюдения, не только HikVision кстати, так что если что, только свистните. Если сомневаетесь Тем более приходите к нам, мы расскажем вам про наш золотой список производителей, и тогда вам будет из чего выбирать.
https://habrahabr.ru/company/intems/blog/318426/
habrahabr
FAQ про лазерную коррекцию ReLEx SMILE: да, в России есть, но нет, в России нет
['лазерная коррекция', 'лазеры', 'smile', 'visumax', 'faq']
— Делают ли в России малоинвазивные операции по лазерной коррекции зрения методом извлечения лентикулы (Small Incision Lenticule Extraction)? Да, примерно уже 5 лет. С каждым годом всё...
— Делают ли в России малоинвазивные операции по лазерной коррекции зрения методом извлечения лентикулы (Small Incision Lenticule Extraction)? Да, примерно уже 5 лет. С каждым годом всё больше и больше на конференциях офтальмологов возникают вопросы не уровня «Что это?», а конкретные практические по нюансам технологии. Лазеры VisuMax есть в нескольких клиниках России, но именно под ReLEx SMILE используются значительно меньше, чем под femtoLASIK. Исторически так сложилось в России, что эта технология мало используется в центральной части и активно используется за Уралом. — Что за история с лицензиями на конкретные операции? Цейс продаёт конусы вместе с лицензиями. Конус — сменная деталь, прилегающая к глазу, покупается вместе с лицензией на использование лазерной процедуры, обычно пакетами по 10 или 100 операций. Поступает, например, 10 конусов и 10 лицензий. Лицензии вбиваются через меню лазера, и он позволяет по разу использовать соответствующие конусы для соответствующих типов программы. Лицензии на SMILE отдельно, на femtoLASIK отдельно, на FLEX, кольца и докоррекции также отдельные лицензии. У большинства производителей фемтосекундных и некоторых эксимерных лазеров похожая ситуация. Не нужны лицензии на эксимерные операции, пожалуй, разве на моделях примерно 5-летней давности и старше. — И можно не получить такую лицензию на SMILE? Запросто. Во-первых, этот модуль в лазере стоит как дорогостоящая опция, так что сам прибор без опции SMILE стоит дешевле. Во-вторых, если эта опция имеется, то лицензии на проведение операции ReLEx SMILE возможно приобрести только после проведения 5–10 тестовых прогонов на свиных глазах, затем проведения минимум 10 операций femtoLASIK на пациентах, затем 50 операций FLEX, и только после этого можно будет купить лицензию на SMILE для конкретного хирурга. — Я придумал, как это обойти... Лицензия на SMILE стоит 200–300 евро за глаз в разных регионах мира. Провести две операции вместо одной не выйдет, сделать SMILE по лицензии femtoLASIK тоже не выйдет. При техническом сбое системы учета операций или проблемах с прошивкой потраченные лицензии не возвращаются (на случай, если кто-то будет вызывать «гарантийные» случаи поломок). — Почему всё так странно устроено? Потому что SMILE сейчас — новая и дорогая технология, она же наиболее безопасна в плане риска возникновения необратимых побочных эффектов. Ну и соответствует течениям в хирургии в целом — переход на эндоскопическую технику, а не через большой разрез. Как следствие самой технологии — есть требования к мануальным навыкам хирургов. А 90 из 100 хирургов-офтальмологов, которые массово выполняют операции на эксимерных лазерах давно ничего не делали руками. То есть освоить технологию намного легче тем, кто занимается стандартной микрохирургией глаза — операциями при катаракте, глаукоме и так далее. Соответственно, у клиник возникает вопрос — или продавать по низкой цене с низкой стоимостью работы хирурга, переучивая «обычного» лазерного специалиста, или не инвестировать в дорогостоящее «космическое» оборудование и предлагать операции своим пациентам по старым, традиционным технологиям. Ещё тяжелее, например, в Великобритании — клиники коррекции по большей части не обучают своих врачей. Там закупается оборудование, а затем приглашаются в режиме фриланса на конкретные операции практикующие неподалёку специалисты. Диагностику делают не они, им дают заключение на больного, лазер и час времени. Всё, операция готова. — На что именно влияет навык хирурга? На точность отделения лентикулы в параметрической геометрии — это когда она уже сформирована двумя лазерными резами снизу и сверху, и её нужно достать из разреза сбоку. Кавитационный рез — 10–15 микрон, он не всегда ровный, есть точки слепления тканей (по мануальным ощущениям — как легчайшая чуть влажная салфетка ложится на стол). Соответственно, если хирург малоопытный, то у него два выхода: рисковать травмами тканей при манипулировании шпателем — это плохой вариант, либо устанавливать такие режимы, когда лентикула отделяется и вынимается существенно легче. Это означает, что может использоваться больший разрез (Вальтер Секундо, как изобретатель и многолетний практик с очень весомым стажем и более сложных других мануальных операций, настаивает на разрезе 2,5 мм. Однако в России делают и на 4,5 мм, или же вообще «дико» для него – 6 мм). С другой стороны, кстати, офтальмолог с невероятно большим опытом операций Рупал Ша из Индии делает вход всего 1,5 мм, и достаёт лентикулу через этот разрез. Второй вариант облегчить выделение лентикулы — необоснованное изменение частоты лазера, которое даёт «прожаренную» роговицу за счёт большего поглощения тепла тканями боуменовой мембраны, и увеличивает риск побочных эффектов (нарушение иннервации, деформация каркаса роговицы) — в общем, сводит многие плюсы технологии на нет. Кстати, «прожаренная» здесь примерно соответствует тому, что делает эксимерный лазер при LASIK или femtoLASIK. В эксимерных лазерах во время операции есть даже специфический запах «опаленных тканей» и используется отсос для удаления паров газа. Ещё есть шанс ошибки на стадии извлечения лентикулы. Любые лентикулярные операции требуют определённых навыков, из которых самый простой — двигаться дыша в один-в-один в такт с пациентом, чтобы инструмент в глазу оставался стабильным. — Ок, если рабочая частота лазера правильная, разрез 2,5–3 мм, какова частота ошибок в мануальной части операции? Обобщённая вероятность возникновения осложнений в мировой практике (как обратимых, так и необратимых вместе) — 0,5–1%. Если не считать реально «идиотских» случаев с однофамильцами, большая часть проблем возникает из-за неверной или недостаточной диагностики (наверное, положить на стол не того пациента — это тоже часть диагностики, да?). Самое неприятное необратимое осложнение — это выпячивание роговицы за счёт потери жесткости каркаса, то есть существенное нарушение её биомеханики. Оно возможно в случае, если пациент либо каким-то чудом прошёл диагностику с ошибкой, либо если вскрывается дефект стромы, который нельзя было распознать имеющимися сканерами (кстати, ещё встаёт вопрос качества оборудования диагностики клиник — нередко пытаются экономить на этом). Комплексное предоперационное обследование —важная вещь. По нашему европейскому стандарту в клинике используется 15 различных исследований на приборах, оно занимает около 2 часов, позволяя исключить неточность, пришедшую, например, от других оптометристов. За 15–20 минут можно провести только несколько основных тестов: в целом, этим можно было и ограничиться, но мы очень не любим сюрпризы во время операций. — Что за история с однофамильцами? Вальтер как раз рассказывал её в прошлом году на конференции в Москве в институте С.Н.Федорова. В одной иностранной клинике «конвейерным» процессом перепутали двух больных. Первый с миопией -4 и астигматизмом зашёл на LASIK, получил коррекцию, и только в конце местный исполнитель понял ошибку. Врач потом утверждал: «Мой оптометрист виноват». Вальтера позвали корректировать то, что они натворили, и у него при разборе операции был только один вопрос, и сводился он к тому, почему же этот внимательнейший доктор не проконтролировал всё сам. Сам Вальтер, кстати, понимает, (равно как и я), что наши имена написаны прямо в именах клиник, а имя там — это полная ответственность. В случае Вальтера — не только за клинику, но ещё и за всю технологию, он всё трижды проверяет маниакально и спокойно. Про него коллеги шутят — «Трёхсотпроцентный немец». Это из-за протокола трёхразовой проверки, обязательного для SMILE, выполняемых по лицензии. — Что будет, если лентикула разорвётся при извлечении или отделении? Это несколько усложнит работу, но в опытных руках ничего серьезного. В целом, её можно извлекать и по частям, но целиком — быстрее, проще и комфортнее для пациента. — На чём учатся хирурги, которые переходят с FLEX-методов на ReLEX? На свиных глазах, поскольку у них наиболее похожая на человеческую роговица. В Турции — на овечьих глазах. Учебных «пациентов» доставляют в операционную без остальной свиньи. Затем — пациенты, полностью сознающего риск (чаще всего это знакомые, которым врач делает операцию бесплатно — или люди, которые стоят в очереди на бесплатную коррекцию для таких случаев, понимая, что риски после свинок минимальны). В этом плане очень примечательна история Вальтера со свиньями. Он-то привык относиться к ним в духе «закажите на бойне ещё полведра глаз для лекции», — всё рационально, свинья и так мёртвая, глаза кому-то пригодятся. Но опыты по разработке SMILE проводились именно на живых экземплярах — точнее, на них оценивали долговременные последствия. Получили разрешение комиссии по этике, получили свиней, повезли в ветеринарный институт лазер. На месте делали, брали ветеринара, чтобы он клал пациентов под наркоз. В момент операции свинки были маленькими поросятами, но через 3 месяца наблюдений они отъелись до весьма внушительных размеров. Вальтеру Цейс выделил двух огромных медбратьев по ветпрофилю, и они таскали пациентов, а за ними ходила милая доктор-ветеринар. А потом всё прошло удачно, и для последнего доказательства нужно было делать вскрытие глаз уже ставших хорошо знакомыми свинок. По правилам — надо убить и забрать глаза. Более того, что дополнительно обижало немецких коллег — «убить просто так», потому что на мясо опытные образцы по правилам пускать нельзя. Что касается меня, то когда чуть более 6 лет назад мы ехали в Германию учиться делать FLEX и SMILE (я училась в нескольких центрах, включая университетскую клинику в Марбурге), у профессора и создателя технологии доктора Секундо стояло одно простое требование — минимум 1000 мануальных операций за последние 5 лет. Я же стабильно делаю около 3 тысяч полостных операций в год (около 10% коррекций, далее катаракта, глаукома, отслоения сетчатки, различные механические травмы; некоторые операции по 20 минут, но бывают и по 1,5–2 часа). У хирургов нашего холдинга не менее тысячи операций в год. Сейчас SMILE составляет примерно 80% коррекций миопии в нашей клинике. Помимо Германии, центры с огромным количеством SMILE есть ещё в Таиланде, Египте, Турции, Индии, Латинской Америке, есть один центр в Китае — в этих странах ведутся научные работы. — Можно ли выполнить коррекцию у самого Вальтера Секундо в России? Да, есть возможность сделать коррекцию не выезжая из России. Доктор Секундо вообще специализируется на сложнейших случаях, и редко рассказывает, что к нему обращаются тогда, когда руководителям государств нужен «лучший в мире рефракционный хирург». Поскольку он изобрёл технологию, его считают лучшим, но сам он всегда перечисляет руководителей вышеупомянутых мировых центров — у них практические наработки как минимум такие же, а то и выше. Россию Вальтер особенно любит, потому что с детства говорит и на руском, а для пациента крайне важно взаимопонимание с врачом. Он приезжает раз в несколько месяцев на 2–3 дня и работает в точности по тем же ценам, что в Германии. Оборудование у нас соответствует его оборудованию в Марбурге, и в чем-то его превосходит (у нас многопрофильный центр, специализирующийся далеко не только на коррекциях). — Где ещё в России делают SMILE люди с опытом? В России 10 лазерных установок VisuMax, и на всех без исключения отлично делают femtoLASIK. Что касается SMILE, то длительный успешный опыт работы у коллег из отделений МНТК им. С.Н.Федорова в Иркутске, Хабаровске и Екатеринбурге. Количество выполненных операций SMILE — по нескольку тысяч в каждом из них. Хирурги из этих клиник являются авторами новых инструментов, например, известен своими инженерными решениями Олег Александрович Костин — «шпатель Костина» — один из самых удачных инструментов на сегодняший день. — Точно ли надо делать SMILE? Нет. Во-первых, если очки вас полностью устраивают — можно не делать коррекцию вообще. Есть свои минусы и у них, и у контактных линз, но об этом детально позже. После диагностики мы обычно не рекомендуем пациенту операцию напрямую, а даём прогнозы и рекомендации. Доктор не решает за пациента, а даёт ему максимум информации и право выбора. В некоторых случаях femtoLASIK или ФРК предпочтительнее по показаниям, иногда выбор делается из-за цены, иногда — из-за 30-летней клинической практики. Заочные консультации очень приблизительны. Попытки рекомендовать какую-то операцию без точной диагностики конкретного пациента и без понимания, какой образ жизни он планирует вести (например, если мы узнаём из анамнеза, что пациент работает ювелиром или занимается шитьём, то меняем соответствующим образом многолетний прогноз) просто некорректны. Однако, если при равных возможностях с медицинской точки зрения, вы выбираете между SMILE и femtoLASIK, методика SMILE статистически оказывается лучше. Точность коррекции на лазерах 6-го поколения (VisuMAX) соответствует другим методам или выше них (при коррекции от -2 диоптрий, меньше — точнее femtoLASIK, меньше -1 — точнее ФРК), и риск необратимых осложнений существенно ниже. — Я боюсь делать сейчас, потому что при возрастных изменениях возможны... Один из самых распространенных мифов, что с возрастом «минус» перейдет в «плюс» и тогда очки возможно не будут нужны. Это не так. Если упрощённо представить глаз как систему линз, то получится, что самой большой преломляющей силой обладает роговица и хрусталик. Оптическая сила роговицы в большинстве случаев с возрастом меняется незначительно. Хрусталик с его связочным аппаратом является основным инструментом, с помощью которого мы рассматриваем предметы вдаль и вблизи, меняя фокусное расстояние глаза. Это похоже на настройку фокуса в фотоаппарате. В молодости это происходит легко. В хрусталике с возрастом начинают происходить изменения — меняется его плотность, конфигурация, размер, прозрачность. Эти изменения в хрусталике даже здорового с медицинской точки человека старше 40 лет приводят к появлению пресбиопии (возрастной дальнозоркости). Этому процессу подвержены 100% людей независимо от того какая у них оптика глаза — с близорукостью, дальнозоркостью, с наличием астигматизма или без. Это проявляется так: Человек с прекрасным зрением вдаль начинает читать в очках. Близорукий перестает видеть вблизи, находясь в очках для дали и для чтения он будет вынужден носить вторую пару очков или читать снимая очки для дали и приближая текст к глазам. Дальнозоркий начинает носить 2 или даже 3 пары очков — для дали, для среднего расстояния (например, для компьютера) и самые сильные очки — для близкого расстояния. Тот, у кого к тому же еще есть астигматизм, видит нечетко на все расстояния и тоже требует нескольких пар очков. Таким образом, пресбиопия с каждым годом ослабляет аккомодацию глаза — способность к фокусировке на разные расстояния. В среднем к 60 годам она утрачивается совсем. Безусловно, каждый рефракционный хирург всегда учитывает возраст пациента при выборе алгоритма коррекции и способа коррекции, с пациентами пресбиопического возраста с прозрачными хрусталиками старше 45–50 лет обсуждается вопрос целесообразности полной коррекции близорукости, поскольку остаточная небольшая недокоррекция на одном (неведущем глазу) или обоих глазах облегчила бы зрительную нагрузку для близи. Дальнозоркость и астигматизм всегда корригируют полностью, так как они мешает зрению и вдаль, и вблизи.
https://geektimes.ru/company/klinika_shilovoy/blog/284108/
habrahabr
Как мои пальцы закровоточили, и я собрал велосипед для деплоя, который сэкономил больше 2 тысяч рабочих часов за проект
['скрипт', 'велосипед', 'разработка', 'поддержка']
«Денис, ты теперь инженер по развёртыванию». Офигеть, дайте две. В общем, я работаю в КРОК, который славится огромными проектами. В этом проекте мы поддерживали внедрение гигантской аналитической...
«Денис, ты теперь инженер по развёртыванию». Офигеть, дайте две. В общем, я работаю в КРОК, который славится огромными проектами. В этом проекте мы поддерживали внедрение гигантской аналитической системы класса data lake для нескольких тысяч пользователей объёмом 150 ТБ. Пилят её несколько команд разработки, в общей сложности примерно 40 человек. На них приходится четверо инженеров по инфраструктуре (опсов, админов, то есть нас) — мы чаще всего были нужны для того, чтобы устанавливать софт на стенды, перезагружать машины (первая надежда разработчика: не работает — попроси инженера перезагрузить), накатывать схемы БД и так далее. Разработчики пишут код, который сливается в репозиторий. Из него Jenkins рождает сборки, которые выкладывает на шару. Развёртывание системы с нуля первый раз у меня заняло 4 часа 15 минут по таймеру. Для каждого из порядка десяти компонентов (скрипты разных БД, Tomcat-овские приложения и т. д.) в нужном порядке надо было взять файл с шары, разобраться, где и в скольких экземплярах его нужно развернуть, поправить настройки, указать, где ему искать другие компоненты системы, связать всех со всеми и ничего не перепутать. Пальцы закровоточили — начал скриптовать. Началось с одного маленького скрипта. Что было Система состоит из довольно большого числа компонентов: 6 разных приложений на Томкате, каждое из которых в нескольких экземплярах на разных серверах, кластер DSE = Cassandra + Solr + Spark, скрипты создания объектов в них, загрузка начальных данных, миграции схем Oracle, PostgreSQL, кластер RabbitMQ, балансировщики нагрузки, куча внешних систем и так далее. Стенды тоже в основном состоят из нескольких разных серверов. Приложения на всех стендах распределены по-разному (например, где-то одно из томкатовских приложений развёрнуто в единственном варианте, а где-то в нескольких и прячется за балансировщиком, где-то один экземпляр Оракла, где-то несколько, и т. д.). Итого, развернуть такую систему — много серверов и много компонентов с разными и часто меняющимися конфигами, в которых они желают иметь информацию друг о друге, расположении баз данных, внешних систем и т. д. и т. п. Таким образом, развернуть всё, где нужно, ничего не забыть, не перепутать и правильно сконфигурировать — задача не совсем тривиальная. Мест, где можно сделать ошибку, много, и процесс требует внимания и концентрации. Сначала я скриптовал маленькие части, доставлявшие наибольшее число проблем. Освободившееся время тратил на следующие по злобности моменты, объединение и обобщение. В итоге получилось, что для каждого кусочка системы был готов один shell-скрипт, который делал всё — от копирования дистрибутива из jenkins-а до правки конфигов и развёртывания приложения или выполнения обработанных скриптов на базе данных. В общем, начиналось всё, как классический админский велосипед: те же скрипты, которые пишут почти все для себя из кирпичиков. Разница в том, что мы решили сделать эти части взаимозаменяемыми и сразу (ладно, через месяц, а не сразу) задумались о структуре. В итоге это сначала стало системой скриптов, где всё довольно гибко конфигурируется (снаружи), а потом появился ещё и web-GUI. У меня для каждого стенда и для каждого компонента системы уже были готовы скрипты, выполняющие нужные действия. Но появлялись новые стенды, имеющиеся изменялись, разработка системы двигалась семимильными шагами, и отражать все изменения в скриптах было всё сложнее. Тогда я описал структуру стенда и все изменяющиеся от стенда к стенду части в конфигурационных файлах, а скрипты обобщил так, что они для работы съедали имя стенда, находили его конфиг и оттуда получали необходимую для работы информацию. То есть теперь одни и те же скрипты работали на всех стендах, особенности которых были вынесены в конфиг. Так реагировать на изменения стало довольно просто. Конфиг — это просто страшноватый текстовый файл, в котором содержится список переменных и их, собственно, значений. Скрипты просто source-ят этот файл и получают все настройки в переменных окружения (на самом деле сейчас стало немного сложнее, но именно немного). Вот он #BUTTON_DESC=DSE 4.7JDBC thin<br>Двебуквы # include "defaults.include" BUILD_DIRS="data-facade/release-1.5.0:DATA_FACADE,SOMEAPP process-runner/release-1.5.0:PROCESS_RUNNER integration-services/release-1.5.0:INTEGRATION scripts/release-1.5.0:CASS_DDL,ORA_DDL,SOLR_SCHEMA fast-ui/release-1.5.0:FAST_UI cache-manager/release-1.5.0:CACHE_MANAGER" DSE_HOSTS="xxxdevb.lab.croc.ru xxxdevc.lab.croc.ru xxxdevd.lab.croc.ru xxxdeve.lab.croc.ru" CASSANDRA_CONNECTION_HOSTS="xxxdevb.lab.croc.ru xxxdevc.lab.croc.ru xxxdevd.lab.croc.ru xxxdeve.lab.croc.ru" CASS_DDL_NODE="xxxdeve.lab.croc.ru" SOLR_URL="http://xxxdeve.lab.croc.ru:8983/solr" ORA_DATABASES="xxxdevg.lab.croc.ru:1521/test" ORA_CONN_STRING="jdbc:oracle:thin:@xxxdevg.lab.croc.ru:1521/test" ORA_OPSTORE_PW="###" ORACLE_HOSTS="DEVG" DEVG_ADDR="xxxdevg.lab.croc.ru" DEVG_INSTANCES="TEST" DEVG_TEST_SID="test" PG_SERVER="xxxdeva.lab.croc.ru" DATA_FACADE_HOSTS="xxxdevb.lab.croc.ru" SOMEAPP_HOSTS="xxxdevb.lab.croc.ru" PROCESS_RUNNER_HOSTS="xxxdeva.lab.croc.ru" PP_PROXY_PROCESS_RUNNER_URL="http://xxxdeva.lab.croc.ru:8080/xxx-process-runner" XX_API_URL="http://#.#.#.#/###/api/" CASS_DDL_ADD_BOM="yes" CASS_DDL_TEST_SEED="yes" KEYSPACE=xxx REPLICATION_STRATEGY="{'class':'NetworkTopologyStrategy', 'Solr':3}" CATALINA_HOME=/usr/share/apache-tomcat-8.0.23 CASS_DDL_DISTR_NAME="cass-ddl.zip" SOLR_DISTR_NAME="solr-schema.zip" DATA_FACADE_TARGET_WAR_NAME="data-facade.war" SOMEAPP_DISTR_PATTERN='rest-api-someapp-*-SNAPSHOT.war' SOMEAPP_TARGET_WAR_NAME="someapp.war" PROCESS_RUNNER_TARGET_WAR_NAME='xxx-process-runner.war' PROCESS_RUNNER_DISTR_PATTERN='resources/distr/xxx-process-runner.war' PROCESS_RUNNER_RESOURCES_DISTR_DIR="resources" CASS_REQ_FETCHSIZE=100 CASS_REQ_BATCHSIZE=10 CASS_REQ_MAX_LOCAL=2 CASS_REQ_MAX_REMOTE=2 CASS_REQ_CONSISTENCY_LEVEL="LOCAL_QUORUM" INTEGRATION_AD_SEARCH_NAME="OU=TOGS, DC=testxxxx,DC=local;OU=GMC,DC=testxxxx,DC=local;OU=CA,DC=testxxxx,DC=local" INTEGRATION_LDAP_PROVIDER_ADDRESS="#.#.#.#" INTEGRATION_LDAP_PROVIDER_PORT="389" INTEGRATION_LDAP_SECURITY_PRINCIPAL='testxxxx\\\\lanadmin' INTEGRATION_LDAP_SECURITY_CREDENTIALS='СЕКРЕТЖИ!' INTEGRATION_AD_ROOT_DEPARTMENT="DC=testxxxx,DC=local" SSTABLELOADER_OPTS="" CASS_REQ_QUEUESIZE=1 OSR_URL=http://#.#.#.#/SPEXX QUEUE_HOST="xxxdevg.lab.croc.ru" QUEUE_API_HOST="http://xxxdevg.lab.croc.ru:%s/api/" QUEUE_ENABLE="true" TOMCAT_HOSTS="DEVA DEVB" DEVA_ADDR="xxxdeva.lab.croc.ru" DEVA_CATALINA_HOMES="CH1" DEVA_CH1_APPS="PROCESS_RUNNER" DEVB_ADDR="xxxdevb.lab.croc.ru" DEVB_CATALINA_HOMES="CH1" DEVB_CH1_APPS="DATA_FACADE SOMEAPP FAST_UI CACHE_MANAGER" CACHE_MANAGER_URL=http://xxxdevb.lab.croc.ru:8080/cache-manager/ Чтобы сделать более удобным ещё и управление конфигами стендов, позже добавил инклуды — пачки логически связанных настроек, записанных в отдельных файлах, которые можно скопом подключать к конфигам или другим инклудам. Например, настройки, связанные с AD, записаны в 5 разных переменных, а сервера AD всего два, для каждого из них сделан инклуд с этими 5 настройками. Чтобы быстро переключать стенды, между ними достаточно подключить нужный инклуд. Чтобы отразить какое-то изменение, произошедшее на сервере, надо поправить настройки в одном файле, и все нацеленные на него стенды узнают об этом. Эта структура скриптов позже обросла свистоперделками, но в основном сохранилась. Действия обычно выполняются пачкой — смысл имеет последовательность действий, например: на тестовом стенде сохрани НСИ, пересоздай схему в Оракле, загрузи НСИ обратно. Если предыдущий компонент отвалился с ошибкой, вероятно, надобность в следующих отпала. Чтобы было удобнее, сделан скрипт-запускалка: ./run.sh "test" "save-nsi ora-ddl-init load-nsi" Скрипт run.sh уходит пересоздавать схему с сохранением НСИ на тестовом стенде, а инженер — пить чай. GUI Стало казаться, что инженер в процессе развёртывания системы нужен только для перевода слов из человеческого («разверни мне первое, второе и компот») в имена скриптов в последовательности. Команда не очень любит unix-овую консоль, поэтому к идее запускать скрипты без инженеров отнеслись скептически. Но лень толкнула предпринять ещё одну попытку — сделал страничку из cgi скрипта на Питоне, на которой нехитрым образом можно было выбрать из списка конфиг и натыкать мышкой последовательность компонентов. Грубо говоря, просто графическую кнопку, которую можно нажать вместо консольной команды. Ей стали пользоваться. Идея прижилась, туда стали добавляться и другие рутинные инженерные действия, перезапуск отдельных компонентов и серверов в целом, выгрузка-загрузка-сохранение информации из разных БД, управление балансировкой, включение «балета» на время даунтаймов и т. д. Прижилось и кодововое имя «Кнопка». Это творение моих кривых рук потихоньку переделал, теперь она работает на python + flask и умеет делать всё без перезагрузки страницы: обновлять список стендов и их состояние, обновлять хвосты логов, запускать компоненты и пристреливать их, если шалят. Коллега Андрей применил дизайнерскую магию и из месива моих чёрно-белых div-ов сделал красиво оформленную страничку. Слева — список стендов, там выбираем стенд, с которым нужно что-то сделать. Это название стенда, которое инженеры раньше передавали в скрипт. ./run.sh "dev-letters" "save-nsi ora-ddl-init load-nsi" Тыкаем в название нужного стенда, справа открываются детали. dev-letters — это название. Ниже — краткое описание стенда от инженеров (из коммента, первой строчки конфига). Ссылки «посмотреть логи» и развёрнутые версии софтов, затем — указание, из какой ветки будут браться сборки для этого стенда. И возможность изменить эту ветку: Все заскриптованные действия со стендами распределены по категориям и подписаны «Компоненты». Это названия действий, которые инженеры раньше передавали скриптам: ./run.sh "dev-letters" "save-nsi ora-ddl-init load-nsi" Когда из списка выбирается компонент-действие, он попадает в правую часть страницы: Здесь из них формируется очередь выполнения: распределяем их в нужном порядке (или добавляем в нужной последовательности). Например, на скрине будет выполнено: выгрузить nsi, пересоздать схему в Оракловой БД, загрузить nsi обратно. Чтобы не набирать часто используемые последовательности, можно сохранять их в Комбо и запускать на выполнение в несколько кликов, минуя поиск нужных компонентов в списке. Ещё ниже — пользовательские комментарии к стенду. Есть возможность оставить весточку коллегам о том, что стенд захвачен для проведения очень важных работ, чтобы его пока никто не трогал. Последний комментарий отображается в списке стендов, чтобы легче было получить общую картину по стендам и выбрать, где можно поработать. Есть обмен данными между стендами, в частности, между Кассандрами. Можно нажать кнопочку Save data, придумать имя для архива и список таблиц, тогда данные будут заботливо сохранены. Затем можно выбрать другой стенд и загрузить их туда кнопочкой Load data, выбрав нужный архив из списка имеющихся. Пользователи аутентифицируются через корпоративный AD. Есть простенький контроль доступа: роли, которые можно распределять пользователям, и привилегии для разных стендов, которые можно распределять ролям. Это чтобы никто из пока неопытных коллег не запустил деструктивные компоненты (пересоздание БД, например) на важных стендах. Обо всех действиях через кнопку специально обученный единорог пишет в командный Slack. Так что все знают, что где происходит. Также единорог сообщает, если скрипты отвалились с ошибкой, чтобы пользователь о том, что 3-часовая заливка бэкапа срубилась после 10 минут работы, узнал сразу же, а не через 3 часа (к тому же ему не нужно будет постоянно смотреть за процессом). Чтобы, не дожидаясь нотификаций заботливого единорога, узнать, как там идёт процесс, есть логи выполнения скриптов. Чтобы видеть, что там сейчас на стенде развёрнуто из нашего софта, Кнопка при деплое компонентов системы записывает, откуда был взят дистрибутив, который использовался для этого. Что удалось записать, можно посмотреть и сделать вывод, что там сейчас развёрнуто на стенде. Есть ещё скрипт, который раз в день проходит по всем конфигам стендов, заходит на все задействованные сервера и смотрит, что там работает из компонентов системы, какие версии системных и наших софтов установлены, что запущено, что нет, когда последний раз были обращения к томкатам и т. д. Всё это собирается в таблицу excel и отдаётся пользователям, чтобы можно было проанализировать, как используются стенды, как распределить их между разработчиками, где добавить/забрать железок. Есть у нас один стенд, к которому доступ по соображениям безопасности закрыт на физическом уровне, но там всё равно должна работать наша система. Для этого в списке есть специальный стенд. С ним всё, как и с остальными стендами, только когда в очередь выполнения набираются компоненты, происходит другой процесс. Скрипты копируют сами себя, отрезают ненужные части (типа странички, привилегий и конфигураций стендов разработки), создают рядом скрипт вызова всех указанных в очереди компонентов. Затем добавляют к этому всему дистрибутивы компонентов, собирают полученное в архив и выкладывают на шару. То есть для всех стендов оно само подключается, куда ему надо, и делает нужные вещи. А для того, где подключиться нельзя, пакует себя в чемодан, из которого по приезде на место вылезает и делает своё дело. Получается такое «отложенное выполнение»: формируются скрипты, которые нужно отнести за стенку, запустить ./run_all.sh, и начнёт происходить всё то же самое, что и с остальными стендами. Вишенка на торте — вверху, как видите, техническая информация, в частности, дежурный инженер, его телефон, гертруда, чтобы разработчик видел, что страница реально обновилась, и всякие мелкие полезности: Сколько времени экономит Чтобы попытаться понять, приносит ли нам этот наш чудесный велосипед какую-то пользу, попробовал тут прикинуть время, которое Кнопка выигрывает инженерам. Если взять типовой сценарий, который выполняется чаще других: изменилась структура БД, нужно накатить миграции и обновить (допустим, одно) приложение, затронутое обновлением, то это займёт примерно минут 30–40 в случае одного сервера. В зависимости от количества серверов с таким приложением изменится и число операций копирования приложения на сервер и исправления кучи параметров в конфигах (+ схемы Касандры, Оракла и Солара). Кнопка это делает самостоятельно, без промедлений и участия пользователя, нужно только выбрать желаемые шаги. Но стоит ли это всё потраченных усилий, если это нужно сделать один раз в году. Сколько действий запускается в день? Чтобы ответить на этот вопрос, я попробовал грубо проанализировать логи запусков. Судя по первым записям в логах, мы запустили эту версию Кнопки в работу около 1 февраля 2016-го. На 10 ноября 2016-го прошло 185 дней, из них, грубо говоря, 185*5/7 = 132 рабочих дня. Количество запусков: [dpotapov@dpotapovl logs]$ (sum=0; for f in *.log ; do sum=$(expr $sum + $(grep "requested run" "$f" | wc -l)) ; done ; echo $sum) 22192219/132=16.8106 запусков в день. Но каждый запуск — это целая последовательность компонентов: посчитаем, сколько их было всего: for f in *.log ; do grep "requested run" $f \ |sed 's/^.*\[\(.*\)\].*$/\1/' \ | while read l ; do for w in $l ; do echo "$w" \ | sed 's/,$//' done done \ done \ > /tmp/requests.list cat /tmp/requests.list | wc –l [dpotapov@dpotapovl logs]$ cat /tmp/requests.list | wc –l 6442 6442/132=48.8030 компонентов в день. Сложно точно посчитать, сколько руками мы разворачивали бы каждый компонент, но думаю, можно пальцем в небо оценить в 20 минут. Если так, то руками сделать то, что Кнопка делает в среднем за день, будет 48*20/60 = 16 часов. 16 часов работы инженера — без ошибок, косяков, залипаний в интернетах, обедов и болтовни с коллегами. Можно ещё добавить, что Кнопка на всех стендах работает одновременно, когда это нужно пользователю. Разные пользователи на разных стендах друг другу не мешают. В случае инженера сюда следует ещё добавить время, которое упускает пользователь-заказчик, пока ждёт в очереди у инженера. Это уже девопс? С одной стороны — нет, потому что рутового доступа на продуктивы у наших разработчиков нет. Они не готовы его получить, потому что вместе с доступом нужно принять ответственность, а там довольно сложная инфраструктура — Инфинибэнд, Спарки, вот это всё — очень легко выстрелить себе в ногу. С другой стороны, у нас кто-угодно-опс, потому что любой участник команды может накатить сборку на стенды, куда у него есть доступ. Сборки на продуктив, например, чаще всего накатывает лидер группы тестирования. Почему не докер или не другое готовое решение? Изначально задача была, как «научиться хотя бы руками собрать всю эту кучу софтов вместе и заставить работать». В процессе этого «научиться» часть заскриптовали, потом ещё и ещё, и получился такой велосипед. Начиналось как малая автоматизация. Надо было выполнить кучу скриптов БД из директории — сделал скрипт, который обходит директорию и запускает всё в ней. Потом подумалось, что круто было бы насильно конвертировать каждый скрипт в UTF, добавили эту процедуру туда же. Потом стали дописывать директивы в каждый скрипт, чтобы выставлять уровень консистентности, с которым выполнять скрипт. Потом стали из них каждого скрипта удалять пустые строки, когда поменяли версию клиента БД, и он на это плевался. И так далее. У нас почти не было чёткого рубежа, до которого это было сборищем такой мелкой автоматизации, а после стало системой. Оно как-то само выросло, мелкими шажками. Поэтому и вопрос о том, что наверняка есть какой-то готовый продукт, встал только когда наша поделка уже решала задачу. Тогда уже получалось, что нам надо заменить что-то, что работает и закрывает вопрос на что-то, что придётся изучить и заточить под свои нужды (неизвестно какого калибра напильником). Резюме Вот так у нас и получился пульт управления всем сразу: в несколько кликов можно переключать заставку обслуживания, мигрировать схемы баз данных, перестраивать индексы, устанавливать новые сборки сразу с нужными настройками под стенд и без остановки работы пользователей (за счёт последовательного вывода из балансировки) — любой версии на любой стенд, перекачивать данные между стендами, смотреть за состоянием стендов и историй изменений на них. Скрипты под капотом устроены так, что адаптировать или доработать их довольно просто, так что и другие проекты потихоньку начинают адаптировать Кнопку под себя или писать свой велосипед на основе тех же идей. Трудно сказать, лучшим ли способом мы это всё устроили (наверняка ведь нет), но работать — работает. Получилось сэкономить примерно 16 рабочих часов админа в день — это целых два землекопа. Так что меня теперь трое из ларца, одинаковых с лица. Если вдруг есть вопросы не для комментариев, моя почта — [email protected].
https://habrahabr.ru/company/croc/blog/318532/
habrahabr
Зачем все эти «плюшки»: Что вам предложат ИТ-компании помимо зарплаты
['iaas-провайдер', 'корпоративная культура', 'бонусы для сотрудников']
В борьбе за лучших сотрудников, стартапы и международные корпорации идут на многое. В том числе, предлагают различные бонусы. Получается, что теннисный стол есть уже почти в каждом офисе, а...
В борьбе за лучших сотрудников, стартапы и международные корпорации идут на многое. В том числе, предлагают различные бонусы. Получается, что теннисный стол есть уже почти в каждом офисе, а ИТ-компаниям приходится придумывать все более экстравагантные «плюшки». Некоторые могут показаться весьма полезными, а другие не всегда соотносятся с реальным положением вещей. Сегодня мы разберем самые странные и действительно нужные бонусы. А в нашем дайджесте вы сможете найти еще несколько статей о корпоративной культуре. / Pixabay / StartupStockPhotos / CC0 Забота о сотрудниках Многие технические компании делают офис не только местом работы, а многофункциональной площадкой, где можно получить широкий спектр услуг. Например, на территории многих компаний есть парикмахерская и химчистка (например, в офисе Google), свои собственные рестораны (в офисе Facebook) или доставка полезной и бесплатной еды (Spotify). А как насчет консьерж-сервиса (см. пункт «The Facade of the Concierge Service» тут ), сотрудники которого заберут ваши вещи из прачечной, организуют вечеринку или выполнят любое поручение, пока вы работаете? Такие услуги могут здорово облегчить жизнь при плотном графике работы и создать комфортную атмосферу. А если у сотрудников не будет болеть голова о том, как успеть переделать все дела, в том числе и личные, то они смогут сконцентрироваться на работе. В Evernote также заботятся о сотрудниках и хотят, чтобы тем не приходилось все выходные тратить на работу по дому, поэтому два раза в месяц они могут получить бесплатную уборку дома. Но это не единственная компания, которая таким способом привлекает сотрудников. Если вы хотите получать регулярную уборку в квартире, советуем обратить внимание на компанию Exec. А в Google заботятся об образовании своих сотрудников и готовы оплачивать любые курсы. Можно повышать квалификацию, посещать языковые школы или даже курсы садоводства. Кроме того, если вам не нравится придерживаться строгого дресс-кода, то вам подойдет почти любая компания в Кремниевой долине. Здоровье Вы наверняка слышали, что многие компании оборудуют свой собственный фитнес-зал с дополнительными секциями от йоги до боевых искусств (Yahoo, Mail.Group и другие ), а также предлагают массажи и иглоукалывание. Такие услуги могут послужить отличной профилактикой (см. пункт Employee wellness program) многих заболеваний. А как известно, в Америке, да и в Европе, лечение стоит достаточно дорого. Поэтому занятия спортом могут помочь сократить размеры больничных счетов. Другие компании находят альтернативный способ решения проблемы оплаты лечения и обеспечивают сотрудникам доступ к услугам врача прямо на территории офиса. Хотя не все к этому относятся положительно, так как многие заболевания имеют деликатный характер, и не всем хотелось бы решать такие проблемы на работе. Все для родителей Netflix считается идеальным местом работы для родителей, так как дает возможность мамам и папам на целый год уйти в самый длительный отпуск по уходу за ребенком. В остальных компаниях декрет обычно составляет всего несколько месяцев. Другой плюс — гибкий график после выхода из такого отпуска, периодическую работу из дома или просто возможность взять отгул. А Facebook выплачивает 4 тысячи долларов новоявленным родителям. Adobe оказывает сотрудникам помощь при усыновлении детей. Это, конечно, пригодится не всем, но все же хороший социально значимый бонус. Еще одна необычная услуга (которая есть, например, в компании Zillow) сможет порадовать только кормящих мам, – это доставка грудного молока. А в Microsoft предлагают материальную помощь, но уже детям сотрудников с расстройствами аутического спектра. Компания готова оплатить терапию, которая стоит совсем недешево. Кстати, корпорация также нанимает людей с такими отклонениями. (Мы уже писали статью о том, почему западным компаниям интересны сотрудники-аутисты). Кроме того, IT-компании кремниевой долины уже давно озабочены улучшением демографической ситуации и оплачивают сотрудникам лечение бесплодия. Но Apple и Facebook пошли еще дальше в заботе о работниках и теперь еще спонсируют процедуры по заморозке яйцеклеток, стоимость которой на 2016 составляет около 10-15 тысяч долларов. А самая необычная операция, которую можно провести за счет компании, это операция по смене пола (пока ее готовы оплатить только в Accenture). Развлечения / Flickr / Faruk Ateş / CC-BY Некоторые компании (например, компания по разработке игр Zynga) предоставляют возможность поиграть в приставку на работе. Но обычно существует один нюанс — сделать это можно только во внерабочее время. Конечно, иногда круто позависать с коллегами и расслабиться после тяжелого рабочего дня, да и заядлые игроманы такой бонус оценят. Другие (Twitter, Thrillist, Booze) вообще предлагают бесплатный алкоголь на работе — от холодильников с пивом, до укомплектованных баров. Где-то его можно употреблять в течение рабочего дня, где-то такая опция доступна только раз в неделю, например, в пятницу. Такой бонус точно поможет сделать утро после веселой тусовки ярче и поспособствует расслабленной атмосфере. Главное, чтобы атмосфера оставалась рабочей. А компания Asana оплачивает ремонт рабочего места для нового сотрудника на сумму до 10 000. Можно выбрать любой стол, стул и компьютер. Если вы хотите заставить все вокруг цветами, то их тоже не придется таскать из дома — можно просто купить. В общем, хорошая инициатива, которая также является своеобразным развлечением, ведь тратить деньги компании может быть весело, а главное, что тратите вы их абсолютно законно. Отдых Из действительно полезных и работающих бонусов для путешественников можно упомянуть компанию Thrillist, которая всегда дает отпуск сотрудникам в их день рождения. В Airbnb каждый сотрудник получает возможность потратить 2000 долларов на путешествие в любую точку мира. А Evernote компенсирует деньги, затраченные на дорогу в размере до 1000 долларов. Неограниченный отпуск — еще одна тенденция , которая распространяется в технических компаниях (см. пункт «Take all the time you need»). Вы давно мечтали уехать на зимовку в Азию? Или пожить пару месяцев в вилле на берегу океана? Однако тут есть свои нюансы. Скорее всего, вы сможете уехать в такой отпуск, только если он не помешает вашей работе. Даже с ограниченным отпуском работники редко успевают потратить все дни именно по этой причине. Подробнее о том, как устроены такая система, и других отпускных «плюшках», мы писали тут . Другой бонус, связанный с путешествиями, предлагает Expensify, которая устраивает ежегодные рабочие поездки с коллегами на море — Хорватия, Вьетнам, Таиланд, Филиппины… Это действительно здорово — посмотреть новые страны, позагорать и покупаться. Конечно, это не совсем полноценный отдых, но, согласитесь, что работать на берегу моря может быть намного приятнее. Бонусы социальной направленности Многие компании более социально-ориентированы, например, в Salesforce вам оплатят неделю работы в волонтерской организации и дадут возможность пожертвовать до 1000 долларов в любой фонд. Возможно, кто-то задумывался о создании фонда имени самого себя. Но компания наверняка контролирует, куда переводит деньги, да и помочь нуждающимся в лечении за счет компании все-таки доброе дело. Обилие различных бонусов понятно, но всегда ли они действительно полезны, остается вопросом . Стол для пинг-понга и офис, полностью укомплектованный техникой Apple, — это, конечно, круто. Но могут ли только такие «бонусы» привлечь молодых, амбициозных специалистов? По статистике PWC 52% сотрудников намного больше ценят возможности карьерного роста, 44% — высокий уровень зарплат и 35% — бесплатное обучение. Сотрудники Spotify подтверждают , что бонусы, предоставляемые компанией, делают работу комфортнее. Но ощущения от того, что ты можешь позаниматься йогой, и даже бесплатная еда, не компенсируют уровень зарплаты ниже среднего. P.S. Минутка серьезного. На днях мы рассказывали о работе нашего IaaS-провайдера: SLA-соглашении и автоматизации работы с DNS-записями .
https://habrahabr.ru/company/1cloud/blog/318534/
habrahabr
Sprint: как проверить любую бизнес-идею всего за 5 дней
['makeright', 'саммари', 'управление проектами', 'бизнес-модели', 'стартап']
Рассказываем о ключевых идеях бестселлера 2016 года «Sprint: How to Solve Big Problems and Test New Ideas in Just Five Days» Джейка Наппа, Джона Зератски и Брадена Ковитца. Если вы...
Рассказываем о ключевых идеях бестселлера 2016 года «Sprint: How to Solve Big Problems and Test New Ideas in Just Five Days» Джейка Наппа, Джона Зератски и Брадена Ковитца. Если вы планируете открыть бизнес, запустить стартап или у вас есть интересная идея, которую вы хотите реализовать в рамках действующего бизнеса, вы всегда сталкиваетесь с главной трудностью — будет ли это работать? Понравится ли это людям? А что, если вы впустую потратите время и деньги? Многих риск потерпеть неудачу останавливает от действий, так как они считают, что реализация идеи потребует слишком много ресурсов. С появлением методики Lean Startup , которую разработал Эрик Рис, предприниматели получили в руки эффективный инструмент проверки бизнес-гипотез, стали создавать минимально работающие продукты и быстро тестировать идеи, а в случае неудачи — совершать пивот — кардинально менять своё направление. Но авторы книги «Sprint» — Джейк Напп и его соавторы — партнёры венчурного фонда Google Ventures, предлагают ещё более быструю программу тестирования идей и бизнес-гипотез. В своей книге они описывают методику, которая позволяет проверить идею и собрать обратную связь от клиентов всего за 5 дней — с понедельника по пятницу. Каким образом это возможно? Идея № 1. Методика Sprint эффективна, потому что она учитывает условия, в которых люди работают лучше всего Идея методики Sprint родилась из наблюдений основного автора книги Джейка Наппа о том, когда и в каких условиях люди работают лучше всего. Джейк Напп заметил, что люди работают гораздо эффективнее, когда перед ними стоят очень сжатые сроки. Он убедился в этом на практике, когда с командой реализовывал проект добавления новой функции в Gmail, помогающей автоматически упорядочивать сообщения. Несмотря на сомнения и очень сжатые сроки, его команда создала прототип, который понравился пользователям. Нехватка времени заставляет чётко фокусироваться на главном и не терять времени зря. Ещё одно наблюдение Джека Наппа было связано с тем, что обычно результатом популярных в бизнес-среде мозговых штурмов являются просто абстрактные идеи, которые именно из-за своей абстрактности так и не реализуются на практике. В отличие от мозгового штурма, цель Спринта — не идея, а создание рабочего прототипа, который позволит проверить жизнеспособность идеи и собрать обратную связь от первых потребителей. Ещё одной очень важной особенностью метода является то, что он требует участия специалистов разных направлений — менеджеров, инженеров, дизайнеров, финансовых специалистов — тех, чьё видение отличается, но влияет на конечный продукт. В основе методики Джейка Наппа «бережливый» подход, но методика Sprint представляет собой гораздо более конкретный инструмент. Методика Lean Startup предполагает запуск минимально жизнеспособного продукта — по сути, голых функций, необходимых только для того, чтобы выяснить реакцию потенциальных потребителей. В Спринте же перед командой стоит задача создать максимально реалистичный прототип продукта, чтобы показать его клиентам, собрать и проанализировать обратную связь от них. И хотя в результате Спринта у вас не будет готового продукта, вы будете знать наверняка в правильном ли вы двигаетесь направлении. Спринт длится пять дней с понедельника по пятницу. Кратко расписание выглядит так: Понедельник: наметить проблему и сконцентрироваться на одном важном её аспекте. Вторник: создать на бумаге различные эскизы решений. Среда: превратить идеи в проверяемые гипотезы и выбрать ту, которую будете тестировать. Четверг: создать реалистичный прототип. Пятница: проверить реакцию на прототип на потребителях. Методику Sprint можно использовать в разных сферах, но как отмечает автор, она особенно эффективна в стартапах. Стартап действует в условиях абсолютной неопределённости, и для него критически важно реально оценить жизнеспособность идеи раньше, чем закончатся деньги. Основа успешного стартапа, да и любого бизнеса, — отличная идея. Но если посмотреть на историю успехов и провалов различных проектов, можно прийти к выводу, что у бизнесов с одинаковыми идеями разная судьба. Успешные бизнесы отличает хорошее управление. Но управление — это всегда сложно. Методика Sprint помогает решить эту проблему — она даёт буквально пошаговый план управления бизнес-проектом. Идея № 2. Подготовьтесь к спринту: выберите большое задание и команду Прежде чем приступить к спринту, нужно уделить некоторое время подготовке. Подготовка к спринту включает: выбор правильного вызова/задачи, выбор правильной команды и правильную организацию пространства. Правило для всех участников Спринта — во время работы никаких отвлекающих гаджетов. Первое. Выберите задачу Главный принцип — чем больше вызов, тем лучше спринт. Для спринта неважно, сколько времени потребует реализация задачи или изготовление продукта — дни, месяцы или даже годы. Спринт нацелен просто на создание реалистичного прототипа, а не продукта. Спринт эффективен в тех случаях, когда от реализации проекта зависит очень многое, когда у вас очень мало времени и когда вы просто застряли и не знаете, что делать дальше. Определите вашу главную проблему. Какую задачу вы хотите решить при помощи спринта? Как пример, Джейк Напп приводит кофейню Blue Bottle, которая хотела создать интернет-магазин кофейных зёрен. Они сначала не могли определить свою задачу, но через некоторое время пришли к выводу, что она заключается в том, чтобы перенести в онлайн опыт посетителей их уютной кофейни. Второе. Соберите разнообразную команду Команды в спринте относительно малочисленные — около семи человек, но не менее пяти. Ключевые люди — Decider — Вершитель, обычно это CEO — тот, кто берет на себя управление, принимает решения и разрешает споры. Facilitator — Координатор — его роль очень важна, так как он следит за тем, чтобы команда не отклонялась от насыщенного расписания. Он направляет команду и подводит промежуточные итоги работы. Сколько ещё человек должно быть в команде? Опыт и наблюдения убедили Джейка Наппа в том, что пять — это магическое число. Когда в команде больше восьми человек — слишком сложно поддерживать дисциплину и укладываться в расписание. В команде должны быть разные специалисты, независимо от положения, которое они занимают, так как разные специалисты — источник разных взглядов на решение одной задачи. Это могут быть не только инженеры, технические специалисты, дизайнеры, но и финансисты, и те, кто работает с клиентами. Третье. Подготовьте окружающую среду Вам необходимо выделить в своём расписании пять полных дней на Спринт. Время — с 10 утра до 5 вечера — с понедельника по четверг и с 9 утра до 5 вечера — в пятницу. Обязательное условие — специальное помещение/комната для проведения Спринта с двумя белыми досками для записей. Понадобятся фломастеры, таймер, стикеры, еда для перекусов. Перерыв на перекус в 11.30 и обед в районе часа. Также на пятницу нужно забронировать помещение для проведения интервью с выборкой клиентов. Идея № 3. В понедельник вы определяете долгосрочные цели и ставите перед командой амбициозную, но выполнимую задачу С утра в понедельник вы начинаете с конца и согласуете свои долгосрочные цели. Сначала нужно быть оптимистом. Совместно с командой подумайте над тем, зачем вы занимаетесь этим проектом? Чего вы хотите достичь через полгода, год или больший промежуток времени. Затем запишите свою долгосрочную цель на доске. После этого нужно стать пессимистом. Подумайте, из-за чего все может пойти не так, как надо. Ваши сомнения нужно превратить в конкретные вопросы, на которые нужно будет ответить в течение недели. Запишите эти вопросы на доске. Все это подведёт вас к главной цели понедельника — созданию дорожной карты вашего спринта. Она выглядит как простая диаграмма — слева список клиентов и ключевых лиц, от которых зависит судьба вашего продукта (покупатели, посредники), справа — цель/цели. Затем между ними нарисуйте схему, иллюстрирующую как клиенты и ключевые люди будут взаимодействовать с вашим продуктом. Придерживайтесь простого и схематичного описания. Так, карта уже упоминавшейся компании Blue Bottle была очень простой: слева было указано «Новый клиент», а справа — «Покупка». Между ними участники спринта нарисовали схему, какими путями клиент может попасть на их сайт — узнать в кафе у баристы, узнать из прессы, найти по поиску в интернете. Следующий шаг клиента на схеме — выбор кофейных зёрен, а затем — переход к покупке. Ещё одна задача понедельника — беседа с экспертами. Это могут быть сотрудники или же сторонние специалисты. Эти люди помогут вам оценить, правильно или нет вы определили свои задачи и правильно ли составили свою дорожную карту. После разговора с ними, при необходимости, внесите коррективы в дорожную карту и вопросы к Спринту. Следующий важный шаг — метод HMW  — How Might We — (Как мы можем). Этот метод стали использовать Procter & Gamble в 70-х годах, а затем и компания IDEO. Он очень прост в использовании, его задача — превратить проблемы в возможности. Суть в том, чтобы каждый участник спринта написал свою идею или идеи на стикере/стикерах, где в левом верхнем углу будет стоять «HMW» — аббревиатура для How Might We — (Как мы можем). Эти стикеры через некоторое время помогут вам определить, на какой части карты вам нужно сосредоточить свои усилия. Например, «(Как мы можем) перенести опыт посещения кафе в онлайн?». Затем HMW-стикеры нужно наклеить на стену и сгруппировать их по темам. После этого проведите голосование — каждый имеет право сделать две отметки на понравившемся стикере/стикерах, а Вершитель имеет право сделать 4 отметки. Выберите стикеры, которые набрали большинство голосов, и наклейте их на тот участок дорожной карты, куда они лучше всего подходят по теме. В конце дня, исходя из анализа предложенных проблем, Вершитель должен отметить на карте одно событие и одного клиента (если их несколько), и определить цель Спринта, от которой будут зависеть дальнейшее направление работы и действия команды. Идея № 4. Вторник — день сбора и представления идей Вторник начинается с обзора предложенных идей, их совмещения и улучшения. В этом процессе принимают участия все члены команды Спринта. В одном помещении, но самостоятельно, они думают и формулируют идеи, которые, по их мнению, помогут компании решить задачу Спринта. Суть в том, чтобы собрать идеи — свои и чужие, и сделать на их основе что-то уникальное. Идеи могут прийти откуда угодно — от конкурентов или от компаний, деятельность которых не имеет ничего общего с вашей. Например, компания Savioke создавала робота для обслуживания клиентов в номерах отеля. И вдохновение для создания образа робота она черпала в шедевре японской анимации — мультфильме Хаяо Миядзаки «Мой сосед Тоторо». Следующий этап — молниеносная демонстрация идей — Lightning demo. Суть в том, чтобы каждый член команды рассказал о своих идеях в течение трёх минут, а затем схематично изобразил идею на доске. В конце демонстрации у вас будет 10–20 идей, которые вместе с HMW-стикерами, дорожной картой и вопросами спринта станут сырым материалом для создания решения. Следующий этап — создание скетчей — эскизов, набросков идей и решений главной проблемы, стоящей перед компанией в этом спринте. Скетчи делают все члены команды. Создание такого наброска — четырёхступенчатый процесс. Первое . В течение 20 минут каждый участник ходит по комнате, смотрит записи на доске, делая заметки. Второе . В течение 20 минут каждый участник записывает сырые идеи, изображает их в виде диаграмм или рисунков. Третье . Сумасшедшая восьмёрка — сложите лист бумаги пополам три раза, чтобы после того, как вы его развернете, получилось восемь рамочек. На каждой из них нужно набросать один вариант реализации вашей лучшей идеи. На каждый набросок даётся по одной минуте. Четвёртое . Каждый участник создаёт скетч-решение, которое будут оценивать другие участники. Скетч-решение удобно представлять на вертикально расположенном листе, на который клеятся три бумажки-стикера. На каждом стикере участник Спринта, рисуя и делая поясняющие надписи, представляет одну часть пользовательского опыта взаимодействия с продуктом. Все три части объясняют и объединяют этот опыт. Делайте рисунки и подробно объясняйте их словами, сделайте цепляющий заголовок своему скетчу-решению, но не подписывайте его — важна анонимность, так как статус и положение автора могут повлиять на принимаемые командой решения. Этот этап занимает от половины до полутора часов. Позднее в конце недели лучшие скетч-решения превратятся в прототипы. Ещё одна задача вторника — найти людей для тестирования идеи. Авторы решают эту задачу просто — дают объявление на Graiglist, предлагая за определенную плату стать участником исследования. Сколько нужно человек для исследования? Всего пять. В 90-х годах пионер изучения удобства использования сайтов Якоб Нильсен провёл исследование о том, сколько интервью нужно провести, чтобы понять основные принципы. Как оказалось, 85 процентов проблем выявляются уже после первых пяти интервью. Автор советует привлекать людей для интервью только со стороны — это не должны быть близкие, друзья или сотрудники компании. Идея № 5. В среду вы отбираете лучшие идеи и делаете «раскадровку» для прототипа Среда посвящена тому, чтобы найти лучшие решения. В начале дня вам нужно критически оценить каждую идею и решить, какая из них лучше всего поможет вам достигнуть долгосрочных целей. Второй этап в среду — сделать раскадровку лучших решений — пошаговый план для создания вашего прототипа. Для первого этапа нужно вывесить все скетч-решения на доску. Затем каждый участник Спринта голосует, ставя от одной до трёх отметок возле той части скетч-решения, которая понравится ему больше всего. Затем в течение трёх минут команда быстро обсуждает и критикует каждое решение. Суть — оценить идею и возражения. После этого каждый участник Спринта окончательно выбирает одну понравившуюся идею с помощью большой отметки-точки. А затем Вершитель (Decider) ставит три больших точки на понравившемся решении. От Вершителя зависит окончательное решение. Остальные решения можно оставить для будущей реализации. Если победили два конфликтующих решения, вы можете протестировать их оба, создав два прототипа. Состязание прототипов между собой в методике Спринт называется Rumble (Драка). Дайте название своему будущему прототипу. В Спринте решение о названии принимает Вершитель с учётом голосования Note-and-Vote. Его суть кратко — на доске участники записывают варианты названий. Затем каждый участник Спринта ставит отметку напротив того названия, которое ему больше всего понравится. Окончательное решение выносит Вершитель. Следующий этап — создать раскадровку на основе лучшего (лучших скетчей). По сути, раскадровка — это история взаимодействия клиента и вашего продукта. Открывающая сцена — это изображение того, как пользователь узнает о вашем продукте. Например, это может быть рекламная статья в газете или вид приложения в AppStore или вид сообщения в ленте соцсетей. Представьте, как пользователь будет взаимодействовать с вашим продуктом, а затем последовательно нарисуйте раскадровку этого опыта, чтобы в итоге получилось от пяти до пятнадцати изображений. Идея № 6. В четверг вы создаёте реалистичный прототип В четверг вашей команде необходимо создать прототип на основе раскадровки. Но как возможно создать реалистичный прототип за один рабочий день? В спринте за это отвечает философии «Fake it» и «Prototype mindset». Как в кино про ковбоев используют картонные бутафорские декорации, которые кажутся реальными домами, но на самом деле лишь удачно передают их вид, так же и вам нужно создать лишь убедительную иллюзию, а не настоящий продукт. Если вы хотите создать сайт, вам нужна лишь его презентация в Keynote. Но она должна быть качественной, иначе вы не получите правильную обратную связь. Чтобы изготовить прототип, команда разделяется на создателей (2 или более), брошюровщика, писателя, собирателя и интервьюера. Задача создателей (makers) — изготовить детали будущего прототипа. Брошюровщик (Stitcher) создаёт из разрозненных деталей цельный прототип. Собиратель активов (Asset Collector) помогает создателям с материалами для изготовления прототипа, например, ищет изображения. Писатель создаёт описание прототипа. Интервьюер тестирует готовый прототип и готовит сценарий пятничного интервью. Желательно, чтобы он не был вовлечён в разработку прототипа. Это поможет ему оценить прототип незамутненным пользовательским взором. Идея № 7. В пятницу вы тестируете прототип, собираете и анализируете обратную связь от клиентов Пятница — последний день спринта. В конце дня вы будете знать, стоит ли вам дальше развивать выбранную идею или нужно сменить направление. Относитесь к неудаче как к успеху. Неудача в Спринте означает только то, что вы уберегли свою компанию от крупной ошибки, которая могла обойтись очень дорого. Пятница — это день интервью с клиентами. Интервью нужно проводить в отдельной комнате с вебкамерой. Все участники Спринта в это время будут просматривать видеотрансляцию интервью. Камеру нужно разместить так, чтобы участникам была видна реакция покупателя на прототип. Интервью нужно начинать с небольшого разговора — обьяснить клиенту, что вы пытаетесь узнать с помощью тестирования. Объясните, что пока не все в прототипе работает. Попросите пользователя делиться с вами любыми мыслями о продукте. Задавайте уточняющие открытые вопросы. В конце подведите итог встречи и вручите клиенту вознаграждение. Во время интервью участники спринта делают пометки, а затем переписывают их на доску для записей и кратко обсуждают. В конце дня каждый участник в тишине читает записи, отмечает положительные, отрицательные, нейтральные заключения. Затем команда делает обзор долгосрочных целей и вопросов Спринта, подводит итоги своей недельной работы. Запишите, что вам удалось выяснить с помощью спринта, и как вы будете действовать дальше. О нас Мы рассказываем о ключевых идеях из лучших книг жанра нон-фикшн. В нашей библиотеке более сотни бестселлеров, в том числе и тех, которые еще не изданы на русском. Подписывайтесь на наш телеграм-канал , чтобы быть в курсе всех последних новинок бизнес-литературы, а также эксклюзивных материалов из нашей библиотеки.
https://habrahabr.ru/company/makeright/blog/318308/
habrahabr
Разбор статистической языковой модели от Google — часть 1: векторное представление символов
['neural networks', 'language model', 'nlp', 'natural language processing', 'wunderfund']
В этом году исследователи из Google Brain опубликовали статью под названием Exploring the Limits of Language Modeling (Исследование границ языкового моделирования), в которой была описана языковая...
В этом году исследователи из Google Brain опубликовали статью под названием Exploring the Limits of Language Modeling (Исследование границ языкового моделирования), в которой была описана языковая модель, позволившая значительно снизить перплексию (с примерно 50 до 30) на словаре One Billion Word Benchmark . В этом посте мы расскажем про самый низкий уровень этой модели — представление символов. Введение: языковые модели Для начала определим само понятие языковой модели . Языковая модель — это вероятностное распределение на множестве словарных последовательностей. Для предложения вроде “Hello world” или “Buffalo buffalo Buffalo buffalo buffalo buffalo Buffalo buffalo” языковая модель выдаст нам вероятность того, что мы встретим это предложение. Оценкой качества языковой модели служит перплексия ( perplexity ) — мера того, насколько хорошо модель предсказывает детали тестовой коллекции (чем меньше перплексия, тем лучше модель). Языковая модель lm_1b берет одно слово из предложения и вычисляет вероятностное распределение следующего слова. Таким образом, она может вычислить вероятность такого предложения, как “Hello, world”, следующим образом: P("<S> Hello world . </S>") = product(P("<S>"), P("Hello" | "<S>"), P("world" | "<S> Hello"), P("." | "<S> Hello world"), P("</S>" | "<S> Hello world .")) (" " и " " обозначают начало и конец предложения). Архитектура lm_1b lm_1b состоит из трех основным компонентов (см. рисунок): Char CNN (синий прямоугольник) получает на вход символы, из которых состоит слово, выводит векторное представление слова (word embedding). LSTM (Long short-term memory) (желтый) получает представление слова, а также вектор состояния (state vector) (например, слова, которые уже встречались в данном предложении) и вычисляет представление следующего слова. Последний слой, softmax (зеленый), с учетом информации, полученной от LSTM, вычисляет распределение относительно всех слов словаря. Char CNN Это сокращенное название сверточной нейронной сети уровня символов (character-level convolutional neural network). Если вы не знаете, что это, — забудьте то, что я сейчас сказал, так как в этом посте мы сосредоточится на том, что происходит то того, как сеть начнет выполнять какие-либо свертки, а именно, на character embedding . Character Embedding Самый очевидный способ представления символа как входного значения для нашей нейронной сети — это прямое кодирование ( one-hot encoding ). Например, алфавит, состоящий из латинских букв нижнего регистра, мы представили бы так: onehot('a') = [1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0] onehot('c') = [0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0] И так далее. Вместо этого мы научимся “плотному” (dense) представлению каждого символа. Если вы уже использовали системы векторного представления слов, подобные word2vec , то этот способ покажется вам знакомым. Первый слой Char CNN отвечает за перевод необработанных символов входного слова в векторное представление, которое передается на вход сверточным фильтрам. В lm_1b алфавит имеет размерность 256 (не-ASCII символы расширены до нескольких байт, каждый из которых кодируется отдельно) и отображается на пространство размерности 16. Например, символ ‘a’ представлен следующим вектором: array([ 1.10141766, -0.67602301, 0.69620615, 1.96468627, 0.84881932, 0.88931531, -1.02173674, 0.72357982, -0.56537604, 0.09024946, -1.30529296, -0.76146501, -0.30620322, 0.54770935, -0.74167275, 1.02123129], dtype=float32) Это довольно сложно осмыслить. Давайте снизим размерность представления символов до двух с помощью алгоритма t-SNE , чтобы представить, где они будут располагаться относительно друг друга. t-SNE так расположит наше представление, что пары с наименьшим расстоянием в 16-мерном векторном пространстве будут также располагаться ближе друг другу в двумерной проекции. t-SNE представление наиболее частотных символов. Розовые отметки соответствуют специальным мета-символам. и отмечают начало и конец предложения. и отмечают начало и конец слова. используется ограничения длины слов 50-ю символами. Желтые отметки — знаки пунктуации, синие — цифры, а светло- и темно-зеленые — буквенные символы верхнего и нижнего регистров. Здесь бросаются в глаза несколько интересных закономерностей: Цифры не только сгруппированы вместе, кроме этого они расположены по порядку и “змейкой”. В большинстве случаев одни и те же буква в верхнем и нижнем регистре расположены рядом, но некоторые (например, k/K) значительно удалены друг от друга. В правом верхнем углу скучились знаки пунктуации, которые могут завершать предложение ( .?! ). Метасимволы (розовые) образуют так называемый рыхлый кластер, а остальные специальные символы — еще более рыхлый (с ‘%’ и ‘)’ в качестве выпадающих значений). Также стоит отметить отсутствие закономерности . Кроме не слишком регулярного соответствия пар строчных/заглавных, в остальном расположение букв кажется случайным. Они достаточно удалены друг от друга и размазаны по всей плоскости проекции. Не наблюдается, к примеру, островков гласных или сонорных согласных. Нет и универсального отделения строчных букв от заглавных. Возможно, эта информация и отражается в представлении, но у t-SNE просто нет достаточного количества степеней свобод, чтобы отразить эти отличия в двумерной проекции. Может быть, исследовав каждую измерение по очереди, мы могли бы получить больше информации? А может быть и нет. Можете взглянуть на графики всех 16-ти измерений здесь — у меня не получилось найти в них какие-либо закономерности. Векторные вычисления Возможно, самая известная особенности векторных представлений слов — возможность складывать и вычитать их и (иногда) получать семантически значимые результаты. Например, vec('woman') + (vec('king') - vec('man')) ~= vec('queen') Интересно, можем ли мы проделывать то же самое с представлением символов. Здесь не слишком много очевидных аналогий, но как насчет того, чтобы складывать и вычитать “заглавность”? def analogy(a, b, c): """a is to b, as c is to ___, Return the three nearest neighbors of c + (b-a) and their distances. """ # ... ‘a’ относится к ‘A’ так же, как ‘b’ относится к… >>> analogy('a', 'A', 'b') b: 4.2 V: 4.2 Y: 5.1 Ладно, не слишком удачное начало. Попробуем еще: >>> analogy('b', 'B', 'c') c: 4.2 C: 5.2 +: 5.9 >>> analogy('b', 'B', 'd') D: 4.2 ,: 4.9 d: 5.0 >>> analogy('b', 'B', 'e') N: 4.7 ,: 4.7 e: 5.0 Частичный успех? Сделав множество попыток, мы то и дело получали верный ответ, но чем этот способ лучше случайного? Не забывайте, что половина строчных букв располагаются в близком соседстве с соответствующими заглавными. Уже поэтому, если мы будем двигаться от буквы в случайном направлении, мы со значительной долей вероятности наткнемся на ее пару. Векторные вычисления (теперь по-настоящему) Думаю, остается попробовать только одно: >>> analogy('1', '2', '2') 2: 2.4 E: 3.6 3: 3.6 >>> analogy('3', '4', '8') 8: 1.8 7: 2.2 6: 2.3 >>> analogy('2', '5', '5') 5: 2.7 6: 4.0 7: 4.0 # It'd be really surprising if this worked... >>> nearest_neighbors(vec('2') + vec('2') + vec('2')) 2: 6.0 1: 6.9 3: 7.1 Заметка на будущее: никогда не использовать character embedding для расчета чаевых. Кажется полезным размещать близкие по величине цифры близко друг к другу по причине взаимозаменяемости. “36-летний” можно легко заменить на “37-летний” (или даже “26-летний”), 800 баксов больше похожи на 900 или 700 баксов, чем на 100. Глядя на нашу t-SNE проекцию, можем сказать, что такая модель работает. Но это не означает, что цифры выстроены в линию (начнем хотя бы с того, что модели необходимо выучит некоторые тонкости, связанные с цифрами, например, учесть, что год чаще всего начинается с “19” или “20”). К чему все это? Прежде чем угадывать, почему определенный символ представлен так, а не иначе, стоит спросить: зачем вообще используют character embedding? Одной из причин может быть уменьшение сложности модели. Фильтрам выделения признаков в Char CNN для каждого символа будет достаточно запомнить 16 весов вместо 256. Если мы уберем слой векторного представления, количество весов на этапе выделения признаков увеличится в 16 раз, то есть примерно с 460К (4096 фильтров * максимальная ширина 7 * 16-мерное представление) до 7.3М. Кажется, что это много, но ведь общее количество параметров для всей сети (CNN + LSTM + Softmax) составляет 1.04 миллиарда! Так что парочка лишних миллионов не сыграет большой роли. На самом деле lm_1b включает в себя char embedding, потому что их Char CNN разработана на основе статьи авторства Kim et. al 2015 года, где также использовался char embedding. Сноска в этой статье объясняет: Так как |C| обычно мало, некоторые авторы применяют прямое кодирование для векторного представления символов. Тем не менее, мы обнаружили, что использование представления символов меньших размерностей показываем немного лучшую производительность. По-видимому, под лучшей производительностью имелась в виду более низкая перплексия, а не скорость обучения модели, например. Почему же представление символов улучшает производительность? Хорошо, а почему представление слов улучшает производительность задач области естественных языков? Они улучшают генерализацию . В языке множество слов, и многие из них встречаются редко . Если вы встречаем слова “малина”, “клубника” и “крыжовник” в одинаковом контексте, мы присваиваем им близкие векторы. И если нам не раз встречались словосочетания “варенье из малины” и “варенье из клубники”, можем предположить, что и сочетание “варенье из крыжовника” достаточно вероятно, даже если мы ни разу не встретили его в нашем корпусе. Генерализация символов? Начнем с того, что аналогия с векторами слов здесь не вполне уместна. Корпус Billion Word состоит из 800 000 отдельных слов, в то время как мы имеет дело всего с 256 символами. Стоит ли думать о генерализации? И как обобщить, например, ‘g’ на другой символ? Кажется, ответ будет “никак”. Иногда мы можем делать выводы на основе генерализации для заглавных и строчных версий одной буквы, но в целов буквенные символы обособлены, и все они встречаются так часто, что нас не должна заботить генерализация. Но нет ли символов, которые встречаются достаточно редко, чтобы генерализация могла сыграть важную роль? Давайте посмотрим. Частота появления n-го наиболее популярного символа. Рассчитано на основе обучающего множества Billion Word Benchmark (около 770 тысяч слов). 50 с лишним символов полностью отсутствуют в корпусе (например, управляющие символы ASCII). Да, это не совсем закон Ципфа (мы приближаемся к прямой линии, используя только логарифмическую шкалу по оси y вместо двойной логарифмической), но все же видно, что существует большое количество редко используемых символов (в основном это не-ASCII символы и редкие знаки пунктуации). Возможно, наше векторное представление помогает нам использовать генерализацию для выводов о таких символах. На графике t-SNE выше я изобразил только те символы, которые встречаются достаточно часто (за нижнюю границу я взял наименее частотный буквенный символ ‘x’). Что если мы изобразим представление для символов, встречающихся в корпусе хотя бы 50 раз? Зеленые=буквы, синие=цифры, желтые=знаки препинания, красно-коричневые=метасимволы. Розовые отметки — байты до 127 и все остальное, что не вошло в предыдущие группы. Кажется, это подтверждает нашу гипотезу! Буквы, как и прежде, антисоциальны и редко касаются друг друга. Но на нескольких участках наши редкие “розовые” символы формируют плотные кластеры или линии. Наиболее вероятное предположение: буквенные символы стоят отдельно, в то время как редкие символы, а также символы с высокой степенью взаимозаменяемости (цифры, знаки препинания на конце предложения) имеют свойство располагаться близко друг к другу. На этом пока все. Спасибо команде Google Brain за выпуск lm_1b . Если хотите провести свои эксперименты с этой моделью, не забудьте ознакомиться и инструкциями здесь . Я выложил скрипты, с помощью которых делал визуализации для этого поста сюда — не стесняйтесь переиспользовать или изменять их, хотя выглядят они ужасно. В следующий раз мы рассмотрим второй этап Char CNN — сверточные фильтры. О, а приходите к нам работать? :) wunderfund.io — молодой фонд, который занимается высокочастотной алготорговлей . Высокочастотная торговля — это непрерывное соревнование лучших программистов и математиков всего мира. Присоединившись к нам, вы станете частью этой увлекательной схватки. Мы предлагаем интересные и сложные задачи по анализу данных и low latency разработке для увлеченных исследователей и программистов. Гибкий график и никакой бюрократии, решения быстро принимаются и воплощаются в жизнь. Присоединяйтесь к нашей команде: wunderfund.io
https://habrahabr.ru/company/wunderfund/blog/318454/
habrahabr
Как я существенно облегчил работу с Raspberry Pi («всё новое — хорошо забытое старое»)
['pylci', 'python', 'ui', 'ux', 'raspberry pi']
-Как начать работу с Raspberry Pi? -Залить на SD-карту образ, подключить к питанию и пойти в магазин докупить всё, чего не хватает. Raspberry Pi в стандартной поставке — не подарок. По...
-Как начать работу с Raspberry Pi? -Залить на SD-карту образ, подключить к питанию и пойти в магазин докупить всё, чего не хватает. Raspberry Pi в стандартной поставке — не подарок. По крайней мере, если вы собрались подарить Pi кому-то на этот Новый Год, удостоверьтесь, что счастливому получателю будет доступен комплект клавиатура-монитор-мышь, или хотя бы USB-UART адаптер. Что же делать, если хочется заняться своим проектом, но есть только плата и к ней проблематично подключить хоть что-либо? Я мучался с такого рода проблемами 3 года, пока не разработал pyLCI. О том, как начать использовать pyLCI и что оно даёт, я и расскажу сегодня. О каких проблемах я говорю? Начнём с подключения к Pi. Есть много способов, и у каждого свои недостатки. USB-UART Требует наличия USB-UART (ещё и на 3.3V) Требует компьютера с совместимыми драйверами (FTDI, я смотрю на вас) Монитор(composite/HDMI)+мышь+клавиатура Требует наличия всего этого добра (монитор ещё и с HDMI), да ещё и питания 220 Компактные варианты либо дороги, либо неудобны Часто избыточно - подключать кучу всего, чтобы узнать IP? Монитор должен быть подключен при старте Ethernet Требует роутер или DHCP-сервер на компе или Pi Нужно искать IP, что не всегда легко (они ещё и меняются!) Нужно Ethernet-подключение к сети () WiFi и wpa_supplicant.conf на boot разделе Плохо документирован Нужно искать IP (опять!) Трудно дебажить (ой, WiFi переопределился как wlan2 и не подрубается...) Как сделать интерфейс для своего умного дома/медиацентра/робота? GUI Требуется монитор или VNC Для VNC требуется отдельный компьютер Для совсем урезанного GUI нужно ещё и добавлять стандартные функции (Shutdown/Reboot/WiFi/IP/shell commands) SSH+CLI Требуется отдельный компьютер Требуется сетевое подключение Хорошее знание команд крайне желательно WEB Требуется отдельное устройство и сетевой доступ к нему Нужно добавлять стандартные функции либо дополнительно устанавливать Webmin/Ajenti/whatever За три года, что я работаю с Raspberry Pi, я обучился Linux, программированию на Python и использованию всего этого для создания различных интересных устройств. Всё это время я натыкался на одни и те же проблемы, корень которых в том, что у Raspberry Pi нету простых встроенных методов взаимодействия с ОС — к примеру, встроенных монитора/клавиатуры. В результате подключить к WiFi какой-нибудь ноутбук с Linux просто, а для Raspberry Pi нужно использовать дополнительное железо, копаться с командами или таскать мониторы. Этого, как по мне, пока не избежать, но можно решить минимальным количеством усилий. Чем больше я разрабатывал различных проектов, тем больше различных решений пробовал. За это время я использовал: UART через Bluetooth (HC-05) Просто UART SSH Полноразмерный монитор Кнопки на GPIO Аудио оповещения Дисплей, показывающий IP Всё не то. Получающиеся решения в какой-то момент ясно показывали свои ограничения, да и со всем тем железом, что я использовал, можно было достичь куда большего. Во что в итоге сформировались мои требования? Интерфейс должен быть дешёвым. Покупать дополнительное железо всегда проблематично, поэтому чем меньше цена, тем легче оборудовать интерфейсом проект. Интерфейс должен быть универсальным. Самое дешёвое железо — то, что уже куплено или можно откуда-то выпаять. Интерфейс должен быть простым. Чем проще он для использования, тем большего можно достичь. В итоге — в прошлом (2015) году я начал проект, использующий дешёвые дисплеи и кнопки и дающий мне возможность задействовать базовые функции Raspberry Pi. Казалось бы, идея очень простая — такие интерфейсы были довольно долгое время популярны в различных устройствах — но при поиске готовых решений под Linux был виден только LCDProc, который больше всё-таки status monitor. Большая часть людей, которые хотели использовать такой интерфейс, колхозили что-то на Питоне с готовыми либами для дисплеев и как-то работающим кодом навигации, порой даже не вынесенным в классы для повторного ипользования. В апреле этого года, кучу проектов и множество ошибок спустя, я допилил проект до версии 1.0, назвал pyLCI и выложил на ГТ на всеобщее обозрение. С того момента многое изменилось — pyLCI использовался в каждом моём Raspberry Pi-проекте, добавлялись фичи, пропадали баги, а изредка я получал письма с вопросами о каких-то нюансах pyLCI. Теперь моя цель — рассказать об этом проекте всем, кому он может оказаться полезен. Что из себя представляет pyLCI? pyLCI — это простой интерфейс для настройки и управления функциями Raspberry Pi, использующий 2x16 экраны, кнопки и Python. Он простой, дешёвый и удобный в использовании. Установить pyLCI легко — ставишь shield за 5$ на Pi, скачиваешь pyLCI на Pi и ставишь в автозагрузку прилагающимся скриптом. Примеры использования Под спойлерами — красивые гифки pyLCI в работе. Получение IP Выключение/ребут Подключение к WiFi в McDonalds Ввод пароля для WiFi Запуск своего скрипта Отмонтирование флешки Просмотр USB устройств Перезапуск упавшего сервиса Своё приложение (Pomodoro таймер) Где можно использовать pyLCI? На личной/домашней Raspberry Pi для более простого подключения к ней и выполнения каких-то рутинных задач. При использовании Raspberry Pi для обучения (к примеру, значительно сократив бюджет на периферию и время на "подключение к Raspberry Pi" в начале урока) При разработке решений на Raspberry Pi (поднять упавший контроллер escape-room и перезапустить сервис, не доставая компьютер — бесценно) Для своего переносного компьютера на Pi (что толку от Pi, работающей 10 часов от батареи, если её нельзя подключить к WiFi) На своей рабочей Pi как вспомогательный интерфейс (переключать музыку/менять громкость, пока смотришь что-то в интернете) Какое железо нужно для интерфейса? Простой ответ — берите такой шилд с Китая: Стоит около 5 долларов, а работает безотказно. Хочется чего-то качественного или же нужно срочно? Тогда можно взять шилд от Adafruit: Дороже, но качественнее выполнен и ждать доставки не придётся (шилд из Китая — почти полная копия этого). Хочется собрать что-то из того, что есть на месте! Дисплеи Нужен простой дисплей, совместимый с командами HD44780, минимальный размер — 16x2, поддерживаются дисплеи разных размеров. Вот такого типа: Дисплей можно подключить через GPIO (займёт 6 контактов на Raspberry Pi) или I2C. Такие дисплеи часто попадаются во всяких Starter Kits, доступны в каждом мало-мальски себя уважающем магазине/рынке электроники и стоят 2$ с бесплатной доставкой из Китая. Кнопки/клавиатуры Нужно как минимум 5 кнопок. Их можно подключать через GPIO, I2C-GPIO экспандеры или же использовать USB HID устройства — типа таких numpad-ов: Разработка своих приложений pyLCI — это UI-фреймворк, который предоставляет различные UI-элементы для ускорения разработки и даже позволяет полностью встроить своё приложение в pyLCI. Для сложных приложений, которые нужно запускать отдельно, есть отработанный подход — внедрить в него какой-либо RPC-интерфейс и написать pyLCI-приложение, предоставляющее UI и дёргающее RPC-функции. Hello World: menu_name = "Hello world" from ui import Printer #Callback global for pyLCI callback = None #Some globals for us i = None o = None def init_app(input, output): global callback, i, o i = input; o = output callback = lambda: Printer("Hello world!", i, o) Что для чего: menu_name — Название приложения в главном меню i — устройство ввода , ловит нажатия кнопок и вызывает заданные на них callbacks. o — устройство вывода , оперирует дисплеем. Printer — функция простого вывода данных на дисплей . Использует i и o, имеет разные полезные параметры и способы вызова. init_app — функция приложения, вызываемая при старте pyLCI. Передаёт приложению i и o, в ней обычно создаются главные UI-элементы приложения. callback — функция, вызываемая при активации приложения. Обычно активирует главное меню приложения, в нашем случае просто вызывает Printer с нашим сообщением. Документация на различные доступные UI элементы есть на ReadTheDocs , к тому же много примеров использования можно увидеть в уже написанных приложениях . Добавление фич В последнее время я часто добавляю различные возможности и чиню баги. Документ с планами на будущее доступен здесь , но если вам сильно не хватает какой-либо функции или приложения, пишите мне на почту (crimier yandex ru) или в issues на Гитхабе , смогу помочь. Полезные ссылки Проект на Hackaday.io — там я описывал процесс разработки, а теперь рассказываю о новых фичах Документация Github Разработка проекта телефона на Pi Zero, используя pyLCI для изменения настроек системы без подключения по SSH
https://geektimes.ru/post/284012/
habrahabr
«Чтение на каникулы»: 25 полезных источников по теме IaaS, ИТ-инфраструктуры и облачных технологий
['ит-град', 'блоги', 'ит-инфраструктура']
Сегодня мы решили подготовить для вас подборку из 25 самых популярных и интересных блогов, посвященных облачным технологиям, облачной безопасности, разработке сервисов, а также ИТ-инфраструктуре....
Сегодня мы решили подготовить для вас подборку из 25 самых популярных и интересных блогов, посвященных облачным технологиям, облачной безопасности, разработке сервисов, а также ИТ-инфраструктуре. Данные источники отлично подходят для чтения в свободное от рабочих задач время. / Flickr / uberof202 ff / CC Блоги компаний и энтузиастов Diversity — блог инвестора и директора компании Diversity Бена Кепеса (Ben Kepes). Его сфера интересов простирается от корпоративного программного обеспечения и ПО финансового сектора до целых платформ и их архитектурных особенностей. Google Cloud Big Data and Machine Learning Blog — блог компании Google. Углубленный разбор продуктов, технический анализ и сравнения, а также советы и лайфхаки по использованию последних технологий машинного обучения. Sher.ly — в блоге рассматриваются вопросы безопасности облачного окружения и данных, а также приводятся советы по повышению продуктивности сотрудников. Bartons’s Blog — блог старшего архитектора Dell. Большое количество интервью о разработке, открытых проектах и технологиях. MemorableURL — материалы об аналитике, информатике, корпоративном программном обеспечении, стандартах и многом другом. Rackspace Blog — блог компании Rackspace. Авторы собирают материалы самого разного типа: от новостей с недавно прошедших конференций до практических советов по созданию гибридного облака. Также компания рассказывает о своей корпоративной культуре. Rackspace Developer Blog — новости и инсайты от разработчиков компании Rackspace, а также практические советы по работе с базами данных. CloudPundit: Massive-Scale Computing — автор рассказывает об облачных технологиях и IaaS в частности, а также о философии DevOps и платформах управления облаком (например OpenStack). All Things Distributed — блог технического директора Amazon Вернера Вогелса (Werner Vogels). Весь спектр материалов: от технической реализации сервисов и ИТ-инфраструктуры до глубокого обучения. CloudScaling — блог сооснователя проекта CloudScaling Рэнди Байаса (Randy Bias). Решение проблем, сравнение технологий, практические советы — все это здесь. Bits or pieces? — блог Саймона Уордли (Simon Wardley) о влиянии облачных технологий на организационную структуру компаний. Red Hat Stack — блог компании Red Hat, посвященный одноименной платформе. Разбор новых функций, принципов работы отдельных компонентов, а также советов по повышению производительности. Аналитика, интервью, новостные ресурсы CloudAve — это онлайн-журнал об ИТ-инфраструктуре, разработке приложений для SaaS. Авторы не соглашаются друг с другом по некоторым вопросам, что порождает интересные дебаты. ZDNet — ресурс с новостями о виртуализации, дата-центрах и положении сервисов в облачной среде. One Million by One Million Blog — регулярные интервью с ведущими специалистами компаний IBM, Intel, VMware и др. Data Center Knowledge — журнал о том, как работают дата-центры. Новости из облачного мира также прилагаются. The Register — новости и интервью из мира дата-центров с нотками аналитики. CIO — новости облачных технологий, аналитика, исследования, а также практические советы, интервью и видео с конференций. Почитать на русском Первый блог о корпоративном IaaS — обзор возможностей облачных технологий, практические советы и рекомендации по настройке оборудования и расчёту стоимости услуг облачных провайдеров, а также новости из мира ИТ. Блог компании 1cloud на Хабре — технологии хранения данных, виртуальные серверы, ИТ-инфраструктура, а также советы по повышению эффективности разработки сервисов. Блог компании «Новые облачные технологии» на Хабре — о разработке приложений и сервисов: от дизайна до кода. Блог компании VAS Experts — разработчик российских систем DPI делится собственным опытом и знаниями по теме анализа трафика. P.S. Конечно, данный список нельзя назвать исчерпывающим, поэтому мы будем признательны за рекомендации, которые вы можете оставить в комментариях. Будем оперативно пополнять нашу общую подборку полезных источников по теме.
https://habrahabr.ru/company/it-grad/blog/318536/
habrahabr
Самые востребованные языки программирования 2016
['рейтинг языков программирования', 'c++', 'PHP', 'Java', 'итоги года', 'Итоги 2016']
Под конец этого непростого года наша служба исследований собрала двадцатку самых востребованных языков программирования на hh.ru. По каждому языку отдельно посчитали динамику за год. А по первой...
Под конец этого непростого года наша служба исследований собрала двадцатку самых востребованных языков программирования на hh.ru. По каждому языку отдельно посчитали динамику за год. А по первой пятерке заодно посмотрели изменения за 5 лет. Что произошло: PHP в этом году стал самым востребованным у работодателей, отняв пальму первенства у Java. За год выросли оба, но PHP вырос сильнее. Go и Swift «выстрелили» на 161% и 100% соответственно, хотя до лидеров по количеству вакансий им еще далеко. А вот Python заметно сдал позиции, сразу на 32%. Если сравнить с индексом TIOBE , то сразу заметно, что PHP у нас заметно выше, а Visual Basic, например, заметно ниже. Go рванул и там и тут, а вот Objective-C у TIOBE в лидерах роста, а у нас он упал на 9%. С у них, кстати, упал сильнее всех, а у нас, наоборот, вырос на 46%. А где же 1С, спросите вы? В табличку не включили, но если интересно, то все неплохо: 2015 — 9 473, 2016 — 13 735. Прирост: 45%. В абсолютных цифрах — самый востребованный язык. Это динамика первой пятерки за последние 5 лет в абсолютных значениях количества вакансий. Сильнее всего последний кризис ударил по сегменту PHP, хотя в этом году спрос на этих специалистов полностью восстановился. Та же пятерка, только динамика в процентах. За пять лет JavaScript вырос сильнее всех. Если еще какие-то несложные срезы будут интересны, то пишите в комментах, постараемся сделать. Всем добра, проведите новогодние праздники с родными и друзьями и будьте всегда востребованы на рынке труда!
https://habrahabr.ru/company/hh/blog/318450/
habrahabr
Ceph в ProxMox на ZFS
['proxmox', 'ceph', 'zfs', 'linux']
В своей работе (системный администратор) приходится всегда искать вещи и знания, уникальные для своего региона. Одной из таких вещей в нашей конторе является ProxMox, поставленный на файловой...
В своей работе (системный администратор) приходится всегда искать вещи и знания, уникальные для своего региона. Одной из таких вещей в нашей конторе является ProxMox, поставленный на файловой системе ZFS, позволяющей использовать неплохой raid массив без использования железных контроллеров. Однажды, думая, чем можно еще удивить и порадовать клиентов, мы решили всё это водрузить на распределенную файловую систему Ceph. Не знаю уж, насколько было такое решение адекватным, но я решил воплотить желание в жизнь. И тут понеслась… Я перелопатил горы статей и форумов, но так и не нашел одного адекватного мануала, описывающего в подробностях что и как делать, поэтому, справившись со всем, родилась эта статья, кому интересно, добро пожаловать под кат. Итак, в принципе, всё делается в консоли и веб-морда ProxMox нам особо не нужна. Делал я всё в тестовом режиме, поэтому было поднято две виртуалки с четырьмя дисками внутри не очень мощного по железу проксмокса (этакая матрёшка). Четыре диска изначально были обусловлены тем, что хотелось поднять, как и на будущем уже не тестовом железе, на ZFS10, но не вышла золотая рыбка по неведомым мне причинам (на самом деле, было лень разбираться). Вышло так, что ProxMox не смог разметить ZFS10 на виртуальных дисках, поэтому было решено использовать немного другую “географию”. На одном из дисков ставился собственно сам ProxMox, на двух других поднимался ZFS1, третий был якобы под журнал Ceph, но я в итоге про него забыл, поэтому пока оставим его в покое. Итак, приступим. Тут будет небольшая вводная: Проксмокс у нас свежеустановленный в двух местах. Ноды называются ceph1 и ceph2. Делаем на обеих нодах всё одинаково, кроме тех мест, что я обозначу. Сеть у нас 192.168.111.0/24. Первая нода (ceph1) имеет адрес 192.168.111.1, вторая (ceph2) — 192.168.111.2. Диски на обеих нодам имеют следующие значения: /dev/vda — диск, на котором стоит ProxMox, /dev/vdb и /dev/vdc — диски, предназначенные для ZFS, /dev/vdd — диск для журнала Ceph. Первое, что нам нужно сделать, это поменять платный репозиторий ProxMox, требующий подписки, на бесплатный: nano /etc/apt/sources.list.d/pve-enterprise.list Там комментируем единственную строку и вписываем новую ниже: deb http://download.proxmox.com/debian jessie pve-no-subscription Далее обновляем наш ProxMox: apt update && apt dist-upgrade Устанавливаем пакеты для работы с Ceph: pveceph install -version hammer Следующим шагом нам нужно сделать кластер из проксмоксов. На первой ноде выполняем последовательно: pvecm create mycluster где mycluster — это имя нашего кластера. На второй ноде: pvecm add 192.168.111.1 Соглашаемся с тем, что нужно принять ssh ключ и вводим пароль root от первой ноды. Проверяем всё это дело командой pvecm status Далее инициализуруем конфигурацию Ceph (делается только на первой ноде, которая будет “главной”): pveceph init --network 192.168.111.0/24 это создаст нам симлинк на /etc/ceph/ceph.conf, от которого мы будем далее отталкиваться. Сразу после этого нам надо добавить туда опцию в раздел [osd]: [osd] journal dio = false Это связано с тем, что ZFS не умеет directIO. Следующее, чем делаем, это готовим наш ZFS пул. Для этого диски нужно разметить в GPT: fdisk /dev/vdb Там последовательно нажимаем g и w (g для создания таблицы GPT и w для принятия изменений). То же самое повторяем на /dev/vdc. Создаем зеркальный ZFS пул, называться он у нас будет как принято в ProxMox – rpool: zpool create rpool mirror /dev/vdb /dev/vdc Проверим командой zpool status -v и получим (по крайней мере должны): pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 vdb ONLINE 0 0 0 vdc ONLINE 0 0 0 errors: No known data errors ZFS пул у нас создан, пришло самое время заняться самым главным — ceph. Создадим файловую систему (странное название, но оно взято с доки по ZFS) для нашего монитора Ceph: zfs create -o mountpoint=/var/lib/ceph/mon rpool/ceph-monfs Создадим сам монитор (сначала на первой ноде, потом на второй): pveceph createmon Далее начинается то, с чем пришлось повозиться, а именно то, как сделать блочное устройство для Ceph OSD (а он именно с ними и работает) в ZFS и чтобы оно еще и работало. А делается всё просто — через zvol: zfs create -V 90G rpool/ceph-osdfs 90G — это то, сколько мы отдаем нашему Ceph на растерзание. Так мало потому, что сервер виртуальный и больше 100G я ему не давал. Ну и сделаем сам Ceph OSD: ceph-disk prepare --zap-disk --fs-type xfs --cluster ceph --cluster-uuid FSID /dev/zd0 --fs-type у нас выбран XFS потому, что XFS — это дефолтная ФС у Ceph. FSID — это ID нашего Ceph, который можно подсмотреть в /etc/ceph/ceph.conf. Ну, и /dev/zd0 — это наш zvol. Если после этого у вас df -h не покажет примерно такое: /dev/zd0p1 85G 35M 85G 1% /var/lib/ceph/osd/ceph-0 значит что-то пошло не так и вам либо нужно перезагрузиться, либо ещё раз нужно выполнить создание ceph OSD. В общем то, на этом мы уже сделали наш ceph и можно дальше им рулить уже в вебморде ProxMox и создать на нем нужное RDB хранилище, но вы не сможете его использовать (собственно, ради чего всё это затевалось). Лечится простым способом (для этого всё-таки хранилище надо создать) — нужно скопировать ключ ceph с первой ноды во вторую. Открываем конфиг хранилищ ProxMox: nano /etc/pve/storage.cfg И вписываем туда нужный нам RBD: rbd: test monhost 192.168.111.1:6789;192.168.111.2:6789 pool rbd krbd 1 username admin content images Здесь test — это имя нашего хранилища, а IP адреса — это то, где находятся ceph мониторы, то есть наши проксмоксы. Остальные опции дефолтные. Дальше создаем папочку для ключа на второй ноде: mkdir /etc/pve/priv/ceph И копируем ключ с первой: scp ceph1:/etc/ceph/ceph.client.admin.keyring /etc/pve/priv/ceph/test.keyring Здесь ceph1 — наша первая нода, а test — имя хранилища. На этом можно ставить точку — хранилище активно и работает, можем пользоваться всеми плюшками ceph. Спасибо за внимание! Для того, чтобы всё это поднять, пользовался данными ссылками: » https://pve.proxmox.com/wiki/Storage:_Ceph » https://pve.proxmox.com/wiki/Ceph_Server » http://xgu.ru/wiki/ZFS » https://forum.proxmox.com
https://habrahabr.ru/post/318548/
habrahabr
5 кейсов для ценителей правильных коммуникаций
['infobip', 'mobile', 'коммуникации', 'банки', 'мобильное приложение', 'sms', 'рассылки', 'кейс']
Считанные дни до Нового года и можно вспомнить успехи уходящего. Мы отобрали пять проектов, результатами которых делимся с вами. Несмотря на разные отрасли деятельности и географию наших...
Считанные дни до Нового года и можно вспомнить успехи уходящего. Мы отобрали пять проектов, результатами которых делимся с вами. Несмотря на разные отрасли деятельности и географию наших клиентов, представленные кейсы показывают одну общую закономерность: усиление роли инновационных продуктов в коммуникации с потребителем. Кейс 1. Zendesk — внедрение SMS-приложения на облачной основе Компания Zendesk предлагает программы клиентского сервиса в облаке — более 45 000 компаний используют Zendesk для настройки и управления билетными системами, интегрированным чатом, поддержкой по телефону и аналитикой в простом и эффективном формате. SMS-приложение позволяет компаниям, пользующимся услугами Zendesk, отправлять прямые уведомления и получать обратную связь от клиента через платформу. Это дополнительный канал коммуникации, доступный через облако. Решение Компания Infobip предложила Zendesk платформу мобильных рассылок, связанную более чем с 300 телекоммуникационными операторами по всему миру. Мы создали веб-приложение для платформы Zendesk, с помощью которого компании могут выбирать и приобретать мобильные номера и задавать порядок требуемых действий с этими номерами, указанными в текстовом сообщении. Приложение генерирует выписку билета по входящему SMS-сообщению, позволяет получать заявки или запросы от клиентов на поддержку и внедрять систему коммуникации в билетную систему для более удобного использования. Интеграция позволяет создавать SMS-оповещения через все сервисы Zendesk. Можно проверить статус билета или предоставить обратную связь, отправив в сообщении указанные номера, в любой момент изменить билет через текстовое сообщение, а также генерировать автоматические SMS-уведомления о создании и изменении билета. Результат В результате интеграции с Infobip Zendesk создал универсальный SMS-канал для компаний, которые осуществляют основную коммуникацию с потребителем через мобильные телефоны и с покрытием по всему миру. Кейс 2. Refunite — расширяя коммуникацию REFUNITE помогает переселенцам найти своих близких через международную базу данных, к которой можно получить доступ онлайн или через мобильный телефон. Мобильный сервис требует специальных разработок: такой сервис должен быть надежным и устойчивым, способным работать даже в условиях отсутствия интернет-покрытия, быть экономичным для REFUNITE, а также удобным и популярным среди пользователей разных стран. Задача: запуск мобильных коммуникаций, которые помогают беженцам воссоединиться со своими семьями. Решение Интеграция каналов коммуникаций SMS и USSD. SMS — наиболее популярный и широко используемый мобильный канал, который поддерживается всеми типами мобильных телефонов. Этот канал не требует подключения к интернету и обеспечивает коммуникацию уже при наличии мобильного сигнала. USSD — это также надежный и устойчивый канал, который поддерживается всеми типами мобильных телефонов и не требует установок дополнительных приложений. Это позволяет пользователям общаться посредством текстового меню в реальном времени через фоновое приложение. Обе технологии идеально подходят под требования REFUNITE. USSD позволяет пользователям осуществлять поиск близких через базу данных, а уведомления и оповещения присылаются через SMS. Также SMS позволяет осуществлять поиск по базе данных — для этого достаточно отправить SMS с именем искомого человека. Партнерское сотрудничество REFUNITE и Infobip позволило разработать законченное решение. REFUNITE запустил и преобразовал в цифровую форму базу данных, разработал приложение для базы данных и фоновое приложение, а Infobip предоставил технологии для связи REFUNITE с мобильными операторами-партнерами в тех странах мира, в которых находятся большие группы переселенцев. Infobip может работать как единый провайдер с несколькими мобильными операторами, одновременно обеспечивая покрытие для SMS и USSD. Оба сервиса имеют удобные пользовательские меню, в поля которых можно ввести параметры поиска (имя, возраст, последнее известное место пребывания), чтобы получить списки потенциальных совпадений. Результат Предоставление платформы REFUNITE оффлайн-пользователям через SMS и USSD расширяет функции поиска через сайт Refunite.org. Основная масса беженцев и переселенцев не имеет доступа к Интернету, и оба сервиса служат для восстановления связи между миллионами разлученных семей по всему миру. В результате такого сотрудничества REFUNITE сумел предоставить доступ к онлайн-платформе поиска семей через SMS и/или USSD в Конго, Иордании и Турции. В перспективе подключение таких стран, как Сомали, Южный Судан и Филиппины. Кейс 3. TLC Marketing — модернизация управления кампаниями До начала сотрудничества с Infobip агентство TLC не имело достаточных технических возможностей для автоматической проверки всех входящих данных, полученных благодаря маркетинговым SMS-кампаниям и опросам. Основная доля информации обрабатывалась вручную, и стало очевидно, что автоматизация процесса проверки информации существенно упростит проведение маркетинговых кампаний. TLC требовалось продвинутое решение по автоматизации для обработки SMS-купонов, отправленных подписчиками. Решение Мы создали премиальную SMS-систему коротких номеров для упрощения проведения кампаний с промокупонами, что позволило автоматически обрабатывать входящую информацию. После этого был разработан полномасштабный сервис для клиентов агентства TLC Marketing — всемирных потребительских брендов и торговых сетей. Входящий SMS-трафик, создаваемый пользователями, отправляющими промокупоны через SMS, теперь проверяется автоматически на платформе Infobip. Результат Улучшенное и ускоренное управление кампаниями. Кампании, которые проводились для крупнейших торговых сетей ЮАР, доказали, что премиальное SMS-решение стало удобным методом маркетинговой коммуникации с потребителями. Это понятное и легкое в использовании решение является ключевым преимуществом для брендов и торговых сетей. Наша платформа способна обрабатывать всю входящую информацию, что упрощает и ускоряет весь процесс проведения промокампании, повышая ее эффективность. Также Infobip разработала специализированную, ориентированную под маркетинговые нужды систему USSD, которая позволила агентству TLC Marketing предложить своим клиентам полномасштабный сервис через другой мобильный канал и через единого провайдера. Кейс 4. Хорватский почтовый банк — интеграция автоматических сообщений Хорватский почтовый банк (HPB) постоянно работает над развитием основных каналов коммуникации с разными клиентскими сегментами, а также над разработкой современных банковских сервисов под запросы пользователей. Такой подход включает моментальный доступ к банковским сервисам в любое время и требует постоянного и интенсивного развития мобильного и онлайн-банкинга. Создание современной коммуникационной платформы, которая бы полностью адаптировала банковские услуги под требования современных клиентов, было одной из приоритетных задач для HPB. Необходимо было усовершенствовать коммуникации с клиентом через автоматические SMS-сообщения. Решение С помощью mGate (мы уже писали об этом решении здесь ) возможности коммуникации с клиентом существенно расширились, банк получил всестороннее управление SMS-сообщениями. Благодаря специальным опциям mGate HPB может управлять отправкой и доставкой сообщений, получать достоверные отчеты о доставке и имеет возможность отвечать на вопросы пользователей в случае, если SMS не были доставлены. С mGate HPB использует SMS для отправки: оповещений по балансу счета, оповещений о зарезервированной сумме на счету, информации о допустимой сумме овердрафта, ссылок на сервисы мобильного банкинга и на загрузки приложений мобильного банкинга. С mGate HPB внедрил решение, которое удовлетворяет всем требованиям коммуникации с клиентом, а также обеспечивает подробную статистику и высокопрофессиональную службу технической поддержки 24/7 с командой инженеров и аккаунт-менеджеров. Результат HPB получил инновационный клиентоориентированный сервис. После четырех лет успешного партнерского сотрудничества HPB и Infobip продолжают работать над новыми проектами по дальнейшему усовершенствованию телекоммуникаций и онлайн-решений для HPB. За это время сервис mGate был обновлен и оснащен новыми функциями. Банк имеет моментальный доступ к новым опциям и применяет новейшее программное обеспечение. Оно включает расширенный профессиональный SMS-сервис, который применяется в других областях по необходимости. Infobip также разработал решения для приложений смартфонов и продолжает развивать новые технологии и сервисы. Infobip постоянно работает над совершенствованием электронных, мобильных и онлайн-сервисов для HPB. Кейс 5: Mambu — коммуникационные решения для платформы SaaS Mambu — доступная и удобная облачная банковская платформа, позволяющая быстро создавать, запускать и обслуживать кредитные и депозитные продукты. В числе клиентов Mambu — более 100 компаний, занятых в области микрофинансирования, а также финансовые инновационные компании из 30 стран мира. Сервис служит как более гибкий альтернативный вариант устаревшим банковским программам. Данный сервис ориентирован на клиента и обеспечивает SMS-обслуживание финансовой платформы SaaS по всему миру, используя SMS-сообщения как канал оповещений и проверок для банковских и финансовых IT-решений. Основная задача, стоявшая перед Infobip — создание SMS-обслуживания финансовой платформы SaaS по всему миру. Решение В один из регулярных релизов программного обеспечения компания Mambu интегрировала SMS API от Infobip, быстро и легко присоединившись к нашей платформе мобильных рассылок. Теперь Mambu пользуется всеми преимуществами технологий Infobip — это покрытие в 190 странах, обширный опыт и знания в сфере телекоммуникаций и профессиональная техподдержка 24/7. Результат Введение SMS API дало возможность клиентам Mambu — компаниям, занятым в микрофинансировании и рассредоточенным по всему миру, — рассылать моментальные автоматические оповещения своим пользователям через канал SMS, а также повысить уровень безопасности за счет внедрения двухфакторной аутентификации на основе SMS. В последнем случае SMS-канал используется для доставки проверочных PIN-кодов, которые необходимы для доступа к онлайн-сервисам. Если вас заинтересовал какой-то из наших кейсов, пишите в комментариях или проголосуйте ниже. Мы расскажем о нем подробнее. С наступающим Новым годом! Успешных Вам кейсов!
https://habrahabr.ru/company/infobip/blog/318552/
habrahabr
Использование send для удобства, от безысходности и ради развлечения
['ruby', 'send', '❨╯°□°❩╯︵┻━┻']
Один из методов библиотеки Sidekiq. Объяснение смайла send в Ruby вызывает методы объектов по имени. Вот очевидный способ применения: # До: явно используем присваивание. Неудобно, если полей...
Один из методов библиотеки Sidekiq. Объяснение смайла send в Ruby вызывает методы объектов по имени. Вот очевидный способ применения: # До: явно используем присваивание. Неудобно, если полей много или они определяются в рантайме. user.name = "Иван" user.age = 29 # После: передаём имя атрибута параметром. Решает проблемы первого способа. def set(field, value) send("#{field}=", value) end user.set(:name, "Иван") user.set(:age, 29) А ещё вы наверняка видели такие строки: after_create :send_email Да-да, коллбэки в рельсах внутри реализованы тоже с помощью send . Ещё через send при тестировании вызывают приватные методы . О том, нужно ли вообще их тестировать, рассказывает Sandi Metz, автор книги Practical Object-Oriented Design in Ruby (о приватных методах с 10:58). Краткий перевод-пересказ Она считает тестирование приватных методов излишним: правильный набор входных данных при тестировании публичных методов обеспечит 100%-е покрытие. Но периодически при активной разработке нестабильного кода Sandi нарушает это правило, чтобы не копаться в трейсах, а ловить ошибку в месте возникновения. Такие тесты она считает временными и с готовностью удаляет, когда код стабилизируется. Она в курсе про подход "Если вам нужно тестировать приватный метод, вынесите его в отдельный класс", но считает, что от такого выделения код не станет более стабильным. Иногда без send не обойтись: data_point = OpenStruct.new(:queued? => true) data_point.queued? # -> true data_point.send("queued?=",false) # иначе такой метод не вызвать data_point.queued? # -> false Это пример из документации по OpenStruct. Пример надуманный, но встречаются названия и более странные: взять хоть тот же метод из картинки в начале поста. В продолжение темы о необычных названиях методов Часто пытаетесь выйти из irb командой учше ? Просто добавьте в ~/.irbrc следующий код: module Kernel def учше exit end end Пришло в голову, пока обдумывал примеры для статьи; добавил ради теста себе в .irbrc — работает. Собирался было удалить, потом думаю: "А ведь удобно же". Пока оставил, пускай полежит недельку. Для отчаянных: зачем останавливаться только на переводе учше-exit? module Kernel def method_missing(method_name, *arguments, &block) return(super) unless contains_russian_letters?(method_name.to_s) possible_meaning = translit(method_name.to_s) send(possible_meaning, *arguments) end private def translit(string) string.chars.map do |char| russian_to_english_mapping[char] || char end.join end def contains_russian_letters?(string) !(string.chars & russian_symbols).empty? end def russian_symbols "йцукенгшщзхъфывапролджэячсмитьбю".chars end def russian_to_english_mapping english = "qwertyuiop[]asdfghjkl;'zxcvbnm,.".chars russian_symbols.zip(english).to_h end end # Пробуем: puts(1.inspect) # Выводит 1 згеы(1.штызусе) # Тоже выводит. Работает! Оставлять это не решился. Недостатки Неаккуратное использование send ухудшает читаемость. Сравните: # Вариант 1. Читаемо, но не масштабируемо if params[:sort_by] == "age" users.sort_by_age else users.sort_by_name end # Вариант 2. Масштабируемо, но нечитаемо (в примере параметры не фильтруются) sorting_method = "sort_by_#{params[:sort_by]}" users.send(sorting_method) # Лучше переписать код так, чтобы можно было писать # и масштабируемо, и читаемо: users.sort_by(params[:sort_by]) Подведём итоги Используйте send , если вам нужно: Определять имя метода во время исполнения; Писать свои велосипедные коллбэки; Вызывать приватные методы в тестах. Не используйте send без необходимости.
https://habrahabr.ru/post/318546/
habrahabr
Неинициализированные переменные: ищем ошибки
['фортран']
Большое количество научных исследований используют код, написанный на языке Фортран. И, к великому сожалению, «научные» приложения тоже не застрахованы от банальных ошибок, таких как...
Большое количество научных исследований используют код, написанный на языке Фортран. И, к великому сожалению, «научные» приложения тоже не застрахованы от банальных ошибок, таких как неинициализированные переменные. Стоит ли говорить, к чему могут приводить подобные вычисления? Иногда эффект от таких ошибок может довести до «серьёзных прорывов» в науке, или стать причиной действительно больших проблем – кто знает где полученные результаты могут быть использованы (но, мы догадываемся где)? Хотелось бы привести ряд простых и эффективных методов, которые позволят проверить существующий код на Фортране с помощью компилятора Intel и избежать подобных неприятностей. Мы будем рассматривать проблемы, связанные с числами с плавающей точкой. Ошибки с неинициализированными переменными достаточно трудно находимы, особенно, если код начинали писать на стандарте Fortran 77. Специфика заключается в том, что даже если мы не объявили переменную, она будет объявляться неявно, в зависимости от первой буквы имени, по, так называемым, правилам неявного определения типов (всё это так же поддерживается в последних стандартах). Буквы от I до N означают тип INTEGER, а остальные буквы — тип REAL. То есть, если в нашем коде неожиданно появляется переменная F, на которую мы что-то умножаем, компилятор не будет выдавать ошибок, а просто сделает F вещественным типом. Вот такой замечательный пример может вполне хорошо скомпилироваться и выполниться: program test z = f*10 print *, z, f end program test Как вы понимаете, на экране будет всё, что угодно. У меня так: -1.0737418E+09 -1.0737418E+08 Интересно, что в том же стандарте была возможность подобные «игры» с объявлением переменных запрещать, но только в пределах программной единицы, написав implicit none . Правда, если забыть это сделать в каком-то модуле, там так и будут появляться «фантомные» переменные. Любопытно, что я как-то раз видел случайно добавленные символы к имени переменной в расчётах. Видимо, кто-то случайно набирал что-то в блокноте, и часть из них добавилась в код программы при переключении между окнами. В итоге, всё продолжало считаться, и на переменную никто не ругался. Отследить подобные ошибки крайне сложно, особенно если код долгие годы работал без проблем. Поэтому, очень рекомендую всегда использовать implicit none и получать ошибки от компилятора о переменных, которые не были явно определены (даже если они и инициализированы и с ними всё хорошо): program test implicit none ... end program test error #6404: This name does not have a type, and must have an explicit type. [Z] error #6404: This name does not have a type, and must have an explicit type. [F] Если же мы разбираемся в уже написанном коде, то менять все исходники может быть весьма трудозатратно, поэтому можно воспользоваться опцией компилятора /warn:declarations (Windows) или -warn declarations (Linux). Она выдаст нам предупреждения: warning #6717: This name has not been given an explicit type. [Z] warning #6717: This name has not been given an explicit type. [F] Когда мы разберёмся со всеми неявными объявленными переменными и убедимся, что ошибок с ними нет, можно переходить к следующей части «Марлезонского балета», а именно поиском неинициализированных переменных. Одним из стандартных способов является инициализация компилятором всех переменных некоторым значением, по которому, при работе с переменной, мы сможем легко понять, что разработчик забыл про инициализацию. Значение это должно быть весьма «необычным», а при работе с ним, желательно, останавливать выполнение приложения, чтобы, так сказать, «взять с поличным». Весьма логичным является использование «сигнальным» значением SNaN — Signaling NaN (Not-a-Number). Это число с плавающей точкой, имеющее особое представление, и при попытке выполнить любую операцию с ним, мы получим исключение. Стоит сказать, что некая переменная может получить значение NaN и при выполнении определенных операция, например, делении на нуль, умножении нуля на бесконечность, делении бесконечности на бесконечность и так далее. Поэтому, прежде чем переходить к «отлову» неинициализированных переменных, хотелось бы убедиться, что в нашем коде нет никаких исключений, связанных с работой с числами с плавающей точкой. Для этого нужно включить опцию /fpe:0 и /traceback (Windows), или –fpe0 и –traceback (Linux), собрать приложение и запустить его. Если всё прошло как обычно, и приложение вышло без генерации исключения, то мы молодцы. Но, вполне возможно, что уже на этом этапе «полезут» разные «непредвиденные моменты». А всё потому, что fpe0 меняет дефолтную работу с исключениями для чисел с плавающей точкой. Если по умолчанию они отключены, и мы спокойно делим на 0, не подозревая об этом, то теперь, будет происходить генерация исключения и остановка выполнения программы. Кстати, не только при делении на 0 (divide-by-zero), но и при переполнении числа с плавающей точкой (floating point overflow), а так же при недопустимых операциях (floating invalid). При этом, численные результаты могут также несколько измениться, так как теперь денормализованные числа будут «сбрасываться» в 0. Это, в свою очередь, может дать весомое ускорение при выполнении вашего приложения, так как с денормализованными числами работа происходит крайне медленно, ну а с нулями – сами понимаете. Ещё один интересный момент – возможное получение исключений с опцией fpe0 в результате определённых компиляторных оптимизаций, например, векторизации. Скажем, мы в цикле и делили на значение, если оно не 0, делая проверку if. Возможна ситуация, когда деление всё же будет происходить, потому что компилятор решил, что это будет значительно быстрее, чем использовать маскированные операции. В данном случае мы работаем в спекулятивном режиме. Так вот это можно контролировать с помощью опции /Qfp-speculation:strict (Windows) или -fp-speculation=strict (Linux), и отключать подобные оптимизации компилятора при работе с числами с плавающей точкой. Другой способ – изменить всю модель работы через -fp-model strict , что даёт большой отрицательный эффект на общую производительность приложения. Про то, какие модели имеются в компиляторе Intel я уже рассказывал ранее . Кстати, можно поробовать и просто уменьшить уровень оптимизации через опции /O1 или /Od на Windows ( -O1 и -O0 на Linux). Опция traceback просто позволяет получить более детальную информацию о том, где произошла ошибка (имя функции, файл и строчка кода). Давайте сделаем тест на Windows, скомпилировав без оптимизации (с опцией /Od ): program test implicit none real a,b a=0 b = 1/a print *, 'b=', b end program test В итоге на экране мы увидим следующее: b= Infinity Теперь включаем опцию /fpe:0 и /traceback и получаем ожидаемый exception : forrtl: error (73): floating divide by zero Image PC Routine Line Source test.exe 00F51050 _MAIN__ 5 test.f90 … Такие проблемы нам нужно убрать из нашего кода до начала следующего этапа, а именно, принудительной инициализации значениями SNaN с помощью опции /Qinit:snan,arrays /traceback (Windows) или -init=snan,arrays -traceback (Linux). Теперь каждый доступ к неинициализированной переменной приведёт к ошибке времени выполнения: forrtl: error (182): floating invalid - possible uninitialized real/complex variable. На простейшем примере: program test implicit none real a,b b = 1/a print *, 'b=', b end program test forrtl: error (182): floating invalid - possible uninitialized real/complex variable. Image PC Routine Line Source test.exe 00D01061 _MAIN__ 4 test.f90 … Немного слов о том, что это за диковинная опция init . Появилась она не так давно, а именно с версии компилятора 16.0 (напомню, что последняя версия компилятора на сегодня – 17.0), и позволяет инициализировать в SNaN следующие конструкции: Статические скаляры и массивы (с атрибутом SAVE) Локальные скаляры и массивы Автоматические (образуемые при вызове функций) массивы Переменные из модулей Динамически выделяемые (с атрибутом ALLOCATABLE) массивы и скаляры Указатели (переменные с атрибутом POINTER) Но есть и ряд ограничений, для которых init работать не будет: Переменные в группах EQUIVALENCE Переменные в COMMON блоке Наследуемые типы и их компоненты не поддерживаются, кроме ALLOCATABLE и POINTER Формальные (dummy) аргументы в функциях не инициализируются в SNaN локально. Тем не менее, фактические аргументы, передаваемые в функцию могут быть инициализированы в вызывающей функции. Ссылки в аргументах интринсик-функций и выражениях I/O Кстати, опция умеет не только инициализировать значения в SNaN , но и занулять их. Для этого нужно указать /Qinit:zero на Windows ( -init=zero на Linux), и будут инициализированы не только типы REAL/COMPLEX, но и целочисленные INTEGER/LOGICAL. Добавляя arrays , мы так же будем инициализировать массивы, а не только скалярные значения. Например, опции: -init=snan,zero ! Linux and OS X systems /Qinit:snan,zero ! Windows systems Инициализируют скаляры типов REAL или COMPLEX значением SNaN , а типы INTEGER или LOGICAL нулями. Следующий пример расширяет действие инициализации ещё и на массивы: -init=zero -init=snan –init=arrays ! Linux and OS X systems /Qinit:zero /Qinit:snan /Qinit:arrays ! Windows systems В прошлом Intel пытался реализовать подобный функционал через опцию -ftrapuv , но на сегодняшний день она не рекомендуется к использованию и устарела, хотя по задумке, тоже должна была инициализировать значения — не сложилось. Кстати, если вы работаете на сопроцессоре Intel Xeon Phi первого поколения (Knights Corner), то опция будет недоступна для вас, так как там нет поддержки SNaN . Ну и в конце, примерчик из документации, который мы скомпилируем на Linux со всеми предложенными опциями и найдём неинициализированные переменные в рантайме: ! ============================================================== ! ! SAMPLE SOURCE CODE - SUBJECT TO THE TERMS OF SAMPLE CODE LICENSE AGREEMENT, ! http://software.intel.com/en-us/articles/intel-sample-source-code-license-agreement/ ! ! Copyright 2015 Intel Corporation ! ! THIS FILE IS PROVIDED "AS IS" WITH NO WARRANTIES, EXPRESS OR IMPLIED, INCLUDING BUT ! NOT LIMITED TO ANY IMPLIED WARRANTY OF MERCHANTABILITY, FITNESS FOR A PARTICULAR ! PURPOSE, NON-INFRINGEMENT OF INTELLECTUAL PROPERTY RIGHTS. ! ! =============================================================== module mymod integer, parameter :: n=100 real :: am real, allocatable, dimension(:) :: dm real, target, dimension(n) :: em real, pointer, dimension(:) :: fm end module mymod subroutine sub(a, b, c, d, e, m) use mymod integer, intent(in) :: m real, intent(in), dimension(n) :: c real, intent(in), dimension(*) :: d real, intent(inout), dimension(*) :: e real, automatic, dimension(m) :: f real :: a, b print *, a,b,c(2),c(n/2+1),c(n-1) print *, d(1:n:33) ! first and last elements uninitialized print *, e(1:n:30) ! middle two elements uninitialized print *, am, dm(n/2), em(n/2) print *, f(1:2) ! automatic array uninitialized e(1) = f(1) + f(2) em(1)= dm(1) + dm(2) em(2)= fm(1) + fm(2) b = 2.*am e(2) = d(1) + d(2) e(3) = c(1) + c(2) a = 2.*b end program uninit use mymod implicit none real, save :: a real, automatic :: b real, save, target, dimension(n) :: c real, allocatable, dimension(:) :: d real, dimension(n) :: e allocate (d (n)) allocate (dm(n)) fm => c d(5:96) = 1.0 e(1:20) = 2.0 e(80:100) = 3.0 call sub(a,b,c,d,e(:),n/2) deallocate(d) deallocate(dm) end program uninit Сначала, компилируем с –fpe0 и запускаем: $ ifort -O0 -fpe0 -traceback uninitialized.f90; ./a.out 0.0000000E+00 -8.7806177E+13 0.0000000E+00 0.0000000E+00 0.0000000E+00 0.0000000E+00 1.000000 1.000000 0.0000000E+00 2.000000 0.0000000E+00 0.0000000E+00 3.000000 0.0000000E+00 0.0000000E+00 0.0000000E+00 1.1448686E+24 0.0000000E+00 Видно, что никаких исключений, связанных с операциями надо числами с плавающей точкой в нашем приложении нет, но есть несколько «странных» значений. Будем искать неинициализированные переменные с опцией init : $ ifort -O0 -init=snan -traceback uninitialized.f90; ./a.out NaN NaN 0.0000000E+00 0.0000000E+00 0.0000000E+00 0.0000000E+00 1.000000 1.000000 0.0000000E+00 2.000000 0.0000000E+00 0.0000000E+00 3.000000 NaN 0.0000000E+00 0.0000000E+00 1.1448686E+24 0.0000000E+00 forrtl: error (182): floating invalid - possible uninitialized real/complex variable. Image PC Routine Line Source a.out 0000000000477535 Unknown Unknown Unknown a.out 00000000004752F7 Unknown Unknown Unknown a.out 0000000000444BF4 Unknown Unknown Unknown a.out 0000000000444A06 Unknown Unknown Unknown a.out 0000000000425DB6 Unknown Unknown Unknown a.out 00000000004035D7 Unknown Unknown Unknown libpthread.so.0 00007FC66DD26130 Unknown Unknown Unknown a.out 0000000000402C11 sub_ 39 uninitialized.f90 a.out 0000000000403076 MAIN__ 62 uninitialized.f90 a.out 00000000004025DE Unknown Unknown Unknown libc.so.6 00007FC66D773AF5 Unknown Unknown Unknown a.out 00000000004024E9 Unknown Unknown Unknown Aborted (core dumped) Теперь видно, что на строчке 39 мы обращаемся к неинициализированный переменной AM из модуля MYMOD: b = 2.*am В этом коде есть и другие ошибки, которые я предлагаю найти самим с помощью компилятора Intel. Очень надеюсь, что данный пост будет полезен всем, кто пишет код на Фортране, и ваши приложения пройдут необходимые проверки на неинициализированные переменные ещё до выхода «в свет». На этом спасибо за внимание и до скорых встреч! Всех с наступающим Новым Годом!
https://habrahabr.ru/company/intel/blog/318494/
habrahabr
Вышел свободный видеотранскодер HandBrake 1.0.0
['обработка видео', 'HandBrake', 'ffmpeg', 'DVD', 'кодирование видео', 'декодирование видео']
После почти 13 лет группа разработчиков выпустила первую версию open source видеотранскодера HandBrake 1.0.0. HandBrake — популярная бесплатная программа для конвертирования и сжатия видео....
После почти 13 лет группа разработчиков выпустила первую версию open source видеотранскодера HandBrake 1.0.0. HandBrake — популярная бесплатная программа для конвертирования и сжатия видео. Кроссплатформенное приложение работает под Linux, macOS и Windows с графическим интерфейсом или из командной строки. Пожалуй, это лучшая программа в своём классе. Сложно найти хотя бы один видеотранскодер близкого качества, функциональности и с открытым кодом. Можно сказать, что это идеальная графическая оболочка для ffmpeg (кстати, команды ffmpeg можно изучать по логам HandBrake, это лучше мануала). Программа была доступна все эти годы, но только спустя 13 лет разработчики HandBrake решили, что она доросла до версии 1.0.0. Наверное, для них было чем-то вроде особенной гордости сохранять статус «бета» настолько долго, подчёркивая свой перфекционизм, несмотря на абсолютную стабильность и функциональность программы. Такое свойственно многим некоммерческим проектам. Кажется, почта Gmail тоже долгие годы по непонятной причине сохраняла статус бета-версии. Возможно, это делается также для удобства общения с пользователями и снятия с разработчиков некоей ответственности. При выявлении любого бага можно ответить: «Ну это же бета-версия». Есть некоторая ирония в том, что программы вышла из беты после того, как закончилось повсеместное использование DVD-дисков — носителей, для обработки которых в первую очередь и создавался этот видеотранскодер. Сейчас мало кто покупает видео на DVD, но программа HandBrake по-прежнему востребована, пусть и не так, как раньше. Кстати, её можно использовать даже для тестирования оперативной памяти в компьютере: она эффективно выявляет дефективные модули RAM . Если программа во время кодирования зависает в одном и том же месте — это означает проблему с дефективным модулем памяти. Даже если проблема с единственным битом. Ранние номера билдов вовсе не означают, что прежние версии программы были нестабильными. Они отлично работали и тогда (если память не сбоит). Но в версии 1.0.0 сделано несколько важных изменений. * Полное изменение дизайна предварительных профилей (пресетов) для транскодирования и сжатия видео, в том числе подготовленные опции для самых распространённых устройств. Профили старых версий HandBrake 0.10.x сохранены в самой нижней части списка профилей в разделе Legacy . HandBrake 1.0.0 для Mac * Поддержка свободных видеоформата VP9 и аудиформата Opus. * Поддержка аппаратного ускорения Intel QuickSync Video (QSV) для кодирования H.265/HEVC на процессорах Skylake, как в коммерческих видеотранскодерах . Аппаратное ускорение кодирования и декодирования значительно сокращает нагрузку на CPU и энергопотребление. Для поддержки аппаратного ускорения в графическом ядре на маленьком участке кристалла Intel размещаются специализированные интегральные схемы, которые занимаются только видео. Аппаратное ускорение декодирования видео доступно графическому драйверу через интерфейсы Direct3D Video API (DXVA2), Direct3d11 Video API или Intel Media SDK, а также через фильтры MFT (Media Foundation Transform). Аппаратное ускорение кодирования — только только через интерфейсы Intel Media SDK или фильтры MFT (Media Foundation Transform). При аппаратной поддержке на порядок возрастает скорость кодирования и декодирования, по сравнению с чисто программным. Например, в спецификациях последней версии QSV 5.0 с микроархитектурой ядра шестого поколения Skylake указана расчётная производительность декодирования видео при аппаратном ускорении более 16 одновременных потоков видео 1080p. Разработчики HandBrake подчёркивают , что никогда не получали ни цента от компании Intel. Эта фирма добровольно пожертвовала QSV-совместимый кодек для HandBrake, а исходный код HandBrake опубликован в открытом доступе. Если компания AMD изъявит желание поставить кодек для поддержки аппаратного ускорения в своих процессорах, то он тоже будет внедрён в свободный транскодер HandBrake (сначала AMD присылали патчи, но потом сменили курс). Разработчики HandBrake очень щепетильно относятся к таким этическим вопросам, в соответствии с идеологией Open Source. Из других улучшений: * Ассемблерная оптимизация кода позволила увеличить скорость фильтров до 10% и скорость кодировщика x264 на 10%, что реализовано в «быстрых» профилях. * В версии под Windows теперь можно поставить процесс кодирования на паузу, а затем продолжить. Размер инсталлятора и объём занимаемого места на диске в версии под Windows стали меньше. * Удалена поддержка аппаратного ускорения декодирования DirectX Video Acceleration (DVXA), потому что она вызывала много проблем. * Обновлены сторонние библиотеки, которые использует HandBrake. * Улучшенный рендеринг субтитров для некоторых языков. * Новая документация и менее технические руководства для новичков (пока в бете и на английском). Руководства для новичков содержат пошаговые инструкции для самых распространённых сценариев транскодирования, понятные даже тем, кто никогда не использовал подобное программное обеспечение. Скачать HandBrake 1.0.0 ( репозиторий на Github ). Старые версии HandBrake тоже сохранились на официальном сайте для тех, кто привык к старому интерфейсу и кому не нужна аппаратная поддержка на последних CPU. Мы попросили прокомментировать новость о выходе HandBrake 1.0.0 Фёдора Бушланова , менеджера по продуктам компании «Элекард», российского разработчика видеотранскодеров. — Многие обычные пользователи используют HandBrake, а известно ли вам, чтобы видеостудии или другие серьёзные коммерческие компании использовали его в профессиональной сфере? — Лично я о таком не слышал. Но это вполне возможно, так как файловое видеокодирование — это очень востребованная задача, что связано с ростом услуг типа «онлайн-кинотеатры» и подобных. — В этой версии реализована поддержка Intel QuickSync Video (QSV) для H.265/HEVC. Она отличается от такого же аппаратного ускорения в других транскодерах? Вообще, во всех транскодерах аппаратное ускорение работает одинаково или по-разному? По производительности и поддержке специфических функций QSV, вроде деинтерлейсинга, масштабирования видео, сжатия памяти без потерь для медиадвижка и т.д.? Всё это реализовано в железе, но поддерживается ли программными транскодерами? — Качество картинки нет, не отличается. Однако может отличаться скорость и набор функций. Скорость кодирования с использованием QSV сильно зависит от конкретной реализации поддержки Intel Media SDK, так как сама SDK предоставляет только низкоуровневый интерфейс (функции типа «кодируй вот этот кадр»), а сопутствующие вопросы типа буферизации, копирования памяти и прочего остаются на усмотрение приложения. Отсюда и разница в скорости, и отказоустойчивости ПО. — Насколько вам известно, востребовано ли у пользователей кодирование в VP9? Есть ли перспективы у свободного формата по сравнению с проприетарным H.265/HEVC? Кстати, разработчики программ или оборудования с поддержкой H.265/HEVC не делают отчислений правообладателю за использование этого кодека? — Для файлов — да, кодек VP9 востребован, а для живого вещания используются кодеки MPEG (AVC и HEVC). Перспективы у VP9 есть, но дело не столько в хорошем кодеке, сколько в закрепившихся на рынке компаниях производителях оборудования с поддержкой только MPEG, с одной стороны, и провайдерах потративших ОЧЕНЬ много денег на такое оборудование, с другой. Переманить их на сторону VP9 очень сложно — деньги уже вложены в MPEG. Примерно такая же история с попытками отказаться от углеводородного топлива, в том числе для двигателей автомобилей. Процесс движется, но очень медленно. Отчисления за HEVC и AVC делают производители конечного оборудования — кодеров, сеттопов и прочего. Эти отчисления составляют в среднем несколько процентов от стоимости оборудования, 0,1−5%, зависит от типа оборудования и объемов. В целом они не настолько значительные, чтобы производители из-за них сильно расстраивались.
https://geektimes.ru/post/284116/
habrahabr
Ростелеком закупает ПО Microsoft на 1,26 млрд рублей
['Ростелеком', 'Microsoft', 'лицензии', 'ПО', 'офисное ПО', 'госзакупка']
«Ростелеком» объявил о закупке 133 600 лицензий для продуктов Microsoft у своего поставщика — компании «Компарекс». По итогам тендера 2013 года «Компарекс» стала единственным поставщиком...
«Ростелеком» объявил о закупке 133 600 лицензий для продуктов Microsoft у своего поставщика — компании «Компарекс». По итогам тендера 2013 года «Компарекс» стала единственным поставщиком лицензий на ПО от Microsoft для госоператора, сообщают «Ведомости» . «Ростелеком» планирует потратить в ходе закупки 1,26 млрд рублей. В компании планируют закупить бессрочные лицензии на WinPro 8, Microsoft Exchange Server 2013, Microsoft Project Server, Lync Server 2013 Plus CAL (корпоративный мессенджер от MS) и другое ПО. Если сделка состоится, то она станет одной из крупнейших закупок программного обеспечения в госсекторе. Необходимо отметить, что «Компарекс» уже поставлял лицензии на ПО Microsoft для «Ростелекома» еще в 2013 году (тогда на программное обеспечение было потрачено 1,8 млрд рублей), но они истекли чуть более месяца назад, в конце ноября. С 1 января 2016 года законодательство ограничивает закупку иностранного ПО, принуждая компании отдавать предпочтение отечественным аналогам. Покупка иностранного программного обеспечения возможна только при условии отсутствия приемлемых аналогов в Едином реестре российских программ для электронных вычислительных машин и баз данных Минкомсвязи. При этом действия «Ростелекома» условно не противоречат законодательству. Госоператор не закупает новые лицензии, а, фактически, продлевает ранее приобретенные в 2013 году. При этом представитель компании указывает на то, что лицензии бессрочные, и это дает время компании «подумать о переходе на российские аналоги». Практически для всех позиций, по которым «Ростелеком» проводит закупку, существуют как российские, так и полностью свободные аналоги. К примеру, пакет ПО «Мой Офис» производства компании «Новые облачные технологии», дистрибуцией которого занимается сам «Ростелеком». Одной из причин выбора в пользу продуктов Microsoft называется громоздкость структуры госоператора и болезненность резкого перехода к другому производителю программного обеспечения.
https://geektimes.ru/post/284114/
habrahabr
Приходите и забирайте прототипы книг
['книги']
Доброго времени! У нас опять собрались на стеллаже зарубежные прототипы книг. Предлагаем прийти к нам и забрать их :) Наш адрес: Спб; Б. Сампсониевский пр., 29а ⬝ 8(800)500-42-17 ⬝...
Доброго времени! У нас опять собрались на стеллаже зарубежные прототипы книг. Предлагаем прийти к нам и забрать их :) Наш адрес: Спб; Б. Сампсониевский пр., 29а ⬝ 8(800)500-42-17 ⬝ [email protected] Желающие пишут здесь название книги, мы подписываем книгу логином и оставляем в холле издательства на первом этаже у охраны. Возможно забрать с 09-00 до 20-00 ч. Одному человеку — одна книга. Тем, кто не сможет прийти — электронная книга В.Ф. Сименса «Как я изобретал мир» в подарок .
https://habrahabr.ru/company/piter/blog/318550/
habrahabr
DNS-серверы ntp.org не доступны
['dns', 'ntp']
Не добрый день, коллеги по цеху. В текущий момент наблюдается недоступность DNS-серверов, отвечающих за зону ntp.org. С серверами pool.ntp.org синхронизируются миллиарды устройств по всему миру и...
Не добрый день, коллеги по цеху. В текущий момент наблюдается недоступность DNS-серверов, отвечающих за зону ntp.org. С серверами pool.ntp.org синхронизируются миллиарды устройств по всему миру и теперь они испытывают проблему в получении точного времени. Проблему увидели, когда пропали ответы через наши рекурсивные сервера, но еще можно было отрезолвить через Google Global DNS. Некоторое время назад ntp.org ушел и из кэша Google DNS. dmvy@dmvy-tn:~$ dig ntp.org @8.8.8.8 ... ;; QUESTION SECTION: ;ntp.org. IN A ;; ANSWER SECTION: ntp.org. 615 IN A 185.140.48.231 ntp.org. 615 IN A 128.4.24.98 ;; Query time: 45 msec ;; SERVER: 8.8.8.8#53(8.8.8.8) ;; WHEN: Tue Dec 27 14:16:14 +05 2016 ;; MSG SIZE rcvd: 68 dmvy@dmvy-tn:~$ dig ntp.org @8.8.8.8 ... ;; QUESTION SECTION: ;ntp.org. IN A ;; Query time: 29 msec ;; SERVER: 8.8.8.8#53(8.8.8.8) ;; WHEN: Tue Dec 27 14:20:09 +05 2016 ;; MSG SIZE rcvd: 36 Список серверов для зоны ntp.org: dmvy@dmvy-tn:~$ whois ntp.org Domain Name: NTP.ORG ... Name Server: NS1.EVERETT.ORG Name Server: NS2.EVERETT.ORG Name Server: NS1.NTP.ORG Name Server: NS2.NTP.ORG DNSSEC: unsigned >>> Last update of WHOIS database: 2016-12-23T14:36:59Z <<< Получаем из кэша 8.8.8.8 запись на первый сервер dmvy@dmvy-tn:~$ dig NS1.EVERETT.ORG @8.8.8.8 ... ;; QUESTION SECTION: ;NS1.EVERETT.ORG. IN A ;; ANSWER SECTION: NS1.EVERETT.ORG. 911 IN A 66.220.13.229 ;; Query time: 44 msec ;; SERVER: 8.8.8.8#53(8.8.8.8) ;; WHEN: Tue Dec 27 14:15:01 +05 2016 ;; MSG SIZE rcvd: 60 Удивительно, но сервер начал отвечать на icmp (возможно это баланасировщик аппаратный, т.к. на udp/53 ответов нет). dmvy@dmvy-tn:~$ mtr -wrc2 66.220.13.229 Start: Tue Dec 27 14:23:41 2016 HOST: dmvy-tn Loss% Snt Last Avg Best Wrst StDev 1.|-- 192.168.98.1 0.0% 2 0.8 0.8 0.8 0.8 0.0 2.|-- ??? 100.0 2 0.0 0.0 0.0 0.0 0.0 3.|-- 192.168.90.14 0.0% 2 0.5 0.4 0.3 0.5 0.0 ... 8.|-- 217.107.68.25 0.0% 2 49.0 49.0 49.0 49.1 0.0 9.|-- 100ge12-2.core1.sto1.he.net 0.0% 2 47.7 47.7 47.7 47.7 0.0 10.|-- 100ge12-1.core1.fra1.he.net 0.0% 2 73.1 73.3 73.1 73.5 0.0 11.|-- 100ge5-2.core1.par2.he.net 0.0% 2 77.1 78.6 77.1 80.0 2.0 12.|-- 100ge10-1.core1.nyc4.he.net 0.0% 2 156.4 153.4 150.5 156.4 4.1 13.|-- 100ge14-2.core1.sjc2.he.net 50.0% 2 216.7 216.7 216.7 216.7 0.0 14.|-- 10ge1-1.core1.fmt1.he.net 0.0% 2 218.4 222.1 218.4 225.8 5.2 15.|-- ns1.everett.org 0.0% 2 218.7 218.6 218.6 218.7 0.0 dmvy@dmvy-tn:~$ dig ntp.org @66.220.13.229 ; <<>> DiG 9.10.3-P4-Ubuntu <<>> ntp.org @66.220.13.229 ;; global options: +cmd ;; connection timed out; no servers could be reached По ipv6 сервера также недоступны. UPD: Начал работать NS1.EVERETT.ORG. Остальные 3 сервера не отвечают. Вывод команды dig dmvy@dmvy-tn:~$ dig ntp.org @NS1.NTP.ORG ; <<>> DiG 9.10.3-P4-Ubuntu <<>> ntp.org @NS1.NTP.ORG ;; global options: +cmd ;; connection timed out; no servers could be reached dmvy@dmvy-tn:~$ dig ntp.org @NS2.NTP.ORG ; <<>> DiG 9.10.3-P4-Ubuntu <<>> ntp.org @NS2.NTP.ORG ;; global options: +cmd ;; connection timed out; no servers could be reached dmvy@dmvy-tn:~$ dig ntp.org @NS1.EVERETT.ORG ; <<>> DiG 9.10.3-P4-Ubuntu <<>> ntp.org @NS1.EVERETT.ORG ;; global options: +cmd ;; Got answer: ;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 6021 ;; flags: qr aa rd; QUERY: 1, ANSWER: 2, AUTHORITY: 2, ADDITIONAL: 5 ;; WARNING: recursion requested but not available ;; OPT PSEUDOSECTION: ; EDNS: version: 0, flags:; udp: 4096 ;; QUESTION SECTION: ;ntp.org. IN A ;; ANSWER SECTION: ntp.org. 3600 IN A 185.140.48.231 ntp.org. 3600 IN A 128.4.24.98 ;; AUTHORITY SECTION: ntp.org. 3600 IN NS ns2.everett.org. ntp.org. 3600 IN NS ns1.everett.org. ;; ADDITIONAL SECTION: ns1.everett.org. 1800 IN AAAA 2001:470:1:205::229 ns2.everett.org. 1800 IN AAAA 2001:470:1:205::230 ns1.everett.org. 1800 IN A 66.220.13.229 ns2.everett.org. 1800 IN A 66.220.13.230 ;; Query time: 216 msec ;; SERVER: 2001:470:1:205::229#53(2001:470:1:205::229) ;; WHEN: Tue Dec 27 14:59:32 +05 2016 ;; MSG SIZE rcvd: 200 dmvy@dmvy-tn:~$ dig ntp.org @NS2.EVERETT.ORG ; <<>> DiG 9.10.3-P4-Ubuntu <<>> ntp.org @NS2.EVERETT.ORG ;; global options: +cmd ;; connection timed out; no servers could be reached Трассировка до ns2.everett.org ipv4 и ipv6 dmvy@dmvy-tn:~$ mtr -wrc2 ns2.everett.org Start: Tue Dec 27 15:03:22 2016 HOST: dmvy-tn Loss% Snt Last Avg Best Wrst StDev 1.|-- 2b00:8b00:a:1::1 0.0% 2 0.8 1.0 0.8 1.2 0.0 ... 6.|-- 2b01:620:1:8::1 0.0% 2 72.3 36.4 0.5 72.3 50.8 7.|-- fe80::2a0:a50f:fc85:4fc0 0.0% 2 63.4 65.2 63.4 67.0 2.4 8.|-- 40ge1-3.core1.lon2.he.net 0.0% 2 93.1 90.5 87.9 93.1 3.6 9.|-- 100ge6-1.core1.lon2.he.net 0.0% 2 160.2 123.9 87.6 160.2 51.3 10.|-- 100ge14-2.core1.sjc2.he.net 0.0% 2 230.1 224.3 218.4 230.1 8.2 11.|-- 10ge1-1.core1.fmt1.he.net 0.0% 2 218.9 218.9 218.9 218.9 0.0 12.|-- 10ge1-1.core1.fmt1.he.net 0.0% 2 232.0 226.5 221.1 232.0 7.7 13.|-- ??? 100.0 2 0.0 0.0 0.0 0.0 0.0 dmvy@dmvy-tn:~$ ip -6 ro del default RTNETLINK answers: Operation not permitted dmvy@dmvy-tn:~$ sudo ip -6 ro del default dmvy@dmvy-tn:~$ mtr -wrc2 ns2.everett.org Start: Tue Dec 27 15:03:50 2016 HOST: dmvy-tn Loss% Snt Last Avg Best Wrst StDev 1.|-- 192.168.98.1 0.0% 2 0.8 0.8 0.8 0.9 0.0 2.|-- ??? 100.0 2 0.0 0.0 0.0 0.0 0.0 3.|-- 192.168.90.14 0.0% 2 0.5 0.5 0.4 0.5 0.0 ... 8.|-- 217.107.68.25 0.0% 2 54.8 55.2 54.8 55.5 0.0 9.|-- 100ge12-2.core1.sto1.he.net 0.0% 2 53.9 54.9 53.9 55.9 1.4 10.|-- 10ge12-6.core1.ams1.he.net 0.0% 2 80.1 86.5 80.1 92.9 8.9 11.|-- 100ge9-1.core1.lon2.he.net 0.0% 2 90.5 90.8 90.5 91.1 0.0 12.|-- 100ge1-1.core1.nyc4.he.net 0.0% 2 157.3 158.1 157.3 158.8 1.0 13.|-- 100ge14-2.core1.sjc2.he.net 0.0% 2 214.0 215.7 214.0 217.4 2.2 14.|-- 10ge1-1.core1.fmt1.he.net 0.0% 2 225.8 225.9 225.8 225.9 0.0 15.|-- ??? 100.0 2 0.0 0.0 0.0 0.0 0.0
https://habrahabr.ru/post/318556/
habrahabr
Интерактивная таблица результатов
['javascript', 'визуализация данных', 'спорт']
Глядя на таблицу результатов футбольного сезона, я часто задаюсь вопросами: Лидировала ли команда с начала сезона или совершила героический рывок в конце? Как зимнее трансферное окно повлияло...
Глядя на таблицу результатов футбольного сезона, я часто задаюсь вопросами: Лидировала ли команда с начала сезона или совершила героический рывок в конце? Как зимнее трансферное окно повлияло на результаты? Доигрывали ли сезон команды в середине таблицы или играли в полную силу? Статичная таблица не даёт ответов. Поиски удачной визуализации сезона на просторах интернета закончились безуспешно, поэтому я начал экспериментировать сам. Графики или быстро теряли читаемость с ростом количеством команд, или требовали нетривиальной концентрации при первом контакте. В итоге, всё закончилось тем, с чего началось — таблицей. Точнее, скриптом, который преобразовывает результаты сезона в интерактивную таблицу. Можно посмотреть результаты после любого тура или просто нажать на replay и наблюдать, как команды плавают вверх и вниз по таблице: → Живая демонстрация Входные данные Найти результаты любого хоть сколь-нибудь популярного чемпионата не проблема, спасибо огромной букмекерской индустрии. Для демонстрации я возьму результаты матчей английской Премьер-лиги на Football Data : Date Home Team Score Away Team Score August 8, 2015 Bournemouth 0 Aston Villa 1 August 8, 2015 Chelsea 2 Swansea 2 August 8, 2015 Everton 2 Watford 2 ... ... ... ... ... Скрипт парсит csv-файл, преобразовывает данные в удобные для представления javascript-объекты и добавляет дополнительную информацию —например, количество побед, ничей и поражений после каждого тура. Использование Подключаем стили в head : <link rel="stylesheet" type="text/css" href="cdn.jsdelivr.net/replay-table/latest/replay-table.css"> Добавляем скрипт в конец body : <script type="text/javascript" src="//cdn.jsdelivr.net/replay-table/latest/replay-table.min.js"></script> Помещаем на страницу div с классом replayTable и ссылкой на csv-файл в атрибуте data-csv : <div class="replayTable" data-csv="https://s3-us-west-2.amazonaws.com/replay-table/csv/football/england/premier-league/2015-2016.csv" data-table-name="Premier League" data-input-type="listOfMatches" data-item-name="Team" data-use-rounds-numbers="true" </div> Готово: Настройка Внимательный читатель уже заметил data- атрибуты. С их помощью таблица адаптируется под разные виды спорта, локализируется и меняет внешний вид. Подробная документация есть на Гитхабе . Я постарался сделать так, чтобы скрипт без доработки можно было использовать для как можно большего числа видов спорта. На сайте таблиц есть примеры вместе с исходным кодом: Формула 1 , где не бывает результатов матчей. NBA , где важно не количество очков, а доля побед. Спортивная версия «Что? Где? Когда?» с таблицей на русском. Лицензия Используйте таблицы на любых сайтах, в том числе коммерческих. → Код на Гитхабе . Спасибо Даше за красоту.
https://habrahabr.ru/post/318558/
habrahabr
Как выбрать страну для выхода на международный рынок и протестировать спрос
['стартап', 'международный рынок', 'b2b', 'b2c', 'венчурные инвестици', 'customer development', 'аналитика']
Серию материалов по итогам конференции Russian Startups Go Global открываем статьей, как выбрать страну для выхода на международный рынок. Нет смысла давать советы, не зная специфики стартапа:...
Серию материалов по итогам конференции Russian Startups Go Global открываем статьей, как выбрать страну для выхода на международный рынок. Нет смысла давать советы, не зная специфики стартапа: его бизнес-модели, отрасли, стадии, компетенций команды. Поэтому под катом вы не найдете каких-либо универсальных рекомендаций — только истории из опыта основателей, ИТ-компании которых уже работают на рынках других стран. В разговоре с ними мы попытались выяснить, по каким критериям основатели выбирают страну для масштабирования, как тестируют спрос, и не мешает ли им разница в менталитетах. Дмитрий Зарюта, CEO и основатель Easy Ten: Easy Ten на текущий момент — b2c, выручка порядка $1,7 млн в год, мобильное приложение №3 на iOS в категории language learning в мире. С помощью сервиса более 3 млн пользователей в 140 странах учат слова на 7 языках, приложение локализовано на 12 языков мира. Выпускник акселераторов ФРИИ и 500 startups. «Прежде чем выходить на международный рынок, мы задавали себе два вопроса: «Зачем мы это делаем?» и «Как мы это сделаем?» . На мой взгляд, на первый вопрос есть два адекватных ответа: Заработать денег; Поднять инвестиции. Мы работали на обе цели. Если в планах компании привлечь инвестиции в США, нужно показать местным инвесторам, что на этом рынке команда умеет работать и расти — желательно иметь продажи и трекшен по ключевым метрикам. Но сегодня расскажу больше про пункт №1. Выходить на рынок, чтобы заработать денег — значит инвестировать сумму N и получить бОльшую сумму через какое-то время. По сути нужно свести unit-экономику в каналах (зарабатывать на клиенте больше, чем стоит его привлечение). Ответы «мы выходим на рынок другой страны, потому что в России кризис» или «потому что там рынок больше» — довольно опасные: непонятно, что именно мы будем делать для достижения цели, и на основе каких критериев мы принимаем решение выходить на рынок именно этой страны. Для этого сначала необходимо проверить спрос на продукт — с помощью данных аналитики и customer development: Посмотреть конкурентов и их цифры; Поговорить с людьми из страны и желательно экспертами с рынка; Посмотреть органические установки в стране и рассчитать потенциал рынка. В нашем случае для проверки спроса в стране нужно было знать основной язык жителей, интересно ли им изучение ещё какого-либо языка, и далее — проверять гипотезу, что Easy Ten решает проблему изучения языка для этих людей. Мало ориентироваться на результаты customer development (изучения потребителей с помощью интервью) — важно обладать данными аналитики. Два года назад, чтобы выбрать страну, мы на месяц затаились: не тратили деньги на маркетинг, но вложились в ASO . С его помощью мы получили достаточное количество трафика для новых установок и наблюдали за тем, как ведут себя пользователи: считали показатели удержания, средний чек, время жизни пользователя, конверсии. У нас уже был трекшен в России, данные по конверсии в первую, вторую и третью покупки, показатели по удержанию пользователей. Сравнив показатели в России с показателями органических установок в разных странах, мы могли смотреть и прогнозировать, рынок какой страны наиболее интересен. На основе этих данных обнаружили, что активность пользователей больше всего в Бразилии — даже больше, чем в России. Поэтому мы начали с Бразилии — в этой стране проходила Олимпиада: люди начали готовиться к ней за несколько лет, в том числе учить английский. Мы локализовали наше приложение на ряд языков, в том числе на португальский, и вышли на soft-launch. Вложившись в маркетинг по Бразилии, уже через два месяца мы вышли в плюс на этом рынке. Сейчас Бразилия занимает 30% нашей выручки, после неё идут Франция, Испания, Португалия и Германия. Среди этих стран нет США — казалось бы, это самый крупный рынок в мире в сегменте мобайл, но аудитория не наша: там нет ярко выраженного интереса к языкам, нет такой проблемы и потребности. Выучить новый язык для американцев — хобби, которым можно впечатлить друзей. Знания английского американцам вполне достаточно. Как мы выходим на новые рынки: закупаем трафик для своего приложения, например, во Франции или Германии, и в течение первых трех месяцев смотрим, сколько людей совершили первую покупку, сколько из них — вторую и третью. Зная свои внутренние показатели на основном рынке по трем точкам, можно аппроксимировать кривую ухода пользователя и понять его Lifetime Value c достаточно большой точностью. Таким образом мы понимаем, сколько времени нужно, чтобы вложения в трафик отбились, и когда по unit-экономике мы выйдем в плюс на этом рынке. Дальше уже дело техники: с этими цифрами можно идти к инвестору, можно в банк. Вы с большой точностью знаете, что на Х вложенных денег вы получите N*X через Y времени. Это является основой безопасного выхода b2c-продукта на рынок. Важно дополнять данные аналитики интервью с пользователями и экспертами рынка. Когда мы попали в 500 Startups, наш изначальный план был — выйти в Мексику. Наше приложение было с фокусом на iOS, мы купили там первый трафик в основном канале привлечения пользователей — Facebook. Эта социальная сеть очень популярна в Мексике, поэтому можно было дешево посмотреть по установкам и конверсиям, сработает ли в Facebook то, что сработало в Бразилии. Когда мы увидели, что показатели Мексики отличаются, мы начали опрашивать экспертов. Через 500 Startups мы вышли на эксперта в Мексике, которому задали вопрос «как вообще с изучением английского у мексиканцев?». Оказалось, что большой процент владельцев iPhone в Мексике уже знают английский, им изучение языка не нужно. А мексиканцы, которым нужен английский, не могут себе позволить платить за него: у них нет iPhone, они пользуются дешевыми смартфонами на Андроид, где наша экономика не будет сходиться. После часового разговора мы поняли, что Мексика для нас не приоритет, и переориентировались на Европу. Поэтому важно найти человека, который сможет подсказать — это сэкономит время основателей. Наш вывод: есть два пути подтверждения спроса на международном рынке и масштабирования. Разработка продукта под аудиторию и рынок. Это достаточно долго и дорого. Сделать продукт, локализовать его под большинство возможных аудиторий и смотреть, какая в итоге отреагирует лучше всего. Мы пошли по второму пути. Это гораздо дешевле и по сути проще разработки продукта под воображаемого основателями идеального пользователя. Лучше зарелизить продукт как можно раньше на как можно более широкую аудиторию и посмотреть, кто же тот самый пользователь, для которого мы создали ценность». Даниил Бродович, CEO Cookstream и CPO Just: Начинали с сегмента b2c с TalkToChef, компания работает по всему миру на английском и испанском языках. Выпускник Startup Next и акселераторов Founders Space и Start-Up Chile. Сейчас сфокусировались на b2b — Cookstream работает на рынках США, ОАЭ, Европы. «Мы стартовали в США, потому что вместе с другими основателями обучались в бизнес-школе в Сан-Франциско. Одна из идей, возникших во время обучения, застряла в нашей голове — это были видеотрансляции на разные темы, кулинария была одной из них. Мы решили проверить потенциал идеи на Startup weekend — и выиграли. В отличие от хакатона, когда ты за два дня делаешь прототип для голой идеи, условие победы на этом мероприятии — первые клиенты и результаты интервью с ними. В процессе этого мероприятия мы уже начали делать customer development, а продолжили в программе Startup Next Стива Бланка — отца-основателя этой методологии. Стив Бланк посчитал нашу идею слишком нишевой и предложил нам посмотреть шире, какие проблемы есть на рынке. В процессе общения с потенциальными клиентами на интервью мы нашли огромное количество проблем, связанных с дистанционными консультациями и обучением по кулинарии. Проблемы с доставкой еды, с очередями в ресторанах, проблемы поиска профессиональных шеф-поваров на кулинарные мастер-классы и в рестораны. Всё это мы начали собирать в наш продукт. Воодушевившись этим пластом нерешённых проблемы, мы решили совершить революцию в кулинарии. Наша главная ошибка была в том, что мы замахнулись одним махом решить все проблемы. Только разработка минимального продукта под нашу глобальную идею заняла пять месяцев. За это время отвалилась часть команды, потенциальные инвесторы. В итоге столкнулись с двумя препятствиями: Недостаток бюджета на реализацию глобальной идеи; Расфокусированность мешала нашим потенциальным клиентам понять, для чего продукт нужен и какую проблему решает. Показатели бета-версии были посредственные. Стив Бланк не успел нам рассказать, что надо сфокусироваться на одной проблеме и решить ее лучше всех на рынке. Но мы поняли это на собственном опыте — поэтому начали искать конкурентное преимущество нашего продукта, которого нет ни у кого другого. Поняли, что самая востребованная функция — горячая линия с экспертами по видеосвязи, и первым сегментом были шеф-повара и любители кулинарии. Мы с тяжелым сердцем выкинули все наши наработки и сфокусировались на этой ценности. Переупаковав продукт под эту проблему, мы привлекли инвестиции. Но это отдельная история, о которой расскажем в следующей статье. По поводу проверки спроса на основе собственного опыта могу сказать, что фаундеры должны изучать своих клиентов сами. Я против аутсорса customer development в любом его виде каким-либо сотрудникам. Да, сотрудники могут выступать вспомогательной силой — всё сделать самому невозможно. У нас были американские сотрудники, которые помогали с изучением потребителей некоторое время, но ценности или инсайтов, которые мы бы не смогли понять сами, мы от них не получили. Когда основатель начинает с нуля, у него абсолютно нет предубеждений по поводу рынка (кроме тех, что он прочитал в статьях). Это одновременно и минус, и плюс для изучения потребителей. Мы понимали, что кулинарные шоу пользуются большой популярностью (их смотрят 105 млн американских семей каждую неделю), видели статистику по людям, которые хотят научиться готовить. И мы пытались понять, как именно они хотят учиться, удобно ли наше решение, насколько для них актуально общаться с экспертом по видеосвязи. Такого рода вопросы мы могли проверить самостоятельно — у нас был свободный английский и базовое понимание калифорнийской культуры, которая отличается от других штатов: калифорнийцы открыты к инновациям, хорошо относятся к иммигрантам, готовы помогать и поддерживать в начинаниях. Тем не менее, привычки потребления можно не знать, даже прожив какое-то время в США. Мы столкнулись с проблемой разницы в потребительских предпочтениях: сложно понять, чем живут калифорнийцы и насколько им действительно интересен продукт, о котором они говорят «супер». В Калифорнии, в отличие от Москвы или Нью-Йорка, даже на полный бред люди будут говорить, «класс, как интересно, я обязательно попробую или куплю» — это простая вежливость, а не реальный интерес. Поэтому Стив рекомендовал сразу собирать чеки и считать покупкой только момент предоплаты. Для customer development было достаточно нашего уровня интеграции в среду. Но для маркетингового продвижения b2c-продукта на американском рынке, на мой взгляд, лучше привлекать местных экспертов — чтобы понимать менталитет и наращивать скорость. Можно и самим попробовать, но ошибки будут неизбежны. Также «проамериканизироваться» можно достаточно быстро, если много лет жить в США и общаться в среде американцев, не иммигрантов. Для нас спасением стала работа через индустриальных партнёров — американских компаний с опытом работы на рынках профессиональных консультаций (репетиторы, юристы, врачи и т.д.) и пониманием их особенностей. Заставить людей переключиться с существующего поведения на новое — очень тяжело. Чтобы сломать привычную модель поведения, нужны: «сильное» позиционирование, лидеры мнений, база «ранних последователей», правильные шаги по выходу на рынок. Выстроить всё это самостоятельно на новом рынке займёт много времени, денег и сил. Местные партнёры с опытом работы на рынке выстроили эффективный план выхода: взяли узкую нишу глухонемых и их родителей и за счёт своего успешного опыта смогли предлагать продукт университетам как способ по увеличению успеваемости их студентов. До такой модели мы бы не дошли сами — нам сложно представить активную и платёжеспособную ассоциацию глухонемых и университеты, которые готовы платить за репетиторов для студентов. Но в США продукт постепенно приобретает популярность и выходит из нишевого в массовый. Специфика рынка США сильно отличается от нашего: есть огромное количество игроков, которые решают всевозможные проблемы за тебя. Американский потребитель должен за секунды понимать, какая миссия у компании и какую ценность даёт продукт. Дикая конкуренция за внимание и кошелёк людей требует от основателей сходу чувствовать, какие 5-7 слов донесут смысл до клиента максимально чётко, чтобы он захотел потратить минутку на изучение продукта. Когда интерес пользователя привлечён, необходимо рассказать, кто мы и почему наш продукт должен вызвать доверие. Выход на иностранные рынки может и не получиться с первого раза. Наша компания при запуске в США с нуля пережила четыре пивота, прежде чем пришла к рабочей бизнес-модели. Главное — пробовать до тех пор, пока не получится решить значимую проблему на рынке. И помнить, что проблемы могут отличаться в разных странах: часто проблема в одной стране может не существовать в другой — нет такой потребности вовсе или она уже решена другими игроками». Майк Меланьин, сооснователь Statsbot: Statsbot на текущий момент — 25 000 b2b-пользователей, 80% из которых в США, выпускник 500 startups и Betaworks Bootcamp. «Мы делаем аналитического бота для Slack, первую версию продукта запустили в декабре 2015 года. Запуск на рынок начали с распространения информации по комьюнити — первых пользователей привлекали из открытых тематических Slack-каналов, из групп в Facebook. Мы сразу ориентировались на глобальный рынок, поэтому Statsbot изначально был на английском. Постоянно переписывались с заинтересованными людьми по электронной почте, задавали вопросы. Официально мы запустились в январе 2016 года, после запуска магазина приложений от Slack и доработки продукта по итогу обратной связи от первых пользователей и команды Slack. Тогда же вышли на Product Hunt, где получили полторы тысячи установок Statsbot за два дня с момента официального запуска, и другие открытые и бесплатные площадки. Таким способом мы набирали пользовательскую базу, чтобы получить доступ к компаниям и иметь по ним реальные цифры. Локально мы на тот момент находились в России. Рынок США выбрал нас, а не мы выбрали его — по итогам тестирования первой версии продукта и данных аналитики, собранных после официального запуска, стало понятно, что основная масса пользователей сосредоточена именно там. Преимущество рынка США — аудитория там гораздо легче идёт на контакт, чем в России, готова пробовать новые продукты и платить за них. Определившись с целевым рынком, мы начали выходить на личное общение с пользователями. Customer development как инструмент проверки спроса уже стал ругательным словом в России. Конечно, мы много общались с первыми пользователями, в том числе и встречались лично, когда уже поехали в США. Спустя почти год могу сказать, что изучать своего клиента необходимо, но слушать его лучше как бы сквозь пальцы: люди говорят одно, делают другое, а платят за третье. Лучше показывать клиенту рабочий продукт и смотреть аналитику, чем слушать галлюцинации людей». Константин Дубинин, CEO и основатель Countbox: Countbox на текущий момент — b2b, офисы в Москве, Чикаго и Дублине и представители по всему миру, выручка около 50 млн рублей за 2015 год. «Продавать за рубежом начал в 2014 году, нанял в Москве человека с хорошим уровнем английского, который продавал за рубеж в b2b через реселлеров. Нанять человека из России и пытаться продавать через холодные звонки, письма, LinkedIn, выставки — на мой взгляд, лучшая стратегия мониторинга рынка и проверки спроса, это дешево (человека с хорошим уровнем английского даже в Москве можно нанять за 50 тысяч рублей). Были некоторые проблемы, связанные с выходом на новый рынок: плохой английский перевод продукта, непрофессиональная лексика. Мы не понимали, кто принимает решение в компаниях наших клиентов, тратили кучу времени на неверные активности. Например, пытались продавать клиентским сегментам, которые покупают у нас в России. Но за границей у них не было потребности в нашем продукте. Тем не менее, на мой взгляд, гораздо дешевле было потратить время на изучение этих проблем, находясь в России, чем запускать офис за границей. В 2015 году, заплатив $1500 за год, мы стали членами ассоциации ICSC (Международный совет торговых центров) и получили доступ к базе данных наших потенциальных клиентов. Это помогло нам понять, что американский рынок для нас самый большой, а значит — перспективный: в США есть более 4 млн локаций, где мы можем установить наш продукт. На тот момент у нас только начались первые продажи. В b2b секторе при продаже часто просят личную встречу. Когда накапливается критическая масса таких запросов — пора открывать офис. В итоге в начале 2015 года мы открыли офис в Чикаго — там жил мой сооснователь. В 2016 году мы открыли офис в Дублине — это было условием привлечения денег от второго инвестора, государственного фонда Ирландии Enterprise Ireland. До этого Европа была для меня тёмным пятном, этот рынок казался мне маленьким и неинтересным. Инвестор убедил меня, что это большой рынок, где на наши продукты будет спрос. Я послушал профессионалов, которые работали на этом рынке всю жизнь. И не пожалел: оказалось, что в Европе бизнес вести проще, чем в США. В Европе люди открыты к диалогу и ко всему новому, готовы слушать, что ты им говоришь. Только критиковать не умеют — англичане вообще никогда не говорят «нет», в этом их беда. И беда предпринимателю, если он не научился это скрытое «нет» распознавать на ранней стадии. В Северной Америке и Европе очень сильные профсоюзы, они формируют ассоциации. Если в планах команды стартапа работать в какой-то индустрии в этих регионах, важно познакомиться с ассоциациями, чтобы оценить рынок. Мы вступали в разные группы, открывали диалоги на профессиональном уровне с потенциальными клиентами, партнерами и конкурентами, смотрели, кто и как развивается. Очень важно смотреть, есть ли на рынке конкуренты, даже если они косвенные, потому что это означает возможность преуспеть на этом рынке. А если у стартапа есть очевидные преимущества перед конкурентами, которые легко объяснить и продемонстрировать потенциальным покупателям, то одержать победу гораздо проще. Создавать рынок для продукта с нуля гораздо сложнее, чем выходить на уже готовый. Проще найти рынок, где кто-то уже этим занимается. Например, в Белоруссии я не работаю, потому что там нет моего рынка, конкурентов. Скажем, если компания производит медицинские аппараты/оборудование, гораздо проще выходить в те страны, где больше госпиталей и медицина дороже, чем в те, где медицина на низком уровне и нет технологий. У меня сейчас появляются новые продукты, которые я хочу тестировать на новых рынках. «Песочницей» станет Великобритания, потому что она близко от Ирландии, там говорят на английском, и мне с англичанами удобно работать. На конференции Russian Startups Go Global мы узнали о возможности получить поддержку от посольства Великобритании, для этого они готовы сделать исследование рынка за их счет. Для меня удобно взять рынок близкой мне страны, протестировать на нем продукты, получить обратную связь от первых клиентов. Совершать ошибки лучше на не самом большом и перспективном рынке, чтобы иметь возможность их исправить и при выходе на более перспективный рынок не допускать оплошностей». Сергей Климентьев, BizDev и основатель Texel: Texel на текущий момент — сегмент b2b, 3D-сканеры компании сейчас продаются во Франции, Германии, Австрии, Греции, Испании, Саудовской Аравии, Китае. Выручка $320k за второе полугодие 2016. «Сделав первые продажи в России, мы переключились на Европу. Сейчас клиенты есть в Европе и в Китае (Гонконг и Макао). Также работаем над странами Ближнего Востока и Латинской Америки — с Катаром, Саудовской Аравией, Мексикой. Начали с Европы мы по простой причине — это близко к России: у нас «железный» проект, и логистика оказывает определенное влияние на регион присутствия. Думали, куда выходить после Европы — в США или в Китай. Второй по объему рынок в нашем сегменте — США, но вышли в итоге в Китай. В какой-то степени это решение приняли за нас наши клиенты — сами вышли на нас, посмотрев ролик о продукте на YouTube. Мы стараемся произвести высокотехнологичный продукт, который говорит сам за себя, в этом плане мы разделяем точку зрения Илона Маска: лучше потратить деньги на продукт, чем на маркетинг. Технические характеристики продукта без затрат на маркетинг привлекают к нему внимание. О нас написали несколько журналистов в цитируемых международных изданиях по 3D-печати и 3D-сканированию, мы победили в конкурсе Seedstars в России. Forbes вышел на нас сам, ещё одному журналисту нас представили Seedstars. На Slush главный редактор TechCrunch попросил прислать ему его отсканированную 3D-модель. С этих событий и началось наше развитие в Европе, а закрепили его выставки и дальнейшее развитие дистрибьюторской сети. Таким образом информацию о продукте мы стараемся органически доносить до новых клиентов за счёт онлайн-присутствия практически на всех ресурсах по 3D-печати и 3D-сканированию, а также о стартапах. Клиенты, которые делают исследование рынка и находят информацию о нас, понимают, что наше решение по ключевым показателям (скорость сканирования, скорость обработки, стоимость, наличие доп. функций — 3D-фото, анимация) является на порядок лучше конкурентов, и решают его приобрести. Если подытожить, то страны для дальнейшего продвижения продукта мы выбираем, опираясь на запросы клиентов. Получаем эти запросы по итогам публикаций в СМИ и участия в международных выставках, таких как Formnext Frankfurt, Siggraph, CES. Не так давно о нас узнали клиенты из Катара, Саудовской Аравии, Мексики — поэтому сейчас мы работаем над выстраиванием сети дистрибуции в этих странах». Краткое резюме Для проверки спроса на зарубежных рынках основатели используют: Цифры по конкурентам и рынку (в том числе, полученные от профильных ассоциаций и профсоюзов, официальных отчетов); Онлайн-площадки, где можно бесплатно разместить информацию о продукте (такие как Product Hunt), и обратную связь от пользователей с этих площадок; Данные аналитики — по органическим установкам продукта: показатели удержания, средний чек, время жизни пользователя, конверсии в покупку; Международные выставки и публикации в СМИ, по итогам которых основатели собирают запросы потенциальных клиентов; Результаты customer development — интервью с потенциальными клиентами и экспертами рынка; Холодные звонки и письма потенциальным клиентам в другой стране. Факторы, которые повлияли на выбор основателями страны для выхода за рубеж: Из страны приходит больше запросов потенциальных клиентов, чем из других стран; Есть конкуренты в стране — рынок готов для продвижения продукта; У основателя или инвестора есть экспертиза по выходу на рынок страны; У основателя или инвестора есть понимание менталитета и культуры потребления в стране; Страна удобна для выхода с точки зрения логистики; Большой (=перспективный) рынок. Ну и по итогам общения с основателями мы еще раз убедились, что для выхода на международный рынок в первую очередь необходимы те же две вещи, что и для запуска стартапа в России: У потенциальных клиентов в стране есть проблема, которую решает продукт; У продукта есть явные конкурентные преимущества перед альтернативами решения проблемы на рынке страны. В следующих материалах основатели поделятся своим опытом привлечения инвестиций от зарубежных инвесторов, найма команды для выхода на международный рынок и тестирования каналов привлечения клиентов в других странах. Если есть и другие аспекты по выходу стартапа на рынки других стран, которые мы можем осветить в статьях, — предлагайте в комментариях.
https://habrahabr.ru/company/friifond/blog/318560/
habrahabr
Круговорот звука в природе
['Наушнкии', 'Plantronics']
Честно говоря, я не ожидал увидеть в собственных руках данную гарнитуру — сходу даже и не разберёшь, что это за зверь такой, какие возможности предлагает устройство и в чём конкретно заключается...
Честно говоря, я не ожидал увидеть в собственных руках данную гарнитуру — сходу даже и не разберёшь, что это за зверь такой, какие возможности предлагает устройство и в чём конкретно заключается его предназначение. Мы все уже настолько привыкли к надписям типа Dolby 7.1 и другим, что мнение такой организации, как ESL, при принятии взвешенных решений, скорее не должно браться в расчёт. Пусть оно и радует глаз наклейкой на коробке. Опускающийся микрофон, провод оптимальной длины, большая верхняя дуга с мягким и эластичным ободом — как я узнал позже, «подвесной рамой оголовья». Стоит сразу сказать, что провод двухсоставный, с пультом включения Dolby Surround и разъёмом USB. Привычный 3,5-мм джек также присутствует, а начинка пульта, действительно работает. Но увидев их на рабочем столе коллеги в момент поиска чего-то, в чём я смогу с удобством провести скайп-колл в шумном офисе, выбора не оставалось. Признаться, глубоко я не знакомился с творчеством компании Plantronics, однако к качеству и удобству индивидуальной аудио-продукции отношусь с достаточной строгостью. Какими характеристиками обладает гарнитура RIG 500 HD : Производитель: Plantronics; Модель: RIG 500HD; Цвет: черный; Материал: пластик; Динамики: 40 мм с низкочастотными резонаторами; Частотный диапазон динамиков: 20 Гц ~ 20 кГц; Сопротивление: 32 Ом; Максимальная входная мощность: 40 мВт; Регулятор громкости: отсутствует; Тип акустического оформления: закрытое; Тип крепления: оголовье; Тип подключения: проводной; Разъем для подключения: USB; Микрофон: один / отставной; Направленность: Однонаправленный; Частотный диапазон микрофона: 100 Гц ~ 10 кГц; Сопротивление: 2200 Ом; Чувствительность микрофона: -45 дБ ± 3 дБ; Вес: 200 г. И, когда разговариваешь с другими людьми, то хочешь, чтобы в первую очередь тебя было хорошо слышно. С этой задачей гарнитура справилась отлично — мне даже пришлось снижать громкость с обычной в случаях голосовых сеансов, так как собеседники сразу же отметили чёткость и громкость моего голоса. Опять же — лишь позже я узнал, что микрофон гарнитуры обладает функцией шумоподавления, но её присутствие я почувствовал с первой минуты использования. Гарнитура микрофона убирается так, что её не видно даже боковым зрением, а в рабочем положении не вызывает совершенно никакого дискомфорта, расстояние между лицом и микрофоном приличное (в моём случае — сантиметров 5), благодаря мягкому окончанию микрофона возможно регулирование в больших пределах, что позволяет отлично настроить чувствительность. Микрофон несъёмный и, кстати, обладает достаточно приятной функцией аппаратного выключения микрофона, находящегося в сложенной позиции. Наушники очень хорошо сидят на голове благодаря грамотному сочетанию двух важнейших факторов — мягкого ремня соединения и фиксации на голове, рамы, и объёмных и достаточно упругих амбушюр. Три отверстия в каркасе для крепления чашек позволяют более гибко настроить расположение наушников с учётом индивидуальных особенностей. Сами чашки сделаны грамотно — в них присутствуют прячущиеся стержни, позволяющие удобно, без сильного нажима, менять местоположение отдельных наушников. В силу конструкции, шумоизоляция не очень хорошая, но надо понимать, что это устройство в первую очередь для домашнего использования, а не для прослушивания музыки в электричке. Хотя, в принципе, наушники подойдут и для офисного использования — если постоянно не слушать их на максимальной громкости, то вы не будете сильно мешать окружающим. Опять же — качество звучания и громкость оставили очень специфические, но хорошие ощущения. Я привык к тому, что большинство современной индивидуальной техники (различные наушники, портативные колонки, да и большие аудиокомплексы) рассчитаны в первую очередь на производство низкочастотных «вибраций». В RIG 500 мне удалось встретить совершенно иное сочетание качеств: явное преобладание основной, среднечастотной сцены, но при этом с неплохой реализаций пиковых низких и высоких частот. Короче — в наушниках не создаётся ощущения вакуума, характерного для той техники, которая только «качает на низах» — звук очень приятный, слышно всё, ровно тогда, когда прислушиваешься. Я попытался выкрутить звук на максимум в условиях подключения к ноутбук и могу сказать, что максимум громкости в принципе уже даёт предельные ощущения. Громче и не нужно, иначе, вполне возможно, сами того не желая вы навредите себе или технике. К сожалению, кнопка Dolby на Mac никаких действий не произвела, хотя в спецификации заявлена совместимость, а в настройках устройство отображается вполне очевидно. PC под рукой, к сожалению, не оказалось. Но открыв одну из своих немногих игр я испытал приятное удивление — Surround действительно работает и очень здорово. Простое вращение камеры вокруг себя подарило мне совершенно новые ощущения — звук переходит из одного наушника в другой очень незаметно, ощущения «за спиной» заслуживают высших похвал. Когда меня убили — я испугался, при том, что играю в MMO очень долгий срок. Угол отклонения наушников в месте крепления не очень большой, по ощущениям градусов 7, но этого вполне достаточно для того, чтобы они удобно сидели на голове. Как я уже упоминал — в сочетании с мягким соединением ощущения более чем комфортные. В итоге, за неделю, я провёл с RIG достаточно много времени, в первую очередь из-за их комфорта и высоких качеств микрофона, так как каждый день я совершаю несколько длительных звонков и мне важно, чтобы я и собеседник слышали друг друга наилучшим образом из возможных. В качестве стационарной или домашней гарнитуры с хорошим 3D звучанием за средние деньги RIG 500 HD был более чем убедителен
https://geektimes.ru/company/mvideo/blog/284122/
habrahabr
Искусственный интеллект «Мира дикого запада» HBO: тогда и сейчас
['westworld', 'AI', 'мир дикого запада', 'сериал', 'ИИ', 'искусственный интеллект']
Так же, как и сегодня, в 1973 году (в год, когда Майкл Кричтон выпустил «Мир дикого запада») всех завораживала идея искусственного интеллекта. Фильм имел огромный кассовый успех, хотя был...
Так же, как и сегодня, в 1973 году (в год, когда Майкл Кричтон выпустил «Мир дикого запада») всех завораживала идея искусственного интеллекта. Фильм имел огромный кассовый успех, хотя был выпущен в том же году, когда люди начали охладевать к идее ИИ: массивное истощение ресурсов ИИ, обманутые ожидания и, как следствие, угасающий интерес в последующие годы. В 2016, «Мир дикого запада» вернулся на экран, и коренные изменения в технике глубинного обучения машин, общедоступные информационные ресурсы и вычислительные мощности фундаментально меняют будущее для ИИ. Вычислительные мощности и возможности технологий сейчас достаточно развиты, чтобы ИИ мог дополнить и подтолкнуть развитие общества по сравнению с полным крушением надежд в 1973 года. Новая версия «Мира дикого запада» от HBO, созданная Джонатаном Ноланом и Лизой Джой стала на сегодняшний день одним из самых популярных сериалов. Футуристические западные реалии подливают масла в огонь повсеместной одержимости ИИ, и популярность шоу доказывает, что люди заворожены потенциалом ИИ. Успех «Мира дикого запада» отражает устойчивую экосистему ИИ, в котором венчурные фонды, корпорации и потребители активно взаимодействуют. Основные задачи ИИ с 1973 года не изменились: автоматизация задач и устранение сдерживающих факторов организаций, а также облегчение повседневных бытовых действий. Правительство, ученые и корпорации двигали прогресс в области ИИ, в то время как потребители витали в заоблачных высотах (что подтверждается кассовым успехом «Мира дикого запада»), но не имели возможности приобрести технологию или понять, как её использовать, и какие она несет в себе ограничения. Интереса потребителя не было достаточно для продолжения финансирования технологии, и спустя всего несколько месяцев после выхода фильма, Джеймс Лайтхилл опубликовал довольно пессимистический доклад по ИИ, вызвав последующее 7-летнее затишье. В докладе Лайтхилл указал на возрастающую пропасть между лихорадочными ожиданиями и реальностью, что привело к тому, что университеты стали урезать гранты, правительство и военные сократили финансирование проектов по развитию ИИ, а ресурсы стали уходить в другие проекты. Сегодня, Рэй Курцвейл, Жэнь-Сунь Хуан, Эндрю Ын, Ян Лекун, Йошуа Бенгио и другие специалисты делают смелые заявления о потенциале ИИ, а корпорации в срочном порядке готовятся к осваиванию возможностей распознавания картинок, голоса и ведения диалога машинами. Нынешняя революция ИИ выходит далеко за рамки университетских и военных исследований и перетекает в нашу повседневную жизнь. Прогресс двигают 6 компонентов, которых не было или которых не хватало в семидесятые: научная база, вычислительная мощность, доступные информационные ресурсы, специалисты и инвестиции. 1. Как распознавать кошачьи мордочки Хотя основополагающие компоненты для создания ИИ существуют уже 50 лет, сегодняшнюю одержимость идеей породили исследования Эндрю Ына в 2012 году (Стэнфорд). Ын и его команда осуществили прорыв в области неконтролируемого обучения при помощи нейронных сетей- предпосылки глубинного обучения (серия алгоритмов отдаленно имитирующая работу мозга). Ын- приглашённый профессор в Стэнфорде (основатель и ведущий специалист команды Google Brain, лидер команды из 1200 разработчиков ИИ в Baidu ) решил протестировать неконтролируемое обучение, или набор данных для обучения без использования модели, а посредством нейронной сети. Он со своей командой использовал YouTube в качестве массива данных, и при содействии светил области ИИ и 16 000 компьютеров проверил, сможет ли его модель глубинного обучения распознавать лица. Сможет, даже кошачьи морды сможет, что стало известно под названием «кошачий эксперимент» Только благодаря усовершенствованию алгоритмов глубинного обучения, к которому привели за десятки лет научных исследований, стало возможно проведение такого теста. До 2012 г традиционное обучение машин подразумевало применение алгоритмов для получения конечной переменной. Тесты Ына показали, что глубинное обучение (а также конструкции нейронных сетей) обладают огромным потенциалом. В 1973-м году были ограничены и бюджетное финансирование ИИ, и вычислительные мощности, и методы глубинного обучения, не было понимания как обработать данные сложными алгоритмами. Обработка естественного языка только зарождалась, а понятие Полноты по Тьюрингу возникло всего лишь несколько лет назад. Исследователи в 70-х заблуждались насчет прогресса ИИ, о чем говорилось в работе Лайтхилла. 2. Графические процессоры и вычислительные мощности Глубинное обучение или обработка данных через нейронные сети требует огромной вычислительной мощности, которая не была доступна во времена создания «Мира дикого запада» Крайтоном. Еще до начала процесса глубинного обучения, нужно собрать, синтезировать, загрузить и распределить данные по огромным базам и распределённым вычислительным системам. Учены и энтузиасты сегодня используют графические процессоры для обучения с использованием массивов данных. Нейронные сети должны тренироваться на чипах процессоров 400 часов, перегоняя данные исследований десятков лет в алгоритмы. Глубинное обучение использует огромные массивы данных, обработка которых требует хорошо масштабируемой производительности, высокой пропускной способности памяти, низкого потребления энергии и скорости арифметических операций. Фреймворки Hadoop и Spark предлагают приемлемые базы данных, а компания Nvidia в свою очередь на 20 лет опережает производство графических чипов, которые идеально подходят для сложных алгоритмов и вычислений. Чипы Nvidia, в том числе графические, используются в большинстве «умных» аппаратных средств, таких как, автомобилей-роботов и дронов, и позволили использовать глубинное обучение в новых сферах. В 1973-м году вычислительная мощность компьютеров была логарифмически слабее, чем сейчас (как видно на изображении Джонатана Куми) 3. Количество данных в сопоставлении со стоимостью хранения Сегодня мы генерируем огромное количество данных, которые можно загрузить в модели обучения и которые дают более точный результат при распознавании изображений, речи и обработке естественного языка. Данные получают с таких девайсов, как фитнесс- браслеты, часы Apple и с устройств Интернета вещей. А количество данных в разы больше на уровне корпораций. Увеличение количества больших данных (big data) с мобильных средств, из интернета, интернета вещей создаёт целые горы данных, в самый раз для ИИ. Со всеми современными облачными технологиями, большие компании могут хранить данные и иметь к ним постоянный доступ, не тратя при этом баснословных денег. Рост популярности обменников Box и Dropbox, предложения от Google, Amazon и Microsoft снизили стоимость хранения данных. В 1973-м году было несравнимо меньше данных- часы пользователей не отслеживали циклы сна или показатели здоровья- ничего из того, что умеют наши любимые приложения сегодня. В компаниях, все данные хранились на местах, и если у вас не было денег на серверы и их обслуживание, то вы оставались за бортом. 4. Взаимодействие и общедоступные информационные ресурсы Специалистов ИИ привлекают открытые ИТ ресурсы, доступные благодаря корпорациям, представленным на современном гиперконкурентном рынке. Супер компьютер IBM Watson стал первой ласточкой, и конкуренты теперь стремятся предложить свои собственные услуги. Google предоставляет инфраструктуру через Google TensorFlow, а Microsoft предлагает CNTK- фреймворк для глубинного обучения. Университеты открывают доступ к своим исследованиям: Университет Berkeley делится своим фреймворком Caffe, а Монреальский Университет открыл доступ к своей библиотеке Python- Theano. В то время как многие организации сотрудничают и делятся исследованиями вобласти ИИ, с целью привлечь лучших специалистов, некоторые готовятся к потенциальным негативным последствиям, в случае, если вперед вырвется какая-то одна организация. Некоторые из игроков этой сфере — компания OpenAI, библиотеки Open Academic Society и Semantic Scholar. На конференции по нейросетевым системам обработке информации, прошедшем в декабре, Apple объявил, что откроет доступ к своим разработкам по ИИ, и позволит штатным исследователям опубликовать свои работы. Во времена «Мира дикого запада» практически не существовало взаимодействия по обмену изысканиями, так как все исследования, в основном, проводились в правительственных структурах и оборонных предприятиях. Организации делились языками программирования типа LISP, а ученые сопоставляли свои работы при личных встречах, но еще не было коммуникационных возможностей Интернета, что тормозило сотрудничество и развитие ИИ. 5. Специалист по ИИ- царь и бог Студенты ухватились за сферу ИИ, и проходят курсы по анализу данных и обработке естественного языка, а университеты, в свою очередь, привлекают соответствующие ресурсы для создания таких курсов. Количество студентов на курсах по информатике, математике, инженеров и проводимых исследований увеличивается и за счет стипендиальных программ, обеспечивающих соответствующее финансирование. В 1973-м таких программ было мало, а европейские университеты закрыли многие проекты по изучению ИИ после опубликования пессимистического доклада Лайтхилла. 6. Инвестиционное помешательство Сегодня рост инвестиций в ИИ происходит не по дням, а по часам. С 2011 года СГТР (совокупный темп годового роста) составил 42%, согласно данным Venture Scanner . Крупные венчурные фонды и технологические компании балдеют от ИИ, и вкладывают средства в специалистов, компании и инициативы. Было заключено несколько сделок- поглощений, которые были по сути красивой покупкой талантливых сотрудников для создания своей или усиления существующей команды специалистов по ИИ. В 1973-м инвестиции поступали в основном от оборонных и правительственных организаций, типа DARPA (Агентство оборонных перспективных исследовательских разработок). Когда лихорадка стала утихать, DARPA существенно урезало свой бюджет по разработке ИИ и средства, крупным исследователям, оскудели. В то время, венчурный капитал только начинал зарождаться, и фонды были больше заинтересованы в производстве полупроводников, а не в ИИ. ИИ уже присутствует в нашей жизни (например, Prisma, Siri и Alexa). Он просочится во все сферы деятельности организаций: эксплуатацию и разработку ПО, безопасность, продажи, маркетинг, поддержку клиентов, и во многие другие. Перечисленные выше 6 компонентов станут вескими доказательствами потенциала ИИ, и волна разработок ИИ будет аналогична интернет- буму 90-х, и буму мобильных разработок нулевых. Многие и сейчас осознают этот потенциал, представленный в технологиях распознавания изображений, видео, речи и машинного перевода. Чтобы приготовиться к грядущим переменам, организациям надо четко понимать области применения технологии, ее ограничения и будущий потенциал. Компании типа Facebook воспринимают ИИ скорее, как некую философию, а не технологию, как выразился технический директор Facebook Майк Шрёпфер на веб-саммите в ноябре. На фото: Энтони Хопкинс и Джеффри Райт в «Мире дикого запада» Фото HBO
https://habrahabr.ru/company/gvalg/blog/318562/
habrahabr
Почему мы выбрали Vue.js (а не React)
['js', 'vue.js', 'react.js', 'angularjs', 'typescript']
Недавно команда Qwintry начала активную миграцию на Vue.js во всех наших старых и новых проектах: в legacy системе, работающей на Drupal (qwintry.com) в нашей новой, полностью переписанной...
Недавно команда Qwintry начала активную миграцию на Vue.js во всех наших старых и новых проектах: в legacy системе, работающей на Drupal (qwintry.com) в нашей новой, полностью переписанной ветке qwintry.com (бекэнд на Yii2 / Node.js) в наших B2B-системах (работающих на Yii2) (logistics.qwintry.com) во всех наших мелких внутренних и публичных проектах (в основном использующих PHP и Node.js на бэкенде) Почему наши программисты остановили выбор на Vue.js, рассказывает руководитель департамента разработки Qwintry LLC . Антон Сидашин ➔ Коротко о нас: проект Qwintry используется полумиллионом клиентов по всему миру, у нас работает два склада (в США и в Германии) на собственном облачном программном обеспечении, и мы являемся одним из крупнейших мейлфорвардеров в США с точки зрения трафика посетителей и отправлений. Мы помогаем людям покупать товары в интернет-магазинах США и управлять своими посылками в нашем личном кабинете, а также позволяем значительно сэкономить на международной доставке. Мы используем наши собственную IT-платформу и логистические цепочки , чтобы делать качественную международную доставку по хорошей цене. Наша посылка в дверях у клиента — из отзывов покупателей У Qwintry довольно большая кодовая база, в основном состоящая из PHP и JS (+Swift и Java для мобильных приложений). Мы решили использовать Vue.js после того, как построили тестовое приложение c идентичным функционалом – наш калькулятор — на React, Vue.js и Angular2.   React.js Популярность React взлетела до небес за последние год-два, и теперь, пожалуй, это выбор по умолчанию для JS разработчика, который хочет написать на фронтенде что-то сложнее трехстрочного абзаца кода. Мы запилили несколько SPA и динамических виджетов на React, мы тестировали React Native (под iOS) и Redux. Я думаю, что React был большим шагом для мира JS с точки зрения осведомленности о состоянии , и он показал многим людям, что такое реальное функциональное программирование в хорошем, прагматичном ключе. Также я думаю, что React Native велик – он буквально меняет весь ландшафт мобильной разработки. Недостатки React для меня: Зачастую чистота, иммутабельность и идеология доминирует над прагматичным подходом Не поймите меня неправильно. Я ценю чистоту (purity) и простоту подхода render() – без сомнения, это отличная идея, которая работает в реальной разработке. Я говорю о других вещах. Я думаю, вот этот уровень строгости и чистоты может быть полезным, когда у вас работает 1000 разработчиков в компании – примерно тогда же, когда вы решите разработать свой собственный синтаксис, чтобы перевести на статические типы весь ваш PHP код . Или когда вы являетесь разработчиком Haskell, который решил постичь JS. Но у большинства компаний гораздо меньше разработчиков, небольшие бюджеты и цели, отличающиеся от целей Facebook. Я остановлюсь на этом подробнее чуть дальше. JSX – отстой Подождите секундочку! Я знаю! Это «просто чистый Javascript со специальным синтаксисом» . Нашим ребятам, которые рисуют в скетче и фотошопе дизайн и потом конвертируют его в HTML, у которых жесткие дедлайны и которые прямо сейчас верстают вот эту форму, обернув ее в некоторое количество div'ов – прямо сейчас – совершенно по барабану чистота и «простота» ES6. Применение некоего дизайна к компонентам React – работа не фонтан, потому что JSX не хватает читаемости. Невозможность поставить старый добрый IF в какой-то блок HTML кода – это плохо, и, пожалуйста, не верьте поклонникам React, которые говорят что «if() – это прошлый век, а сейчас все нормальные программисты используют тернарные операторы». Позвольте мне заверить вас: JSX – это все еще мешанина HTML и JS в момент, когда вы читаете и редактируете его, даже если потом он будет скомпилирован в чистый JS. <ul> {items.map(item => <li key={item.id}>{item.name}</li> )} </ul> Многие разработчики думают (и я какое-то время был с ними согласен), что такие ограничения синтаксиса сделают их сильнее помогут им писать более модульный код, потому что ограниченность JSX (из коробки) вынуждает класть куски кода в мелкие вспомогательные функции и использовать их внутри функции render(), как предлагает этот и многие другие ребята: stackoverflow.com/a/38231866/1132016 JSX также вынуждает разбивать компоненты-в-15-строк-HTML в 3 компонента, 5-строк-HTML-в-каждом. Не думайте, что этот подход делает вас более качественным разработчиком. Вот в чем штука: Когда вы пишете относительно сложный компонент – который вы, вероятно, не собираетесь завтра выкладывать в публичный реп на GitHub, чтобы продемонстрировать его на HackerNews – этот подход разбивания компонентов на супертупые (dumb) компоненты из-за ограничений JSX всегда выдергивает вас из потока, в котором вы решаете реальную бизнес-задачу. Нет, я не говорю, что идея дробных компонентов плоха или не работает. Вы должны четко осознавать, что вам нужно делить функционал на составные части, чтобы держать ваш код в управляемом состоянии. Но вы должны делать это только тогда, когда вы думаете, что этой конкретной логической сущности в вашем коде лучше быть отдельным компонентом с собственными props – а не на каждые два-три условия, которые были написаны с помощью тернарного оператора! Каждый раз, когда вы создаете новый компонент здесь и там, это стоит вам вполне конкретных усилий и нарушает ваш поток , потому что вам нужно переключиться от мышления архитектора (когда вы уже помните текущее состояние компонентной модели и вам просто нужно добавить HTML здесь и там, чтобы функционал заработал) на мышление менеджера: вам надо создать отдельный файл для компонента, подумать о props этого нового компонента, как они маппятся на state, как вы собираетесь пробрасывать коллбеки и т.д. В результате снижается скорость написания кода, потому что вы вынуждены тратить усилия на преждевременную модульность компонентов там, где вам это, вероятно, не понадобилось бы, будь синтаксис JSX более гибким. На мой взгляд, преждевременная модульность очень похожа на преждевременную оптимизацию. Для меня и нашей команды читаемость кода важна, но все еще очень важно и получение удовольствия от написания кода. Это не круто, когда простая форма калькулятора требует создать 6 компонентов, каждый со своими props. Зачастую такая гипермодулярность плоха и с точки зрения технического обслуживания, модификации или применения нового дизайна, потому что чтобы обновить html в виджете, вам нужно прыгать по нескольким файлам / функциям и проверять каждый маленький кусок HTML отдельно. Опять же я не предлагаю писать монолиты. Я предлагаю использовать компоненты вместо микрокомпонентов для ежедневного программирования. Речь про баланс и здравый смысл. Работа с формами и Redux заставят вас печатать весь день напролет React – он о чистоте и one-way flow, помните? Вот почему LinkedStateMixin стал персоной нон грата , и теперь вы должны написать 10 функций, чтобы получить входные данные из 10 полей формы. Нет, можно, конечно, написать одну функцию, которая будет проверять e.target, но в конечном итоге там будет такое дерево условий с нормализацией прилетающих из формы данных, что захочется плакать; поэтому так никто не делает. 80% из этих функций будет содержать одну строку с this.setState() или вызова Redux экшна. (Тогда вам, вероятно, придется создать еще 10 констант – по одному на каждый action). Я думаю, этот подход был бы приемлем, если вы могли бы генерировать весь этот код, просто подумав о нем… Но я не знаю ни одного IDE редактора, который мог бы значительно упростить написание такого боилерплейта. Почему вы должны печатать так много? Потому что большие парни решили, что двухстороннее связывание является опасным в больших корпоративных приложениях. Я могу подтвердить, что two-way binding иногда не так прост и не так читабелен, но большинство из этих страхов связаны с общим страданием людей от первой версии Angular, где двусторонняя привязка была, может быть, не самой лучшей. И все же… это, вероятно, не было самым большим просчетом даже в Angular. Посмотрите на мой быстрый редактор, который я накостылил недавно с Vue.js для нашей платформы на Drupal (заранее прошу прощения за дизайн, это бэкенд UI для наших операторов, а дизайнеры заняты, создавая интерфейсы для наших клиентов, так что этот кусок функционала ждет своего часа, чтобы стать красивым): Я не могу показать код по понятным причинам, но писать его в Vue было очень приятно, а код получился очень читаемым. И я точно знаю, что если бы я писал отдельную функцию для каждого поля формы, как в React, я бы, конечно, не прыгал от счастья. Redux тоже многословен и требует много писанины . И в интернете легко найти высказывания разработчиков, которые обвиняют Mobx в превращении React в Angular только потому, что Mobx использует двухсторонню привязку данных (см. пункт№1 о «чистоте»). Похоже, что многие умные люди больше ценят «чистоту» своего кода, а не быстро и хорошо решенную бизнес-задачу (что, в принципе, нормально, если у вас нет дедлайнов). При этом, я считаю саму концепцию Flux/Redux — очень крутой. Redux прост и дает невероятный уровень контроля за состоянием приложения, и отделение состояния от чисто интерфейсных штук — это сразу дает упрощение написания тестов. Но, к сожалению, это все дается очень большим количеством писанины. Да, time-travel дебаггинг как побочный эффект — это офигенно. Но лично я готов им пожертвовать ради скоростного написания кода, и подумайте, нужен ли вам time-travel, если ради него надо придумать константу для каждого поля в форме. Чрезмерное излишество в инструментарии React работает с изначальным прицелом на Babel. Вы не сделаете реальное приложение на React без приличной кучи npm пакетов, начиная с компилятора ES5. Простое приложение на основе официальной стартовой сборки в нагрузку получает около 75 МБ JS кода в node_modules. Это не критичная вещь и больше относится к миру JS в целом, чем к React, но все же добавляет расстройства и раздражения. Мой вердикт по React — позволяет писать отличный, читаемый код, но писать его много и невесело. Ну и проблемы для верстальщиков не владеющих, и не желающих владеть ES6 внутри HTML — никуда не деваются. Angular 1: Слишком много свободы – это тоже плохо Angular 1 — неплохой для своего времени фреймворк, расположенный в противоположном углу (от React) воображаемой JS карты чистоты и читаемости кода. Angular позволяет стартовать быстро, позволяет получить удовольствие от написания первых 1к строк кода, и потом он практически заставляет вас писать код, который получается не очень . Вы, вероятно, потеряетесь в директивах, scopes, и двухсторонние потоки данных, пронизывающие насквозь все слои вашего приложения, будут завершающим аккордом лебединой песни вашего кода, который свеженанятые разработчики даже не захотят трогать, потому что обязательно что-нибудь сломается. Почему же так происходит? Angular.js был создан в 2009 году, когда мир фронтенд-разработки выглядел довольно просто и никто даже не задумывался о хорошем контроле за состоянием (state) приложения. Не стоит винить авторов – они просто делали конкурента Backbone с некоторыми новыми фишками и хотели поменьше печатать (и им все это удалось, другой вопрос какой ценой). Angular2 Просто постройте hello-world приложение и посмотрите на количество файлов, которые лежат в итоге в репе. Придется использовать Typescript (а я не на 100% уверен, что я хочу делать каждый день — нет, ребят, статическая типизация в JS – это не панацея, зато попечатать в очередной раз придется, неплохие мысли от Eric Eliott на эту тему ) и компиляторы, чтобы начать работать. Нам этого хватило, чтобы отложить Angular2 до лучших времен. Я ленивый, и для меня это слишком много бойлерплейта, прежде чем начнешь писать реальный код. На мой взгляд, авторы Angular 2 пытаются построить идеальную систему для энтерпрайза, которая будет побеждать React, вместо того, чтобы пытаться построить фреймворк, которая решает бизнес-задачи для обычного, среднестатистического пользователя. Может быть, я ошибаюсь, и мое мнение может измениться – у меня нет большого опыта работы в Angular2, мы только что построили тестовое приложение калькулятора, в конце концов. Замечательная страница сравнения на сайте Vue.js называет Angular2 хорошей системой, которую с Vue.js объединяет немало идей. Vue.js Vue.js – это штука, которую я ждал долго (здесь и далее я буду говорить о Vue.js 2, который получил немало улучшений по сравнению с первой версией Vue, и это текущая стабильная версия системы). Для меня, с точки зрения элегантности и лаконичности, а также фокусировке на решениях реальных задач, Vue.js является самым большим прорывом в JS с того дня, когда меня сразил наповал Jquery в 2007. Если вы посмотрите на графики популярности Vue.js, то заметите, что он порадовал в этом году не только меня: …and we thought 2015 was an explosive year! pic.twitter.com/Dn1UsDQRgw — Vue.js (@vuejs) December 19, 2016 На Гитхабе Vue — Top 1 JS проект 2016 года (среди репов с исходниками). По популярности в Google Trends Vue.js в 2016 резко обошел React (понятное дело, это средняя температура по очень большой больнице, и сильно зависит от формулирования запроса — очень косвенный признак популярности). https://www.google.ru/trends/explore?q=vue.js,react.js,angular.js Vue.js является одним из наиболее быстро растущих (с точки зрения комьюнити или, как минимум, количества лайков в гитхабе, и пользователей Vue Dev Tools в хром сторе) решений JS в 2016 году, и я уверен, что это не просто еще одна модная библиотека для хипстеров, которые переключаются на новый JS фреймворк каждые 3 месяца, или работа PR-отдела какой-нибудь большой компании. Laravel добавил Vue.js в ядро, и это серьезная заявка. Плюсы Vue.js Vue.js выдерживает отличный баланс между читаемостью, ремонтопригодностью кода и удовольствия от его, этого кода, написания. Этот баланс находится на примерно равноудаленном расстоянии между React и Angular 1, и если вы посмотрите на гайдлайн vue.js, вы сразу же заметите, сколько полезных идей он позаимствовал из этих систем. Из React Vue.js взял компонентный подход, props, односторонний поток данных для иерархии компонентов, производительность, возможность рендеринга на бэкенде и понимание важности надлежащего управления состоянием (state). Из Angular1 Vue.js взял похожие шаблоны с хорошим синтаксисом и двухстороннее связывание, но только там, где это вам действительно нужно и не позволит так сразу отстрелить себе ногу (внутри одного компонента). Начать писать код под Vue.js очень легко – я видел это в нашей команде. Vue.js не требует каких-либо компиляторов по умолчанию, так что очень легко добавить Vue.js к вашей legacy кодовой базе и начать переписывать jQuery мешанину на читаемый код. Правильное количество магии Vue.js очень прост в работе как в точки зрения HTML-centric подхода, так и с точки зрения JS разработчиков: вы можете сделать довольно сложные шаблоны, не теряя фокуса на бизнес-задаче, и получающийся HTML шаблон обычно неплохо читается даже тогда, когда он уже большой. К этому времени, как правило, вы достигли хорошего прогресса в решении бизнес-задачи и можете захотеть реорганизовать шаблоны и разделить их на более мелкие составляющие – в этот момент вы видите всю «картину» вашего приложения намного лучше, чем в самом начале. Мой опыт показывает, что это значительно отличается от подхода, который обычно используют программисты в React, и это различие экономит много времени и усилий программистам использующим Vue.js. В React вы вынуждены разбивать компоненты на микрокомпоненты и микрофункции прямо в момент написания первоначальной, «черновой» версии кода, иначе вы будете буквально погребены в мешанине фигурных скобок и хтмла между ними. В React я трачу много времени на полировку props и рефакторинг супермелких компонентов (которые, конечно же, никогда не будут повторно использованы) снова и снова, потому что не вижу так ясно, когда мне вдруг понадобится поменять логику кода в середине процесса. Формы Работа с HTML-формами в Vue.js – одно удовольствие. Это то место, где двусторонний байндинг реально выручает. Даже в сложных случаях нет никаких проблем, хотя watchers на первый взгляд могут напомнить Angular 1. Односторонний поток данных всегда к вашим услугам, когда вы дробите компоненты. Технологии Если вы хотите компиляцию, linting, PostCSS и ES6 — не проблема . Single-file компоненты, похоже, становятся основным способом написания публичных компонентов в Vue.js 2. Кстати, идея Scoped CSS, работающая в single-file компонентах из коробки – это то, что выглядит действительно красиво и может уменьшить необходимость в строгих правилах именования CSS классов и таких технологий, как BEM . Управление состоянием У Vue.js довольно простое и полезное управление состоянием через data() и props() методы – они отлично работают в реальной разработке. Если душа просит чего-то большего для менеджмента состояния, есть Vuex (который, по-моему, похож на Mobx в React – состояние там мутабельно). Я думаю, хорошему проценту Vue.js приложений управление состоянием через Vuex не понадобится, но альтернативу иметь приятно. Производительность Тема холиварная, в целом, и react, и vue.js — работают быстро. Но все же, судя по всему, vue.js в среднем — заметно быстрее. Замечательная ссылка из комментариев по прогону TodoMVC с замерами: eigenmethod.github.io/mol/app/bench/#bench=%2Ftodomvc%2Fbenchmark%2F#sample=angular2~angularjs~mol~react~vue~vanillajs#sort=fill# А вот тут более подробные расклады (от заинтересованной стороны, правда) . Еще один, подробный и внятный бенчмарк-сравнение: stefankrause.net/js-frameworks-benchmark4/webdriver-ts/table.html Минусы VueJS Runtime ошибки в шаблонах Самый большой: неприятные ошибки времени исполнения в шаблонах. Жертва в угоду удобству написания кода. Это очень похоже на Angular 1. Vue.js удается выдать много полезных предупреждений для JS кода: например, есть предупреждения, когда вы пытаетесь мутировать props или некорректно используете data() метод, положительное влияние React здесь очень хорошо заметно. Но runtime ошибки в шаблонах по-прежнему являются слабым местом Vue.js. Стэктрейсы исключений зачастую бесполезны и ведут во внутренние методы Vue.js. В этом случае и в этом классе ошибок и дебага JSX зачастую приятнее: за счет компиляции «из JS в JS» там клик на ошибке в консоли браузера обычно ведет именно туда, где эта ошибка произошла в коде. Библиотеки Инфраструктура Vue.js еще довольно молодая. По сути, стабильных компонентов от комьюнити можно по пальцам пересчитать, причем многие из них были построены для Vue.js 1, и зачастую новичкам не так просто разобраться, под какую версию Vue.js построена конкретная библиотека. Эта проблема нивелируется тем, что вы можете сделать крутые вещи в Vue.js, не испытав большой нужды в сторонних библиотеках. Вероятно, понадобится лишь библиотека для Ajax запросов ( vue-resource будет хорошим выбором, если вы не заботитесь об изоморфных приложениях, в противном случае Axios ) и, вероятно, Vue-router, который считается библиотекой с хорошей поддержкой авторов Vue.js. Non-english speaking community китайские комментарии в коде большинства публичных репозиториев, и это неудивительно: Vue.js становится очень популярным решением в Китае (автор Vue.js говорит по-китайски) Проект одного человека. Скорее, потенциальная проблема, чем реальная, но иногда хочется перестраховаться. Evan You – это парень, который построил Vue после того, как поработал в Google и Meteor. Laravel, конечно, тоже single-guy проект, но, тем не менее, он по-прежнему очень успешен, правда? Vue.js в Drupal Disclaimer: мы не планируем использовать Drupal 8 в ближайшее время в Qwintry, так как переходим на более современные, быстрые и простые PHP и Node.js фреймворки, но наш legacy код – это Drupal. Так как основной сайт qwintry.com работает на Drupal, для нас было очень важно проверить Vue.js в бою именно здесь. Честно скажу, я не горжусь многими участками нашего кода в этом репозитории, в некоторые выдающиеся места стараемся совсем не влезать, пока оно работает хоть как-то, но этот старый проект с историей сносно функционирует и генерирует наш доход, так что мы уважаем его, улучшаем его, и многие новые фичи выходят именно здесь. Вот список вещей, которые я построил на Vue в Drupal: форма быстрого редактора сущностей, который включает в себя формирование счетов-фактур для клиентов, а также быстрое редактирование списков товаров. Тут понадобилось построить простой JSON API для загрузки и сохранения сущностей – ничего особенного, просто несколько коллбеков. Два дешборда, через REST API от Saas продуктов, которые мы используем для нашей службы поддержки, чтобы операторам не нужно было бегать по админкам отдельных веб-сайтов для проверки информации, относящейся к конкретному клиенту. Теперь все это встроено прямо в профиль клиента на нашем сайте. Я знаю, многие бекэнд разработчики все еще застряли в 2010 году и Ajax системе ядра Drupal. Я хорошо знаю, насколько сложным может быть Drupal код, когда пытаешься построить сколько-нибудь сложную многоступенчатую форму с помощью Ajax функционала из ядра – такой код практически невозможно потом поддерживать. Да, я говорю про тебя, ctools_wizard_multistep_form (), и тебя, ajax_render ! В то же время этих разработчиков толкают вперед требования к современным интерфейсам, но сложность современной инфраструктуры JS вгоняет их в депрессию. Да, узнаю себя год назад. В общем, ребята, послушайте меня! Вы не найдете лучшего момента и способа улучшить свои интерфейсы, чем прямо сейчас взять Vue.js, положить его в в sites/all/libraries, добавить его с помощью drupal_add_js() в шаблон и начать писать код. Вы будете шокированы, насколько проще поддерживать систему, в которой Drupal отвечает только за выдаваемый JSON, когда весь клиентский код, в том числе формы, полностью работает на Vue.js. Vue.js в Yii2 Забавный факт: Yii был создан китайскоязычным разработчиком Qiang Xue. Таким образом, можно назвать Yii + Vue.js стек не только стеком, название которого почти невозможно выговорить с первой попытки, но еще и стеком с китайским наследием (в хорошем смысле). Для новой версии Qwintry.com (еще не опубликованной) мы выбрали Yii2, который, как я считаю, является одним из лучших и самых быстрых PHP фреймворков. Он, определенно, не такой популярный, как Laravel, который захватил лидерство в мире PHP, но нас Yii2 стек вполне устраивает (хотя мы смотрим на Laravel время от времени, там разработчики жгут, и там, конечно, более зрелая инфраструктура в плане библиотек). Мы постепенно уменьшаем количество HTML, который генерирует Yii2 и PHP, концентрируясь больше на REST API, который генерирует JSON для клиентской части, работающей на Vue.js / Swift / Java. API-first подход используется для большинства наших Active Record моделей в проекте. Тут мы уже серьезно относимся к API и именно поэтому тратим много времени на хорошую API документацию, пусть этот API и не публичный. В участках кода, где часть HTML генерируется на уровне PHP, мы используем собственные решения и webpack для связки и удобного деплоя Yii2 виджетов, которые, в свою очередь, используют Vue single-file компоненты. С PHP7 & последним MySQL время отклика нашего Yii2 JSON бэкенда не сильно отличается от Node.js бэкендов (я говорю о скорости ответа порядка 15-20ms), это не космические цифры, прямо скажем, но это более чем достаточно для наших нужд, а, самое главное, это в 10-20 раз быстрее, чем то, что может выдать наш старый Drupal сайт. В то же время это старый добрый (и поднадоевший, может быть) PHP со всей силой библиотек композера и стабильной кодовой базой. Отзывчивость интерфейсов, построенных на Yii2 & Vue.js, очень приемлемая, и, с точки зрения читабельности кода, тут тоже все в порядке. Мы также используем Vue.js в ряде внутренних и внешних проектов, где бекенд работает на Node.js – тут ничего нового к сказанному выше не добавлю, все работает нормально. Заключение Мы пишем Vue.js код каждый день в течение уже около 4 месяцев в различных проектах, и результаты нас впечатляют. 4 месяца – это ничто в мире бэкэнда, но для JS мира это приличный срок, за который рождаются и умирают пяток фреймворков :) Посмотрим, что будет дальше. Думаю, Vue.js станет основным решением под JS в ближайшие 16-24 месяцев, если Evan You сделает правильные шаги, по крайней мере, в среде бекендеров и небольших команд фронтендщиков. React стек будет мейнстримом в 2017 году, особенно если React Native продолжит взрослеть и улучшаться такими же темпами, как сейчас. UPD: эта заметка попала в топ HackerNews, и там завязалось полезное обсуждение (250+ коментариев): news.ycombinator.com/item?id=13151317 В топе Reddit WebDev мы тоже побывали, 60+ комментариев здесь . Забавный комментарий-мнение про Angular2 оттуда: All Google documentation is like reading Microsoft docs from the early 2000s. «Setting up an Angular project is a piece of cake! Just make sure the stateless reference prototype mutator inherits from the base memory loader legacy object implementing the MODOK service provider (not part of core: see here for equally unreadable details). You'll then be ready to compile your Angular kernel, being careful to use Webpack 2.3.9 (note: not 2.3.8 as supplied with the repository). This is all you need to know to get started on a great Angular project. Angular: making development simple and fun again!» Вопросы от читателей: JSX классный и правильный, а вы — не очень! Если вам так хочется условий — запрограммируйте свой компонент If, это три строки! Неприятно выбирать фреймворк, а потом делать такие вещи ему наперекор, про такие решения у вас потом будет спрашивать каждый новый разработчик, пришедший в проект, а в чужих компонентах ваши глаза всегда будут спотыкаться о тернарность. Более того, у If компонента написанного «в лоб» будут проблемы в том, что внутренние компоненты всегда исполняются. Но есть и решения поинтереснее: github.com/AlexGilleran/jsx-control-statements Так что вы предлагаете, уважаемый, теперь надо срочно бросать React и все переписывать на Vue.js? Да нет же! React – прекрасный фреймворк, и он позволяет писать читаемый и поддерживаемый код, а еще под него уже написано гигантское количество качественных библиотек (и микрокомпонентность и ограниченность JSX, которую я «поругал» выше — тут как раз играет уже положительную роль, для публичных библиотек это уже зачастую оправданно), которых нет ни под какое другое JS решение. Если вас и вашу команду все устраивает в JSX и вас не напрягает много печатать, пожалуй, нет никакого смысла переходить на Vue.js, игра просто не стоит свеч. Многие любители JS в последнее время любят скакать от фреймворка к фреймворку. Не надо этим злоупотреблять, на мой взгляд, лучше потратить это время на что-то более интересное, что заметят пользователи вашего проекта. А вот если вы никак себя не могли заставить начать использовать React из-за массивного инструментария и других сложностей, а в вашем коде попадается невнятная каша из jQuery или Backbone, Vue.js может быть отличным вариантом, не академичным, простым и лаконичным. Целиком статью я не читал, но в заголовке вы что-то там негативное сказали про иммутабельность, вы, наверное, не православный в силу своей неопытности и глупости не понимаете, как прекрасен функциональный подход! Давайте разделять иммутабельность как функциональную парадигму (мы очень уважаем функциональный подход, концепцию иммутабельности и чистоту функций) и текущее состояние JS мира и его библиотек. Если разработчик, прочитав блог фейсбука, радостно хватает Immutable.js и впиливает его в продакшн, а потом понимает, что дока у него не очень, Lodash и весь остальной код, написанный предыдущим поколением разработчиков, с ним не работает (да, я в курсе про immutable обертки вокруг lodash, спасибо), и поэтому разработчик проваливает дедлайн – это значит, что разработчик купился не на функциональную парадигму, а скорее на хайп вокруг конкретной библиотеки. Не надо думать, что если у фейсбука встают реальные проблемы, которые они решают с помощью Immutable.js, то это значит, что и у вас в вашем лендинге или SPA возникнут проблемы похожего порядка. Скорее всего нет, скорее закончатся деньги у ваших инвесторов вам нужно будет максимально быстро выкатывать работающие фичи, а коду достаточно быть нормальным и не мутирующим где не надо, ему не обязательно для этого использовать Immutable.js (почитать мнение про Immutable.js можно, например, здесь ). Отдельно отмечу, что большое количество JS разработчиков, чьи мнения я видел, как основную киллер-фичу Immutable.js называют не чистоту и надежность получающегося кода, а – внимание! – увеличивающуюся производительность (речь про быстрые сравнения структур)! Что-то в этом мире не так, если функциональную штуку такого уровня люди впиливают ради улучшенной производительности в свой проект. Кажется, в дело опять вмешалась мода… Если вам хочется упростить себе жизнь, просто прекращайте мутировать состояние, переходите на props, и эти простые вещи прямо сейчас будут улучшать вам жизнь.
https://geektimes.ru/company/banderolka/blog/284094/
habrahabr
Еще один домашний медиасервер на базе Docker
['docker', 'docker-compose', 'plex', 'ubuntu', 'linux', 'mediaserver', 'torrent']
Добрый день Хабр. На написание этой статьи меня сподвигло закрытие довольно известных в UA-IX ресурсов ex.ua и fs.to. Поскольку доблестные правоохранители не озаботились предоставлением какой-либо...
Добрый день Хабр. На написание этой статьи меня сподвигло закрытие довольно известных в UA-IX ресурсов ex.ua и fs.to. Поскольку доблестные правоохранители не озаботились предоставлением какой-либо достойной альтернативы, было принято решение взять процесс в свои руки, к тому же давно хотелось организовать домашнее хранилище/файлопомойку не зависящее от внешних провайдеров. В процессе реализации было перепробовано довольно много разных систем, но в итоге все выстроилось именно так, а не иначе. Мнение субъективное, реализация доступная. Сама статья рассчитана на новичков которым необходимо просто работающее решение, или на тех кто задумался о своем медиасервере, но еще не определился с реализацией. Итак решение принято, начнем. Железо Критерии выбора были достаточно простыми: компактность, нормальная работа с WiFi, тишина. После изучения рынка железа, выбор которого сейчас дает самые широкие возможности, осталось несколько кандидатов. А именно — HP MicroServer G8, ASUS VivoMini VC65R, и само собой Rapsberry Pi 3. После изучения доступного софта для создания медиасервера было решено было остановиться на ASUS VivoMini VC65R, так как Rapsberry, который базируется на ARM, не поддерживает транскодинг, а доступные варианты MicroServer были укомплектованы достаточно старым Celeron G1610T, который мог не обеспечить достаточной производительности. Итак, был приобретен VC65R и 4хSamsung ST1500LM006 1.5TB. Операционная система С одной стороны — на рынке присутствует довольно большое количество специализированных дистрибутивов, как то FreeNAS, NAS4Free, OpenMediaVault, Rockstor. С другой — хотелось бы полностью контролировать систему, и по возможности не использовать ненужные сервисы. Так что выбор остановился на Ubuntu Server 16.04 LTS. В целом — получившаяся конфигурация благодаря Docker не зависит от операционной системы, но некоторые сервисы так или иначе завязаны на дистрибутив, так что если вам захочется повторить данную конфигурацию — имейте это в виду. Для организации файлов была выбрана следующая структура директорий: /data — отдельный logical volume для хранения медиа данных и бекапов /data/Media — медиаданные /data/TimeMachine — бекапы TimeMachine /opt/mediacenter — отдельный logical volume для хранения данных сервисов Сам процесс установки описывать не стоит, так как он зависит от того дистрибутива который вы выберете, единственный нюанс в том, что поскольку было бы неплохо работать с файлами не беспокоясь о разрешениях доступа предоставим нашему пользователю доступ с помощью setfacl apt-get install acl setfacl -Rm u:<username>:rwx /data setfacl -Rm d:u:<username>:rwx /data setfacl -Rm u:<username>:rwx /opt/mediacenter setfacl -Rm d:u:<username>:rwx /opt/mediacenter Программное обеспечение Итак, какие требования мы можем выставить к подобному медиасерверу, с учетом того что присутствует широкий ряд техники под Mac OS X, iOS, Windows, и Android: — Хранилище для TimeMachine + общий ресурс для Mac OS X — Общий ресурс для Windows — Торрент клиент — Мониторинг обновляющихся торрентов — Персональное облачное хранилище — Медиасервер Начнем по порядку. Хранилище для TimeMachine + общий ресурс для Mac OS X Установка весьма тривиальна, как впрочем и все описанное далее. apt-get install netatalk avahi-daemon С помощью этой команды мы устанавливаем open source реализации AppleTalk протокола и Bonjour. Теперь осталось только экспортировать директорию /data/Media как доступный общий ресурс, и директорию /data/TimeMachine как доступную для TimeMachine backup. Для этого отредактируем файл /etc/netatalk/AppleVolumes.default добавив в конце /data/TimeMachine "TimeMachine" cnidscheme:dbd options:tm,upriv,usedots volsizelimit:300000 allow:<username> /data/Media "Media" cnidscheme:dbd options:upriv,usedots dperm:0776 fperm:0666 allow:<username> Для ограничения доступного для TimeMachine места добавлена опция volsizelimit:300000 Для ограничения доступа для конкретного пользователя добавлена опция allow:<username> Общий ресурс для Windows Поскольку в моей сети присутствует Windows мне нужна также и Samba. Здесь все сверх просто, благо руководств по использованию Samba в сети очень много. Тем не менее для полноты статьи: apt-get install samba smbclient И содержимое smb.conf /etc/samba/smb.conf [global] workgroup = WORKGROUP server string = Media server netbios name = media dns proxy = no log file = /var/log/samba/log.%m max log size = 1000 panic action = /usr/share/samba/panic-action %d server role = standalone server passdb backend = tdbsam obey pam restrictions = yes unix password sync = yes passwd program = /usr/bin/passwd %u passwd chat = *Enter\snew\s*\spassword:* %n\n *Retype\snew\s*\spassword:* %n\n *password\supdated\ssuccessfully* . pam password change = yes map to guest = bad user usershare allow guests = no security = user unix extensions = no wide links = yes follow symlinks = yes load printers = no show add printer wizard = no printcap name = /dev/null disable spoolss = yes hide dot files = yes server signing = auto name resolve order = bcast host max protocol = SMB2_10 [Media] path = /data/Media valid users = <username> guest ok = no writable = yes browsable = yes hide files = /lost+found/Network Trash Folder/Temporary Items/.Apple*/.DS*/ Торрент клиент и Мониторинг обновляющихся торрентов и Персональное облачное хранилище и Медиасервер Эти требования было решено объединить в одну часть, так как все это реализовано на базе docker compose, и по сути представляют собой один файл благодаря которому все можно стартовать одной командой. Установку docker и docker-compose я пожалуй опущу, так как они не представляют собой ничего сложного и достаточно описаны на сайте docker. Начнем с выбранного программного обеспечения: В качестве торрент клиента будем использовать относительно легковесный Transmission. Для мониторинга обновляющихся торрентов было выбрано на тестирование два решения специализирующихся на русскоязычном сегменте сети, а именно TorrentMonitor и Monitorrent. Сейчас они оба работают на моем медиасервере, и в результате останется тот что покажет себя наиболее оптимальным образом. Кстати, авторы обоих решений присутствуют на Хабре. В качестве персонального дропбокса будем использовать ownCloud. Я не уверен что это именно то решение которое подойдет мне на все сто процентов, но на данном этапе оно меня устраивает. В качестве альтернативы можно использовать NextCloud, Pydio или Seafile. На самом деле выбор гораздо шире и на рынке представлено довольно много достойных альтернатив. В качестве медиасервера будем использовать Plex. Также была апробирована альтернатива под названием Emby, но мне она не пришлась по душе. Для всего вышеперечисленного уже присутствуют готовые образы docker, единственное что мне не понравился образ TorrentMonitor, так что было решено написать свой. Dockerfile #------------------------------------------------------------------------------ # Set the base image for subsequent instructions: #------------------------------------------------------------------------------ FROM alpine:3.4 MAINTAINER Andrey Aleksandrov <[email protected]> #------------------------------------------------------------------------------ # Install: #------------------------------------------------------------------------------ RUN apk update \ && apk upgrade \ && apk --no-cache add --update -t deps wget unzip sqlite \ && apk --no-cache add nginx php5-common php5-cli php5-fpm php5-curl php5-sqlite3 php5-pdo_sqlite php5-iconv php5-json php5-ctype php5-zip \ && wget -q http://korphome.ru/torrent_monitor/tm-latest.zip -O /tmp/tm-latest.zip \ && unzip /tmp/tm-latest.zip -d /tmp/ \ && mkdir -p /data/htdocs/db /run/nginx \ && mv /tmp/TorrentMonitor-master/* /data/htdocs \ && cat /data/htdocs/db_schema/sqlite.sql | sqlite3 /data/htdocs/db_schema/tm.sqlite \ && apk del --purge deps; rm -rf /tmp/* /var/cache/apk/* #------------------------------------------------------------------------------ # Populate root file system: #------------------------------------------------------------------------------ ADD rootfs / #------------------------------------------------------------------------------ # Expose ports and entrypoint: #------------------------------------------------------------------------------ VOLUME ["/data/htdocs/db", "/data/htdocs/torrents"] WORKDIR / EXPOSE 80 ENTRYPOINT ["/init"] Сам репозиторий лежит здесь UPD: Мой пулл реквест в nawa/torrentmonitor был смерджен, поэтому статья обновлена. Итак, образы готовы, напишем docker-compose.yml UPD2: Для тех у кого не работает DLNA можно заккоментировать секцию ports и раскомментировать network_mode: host /opt/mediacenter/docker-compose.yml version: '2' services: # Plex media server plex: container_name: plex hostname: plex image: plexinc/pms-docker:plexpass restart: unless-stopped # If you need DLNA you need to comment ports section and use host network mode. #network_mode: host ports: - 32400:32400/tcp - 33400:33400/tcp - 3005:3005/tcp - 8324:8324/tcp - 32469:32469/tcp - 1900:1900/udp - 32410:32410/udp - 32412:32412/udp - 32413:32413/udp - 32414:32414/udp environment: - TZ=Europe/Kiev - ADVERTISE_IP=http://<YOUR ADDRESS>:32400/ - PLEX_UID=1000 - PLEX_GID=1000 volumes: - /opt/mediacenter/plex-config:/config - /opt/mediacenter/plex-transcode:/transcode - /data/Media:/Media # Monitoring of torrent sites for update torrentmonitor: container_name: torrentmonitor hostname: torrentmonitor image: nawa/torrentmonitor ports: - 8080:80/tcp volumes: - /opt/mediacenter/torrentmonitor-torrents:/data/htdocs/torrents - /opt/mediacenter/torrentmonitor-db:/data/htdocs/db links: - transmission monitorrent: container_name: monitorrent hostname: monitorrent image: werwolfby/alpine-monitorrent ports: - 6687:6687/tcp volumes: - /opt/mediacenter/monitorrent-db:/db environment: - MONITORRENT_DB_PATH=/db/monitorrent.db links: - transmission # Torrent client transmission: container_name: transmission hostname: transmission image: linuxserver/transmission ports: - 9091:9091/tcp - 51413:51413/tcp - 51413:51413/udp volumes: - /opt/mediacenter/transmission-config:/config - /data/Media/Downloads:/downloads - /data/Media/Torrents:/watch environment: - PGID=1000 - PUID=1000 - TZ=Europe/Kiev # Personal file share owncloud: container_name: owncloud hostname: owncloud image: owncloud ports: - 8081:80/tcp volumes: - /opt/mediacenter/owncloud-config:/var/www/html/config - /opt/mediacenter/owncloud-apps:/var/www/html/apps - /data/Media/ownCloud:/var/www/html/data - /data/Media/:/Media links: - mysql # Database server mysql: container_name: mysql hostname: mysql image: mariadb environment: - MYSQL_ROOT_PASSWORD=<mysql password> volumes: - /opt/mediacenter/mariadb-data:/var/lib/mysql Дополнительные действия При первом запуске ownCloud потребуется ряд действий для создания базы данных. Нужно выбрать «Storage & database» --> «Configure the database» --> «MySQL/MariaDB» Database user: root Database password: P@ssw0rd Database name: любое Database host: mysql Пароли по умолчанию TorrentMonitor: torrentmonitor Monitorrent: monitorrent Немного пояснений по спорным вопросам. Директория /opt/mediacenter/torrentmonitor-torrents вынесена в отдельный маунтпоинт а не слинкована с /data/Media/Torrents так как нам необходимо избежать дубликатов торрентов. Transmission настроен на мониторинг директории /data/Media/Torrents, соответственно все .torrent файлы попавшие в эту директорию будут им обработаны. Поскольку нам необходимо чтобы TorrentMonitor работал с Transmission через RPC нам не нужно сохранение .torrent файлов в ту директорию где Transmission их обработает. Теперь необходимо создать структуру директорий для хранения метаданных и медиаданных: mkdir -p /opt/mediacenter/{mariadb-data,monitorrent-db,owncloud-apps,owncloud-config,plex-config,plex-transcode,torrentmonitor-db,torrentmonitor-torrents,transmission-config} mkdir -p /data/Media/{Anime,Books,Documents,Downloads,Games,Home\ Videos,Movies,Music,ownCloud,Photos,Torrents,TV\ Shows} И для полного удобства создадим systemd сервис /etc/systemd/system/mediacenter.service [Unit] Description=Mediacenter Service After=docker.service Requires=docker.service [Service] ExecStartPre=-/usr/local/bin/docker-compose -f /opt/mediacenter/docker-compose.yml down ExecStart=/usr/local/bin/docker-compose -f /opt/mediacenter/docker-compose.yml up ExecStop=/usr/local/bin/docker-compose -f /opt/mediacenter/docker-compose.yml stop [Install] WantedBy=multi-user.target Теперь выполним: systemctl daemon-reload systemctl enable mediacenter systemctl start mediacenter Docker compose выкачает образы с docker hub и запустит наши сервисы. Теперь они будут доступны по адресам: Plex : http:// :32400 Transmission : http:// :9091 TorrentMonitor : http:// :8080 Monitorrent : http:// :6687 ownCloud : http:// :8081 Ну что же, вроде все запустилось и работает. Теперь можно начать тестирование, например сохранить .torrent файл в директорию Torrents. Transmission должен начать закачку, и в скором времени выкачанные файлы появятся в директории Downloads/complete. Теперь остался последний шаг, облегчить медиасерверу работу по распознаванию скачанных фильмов/сериалов/музыки. Для этого используем отличный продукт под названием FileBot который умеет переименовывать файлы базируясь на информации из открытых источников вроде TheTVDB. Установка проста: apt-get install openjdk-8-jdk mediainfo openjfx wget -O filebot_4.7.5_amd64.deb http://downloads.sourceforge.net/project/filebot/filebot/FileBot_4.7.5/filebot_4.7.5_amd64.deb?r=http%3A%2F%2Fwww.filebot.net%2F&ts=1482609251&use_mirror=heanet dpkg -i filebot_4.7.5_amd64.deb Ну и для удобства переименования напишем пару алиасов: ~/.bash_aliases alias anime-test='filebot --action test --conflict skip --format "{plex}" --db AniDB -r -non-strict --output /data/Media -rename' alias series-test='filebot --action test --conflict skip --format "{plex}" --db TheTVDB -r -non-strict --output /data/Media -rename' alias movie-test='filebot --action test --conflict skip --format "{plex}" --db TheMovieDB -r -non-strict --output /data/Media -rename' alias music-test='filebot --action test --conflict skip --format "{plex}" --db AcoustID -r -non-strict --output /data/Media -rename' alias anime-hardlink='filebot --action hardlink --conflict skip --format "{plex}" --db AniDB -r -non-strict --output /data/Media -rename' alias series-hardlink='filebot --action hardlink --conflict skip --format "{plex}" --db TheTVDB -r -non-strict --output /data/Media -rename' alias movie-hardlink='filebot --action hardlink --conflict skip --format "{plex}" --db TheMovieDB -r -non-strict --output /data/Media -rename' alias anime-move='filebot --action move --conflict skip --format "{plex}" --db AniDB -r -non-strict --output /data/Media -rename' alias series-move='filebot --action move --conflict skip --format "{plex}" --db TheTVDB -r -non-strict --output /data/Media -rename' alias movie-move='filebot --action move --conflict skip --format "{plex}" --db TheMovieDB -r -non-strict --output /data/Media -rename' alias music-move='filebot --action move --conflict skip --format "{plex}" --db AcoustID -r -non-strict --output /data/Media -rename' Теперь, например для работы с сериалом можно использовать команду: series-test <PATH_TO_SERIES_DIR> Если результат работы нас не устраивает, можем модифицировать условия поиска с помощью опций --q и --filter. Если же результат работы нас устроит — выполняем команду: series-move <PATH_TO_SERIES_DIR> В результате файлы нашего сериала окажутся в директории /data/Media/TV Shows/Series Name. Ну и если мы работаем с онгоингом или хотим продолжить раздачу можно выполнить команду: series-hardlink <PATH_TO_SERIES_DIR> В результате в директории /data/Media/TV Shows/Series Name окажутся хардлинки. В общем такой вот тривиальный способ как быстро и безболезненно сделать свой медиасервер.
https://habrahabr.ru/post/318568/
habrahabr
AdvoCam-FD8 RED-II GPS + ГЛОНАСС – самый продуманный регистратор среднего ценового диапазона?
['Видеорегистратор', 'DVR', 'AdvoCam']
Нет так давно на Geektimes был опубликован сводный материал об актуальной линейке видеорегистраторов русского производителя AdvoCam. Да-да – того самого, что самостоятельно разрабатывает свои...
Нет так давно на Geektimes был опубликован сводный материал об актуальной линейке видеорегистраторов русского производителя AdvoCam. Да-да – того самого, что самостоятельно разрабатывает свои устройства на собственном производстве в городе Александров. Там же, во Владимирской области, AdvoCam тестирует все свои модели на устойчивость к минусовым температурам и тряске на дорогах. А заодно всегда организует тестовую предсерийную сборку ограниченных партий аппаратов для выявления и устранения возможных «косяков» и багов перед запуском массового серийного производства на мощностях азиатских фабрик-партнёров. Ровно по такой же схеме, к слову, работают все ведущие мировые гранды рынка портативной электроники, включая Apple. В том материале среди актуальных моделей видеорегистраторов бренда был упомянут AdvoCam-FD8 Red II (GPS+ГЛОНАСС), который стал преемником популярного в своё время флагмана AdvoCam-FD8 Red 2013 года выпуска. В обновленной версии односистемный GPS заменили на ГЛОНАСС/GPS, установили топовую матрицу американской компании OmniVision с поддержкой режима HDR (высветляем тёмные участки, выравниваем яркость кадра). Получили добротный аппарат за 9 500 рублей. По мнению AdvoCam, обновлённый AdvoCam-FD8 Red II (GPS+ГЛОНАСС) — самый продуманный видеорегистратор среднего ценового сегмента (8-12 тысяч рублей) в России на конец 2016 года. Под «продуманностью» в данном случае понимается съёмка Super HD, приёмник ГЛОНАСС/GPS, HDMI, встроенная память, крупный экран и другие полезные особенности в компактном корпусе. Что ж, давайте разбираться, насколько успешным оказалось обновление популярной модели. Комплектация AdvoCam-FD RED-II GPS+ГЛОНАСС примечателен довольно богатым комплектом поставки. Так, кроме самого регистратора, в коробку положили следующие аксессуары. 1. Зарядное устройство от прикуривателя с дополнительным USB-портом. Таким образом, через адаптер можно заряжать не только авторег, но еще и смартфон или планшет. 2. Удобное крепление на вакуумной присоске. 3. Пластиковые крючки на скотче 3М для аккуратной прокладки кабеля по салону автомобиля (всего 6 крючков, чего хватит даже для автобуса или грузовика). 4. Кабель для подключения регистратора к компьютеру (USB-microUSB). 5. Руководство пользователя. 6. Диск с ПО. На нем вы найдете инструкцию в электронном виде, а также плеер для просмотра видеозаписей и кодеки. Впрочем, мануал есть и на сайте AdvoCam. Это важно, так как CD-приводы сегодня имеется далеко не во всех ноутбуках и даже настольных компьютерах. 7. Информационный листок от президента коллегии правовой защиты автолюбителей и популярного теле- и радиоведущего Виктора Травина. В этой брошюре перечислены действия, которые нужно произвести с видеозаписью в случае ДТП. Информация полезная, это сложно отрицать. Всё перечисленное выше упаковано в прямоугольную коробку, сделанную из плотного картона. Упаковка оформлена в красно-черных цветах. Кроме изображения самого AdvoCam-FD8 RED-II GPS+ГЛОНАСС, на коробке указано значение клавиш управления устройством. Здесь же можно найти основные характеристики регистратора. Также имеется таблица соотношения объёма карт памяти и длительности видео, которое на эти карты поместится. Конструкция и органы управления AdvoCam-FD8 RED-II GPS+ГЛОНАСС выглядит практически так же, как и все другие модели линейки FD8 – Black и Gold этого бренда. Все они выполнены в одном дизайне: вытянутый в горизонтальной плоскости корпус, закруглённые углы и скошенные грани. Разница лишь в цвете пластиковой накладки вокруг объектива камеры, в нашем случае она красная. Что и понятно из названия устройства. Кроме упомянутого объектива и красной вставки, на фронтальной стороне устройства (то есть той, что смотрит на дорогу) расположены прорези динамика, а также светодиодная подсветка. Последнюю не стоит использовать в движении, так как её свет будет отражаться от лобового стекла, что заметно ухудшит качество видеозаписи. Данная подсветка нужна для освещения близлежащих объектов, когда автомобиль стоит. К примеру, с её помощью на записи будет видно лицо инспектора ГИБДД, подошедшего для беседы или, упаси боже, попытки продажи вам его полосатой палочки. Также на этой стороне AdvoCam-FD8 RED-II GPS+ГЛОНАСС мы видим логотип AdvoCam и указание того, что аппарат записывает видео в Super Full HD 1296p. На противоположной стороне регистратора находится крупный 2,7-дюймовый дисплей. Такой диагонали хватит и для изучения меню, и для «прицеливания» камеры на дорогу, и даже для просмотра записанного видео. По бокам от экрана AdvoCam-FD8 RED-II GPS+ГЛОНАСС расположились кнопки управления – по одной сдвоенной клавише слева и справа. Кстати, об управлении: в данном устройстве (как и во всех других моделях AdvoCam) реализован фирменный интерфейс OneTouch, который позволяет одним нажатием включить или выключить ту или иную функцию (включить/выключить экран, запись звука, подсветку и многое другое). Это на самом деле удобно и очень просто в освоении. Отмечу, что даже у новичка не возникнет трудностей с управлением AdvoCam-FD RED-II GPS+ГЛОНАСС. На верхней грани AdvoCam-FD8 RED-II GPS+ГЛОНАСС находятся ещё две клавиши управления: питание и мгновенное фото. Также здесь есть разъём для подключения к компьютеру и AV-выход. Кроме этого, на верхнем торце расположена контактная площадка для кронштейна крепления. Да-да, питание на AdvoCam-FD8 RED-II GPS+ГЛОНАСС подаётся через кронштейн крепления, а не напрямую. То есть кабель зарядника подключается не к регистратору, а именно к креплению (хотя можно «воткнуть» и в корпус). Такая конструкция позволяет быстро снимать или устанавливать авторег на стекло – и никакой возни с проводами. На нижнем торце регистратора есть лишь вентиляционные отверстия, больше здесь ничего нет. На правом торце AdvoCam-FD8 RED-II GPS+ГЛОНАСС (если смотреть на экран) предусмотрен слот для карты памяти MicroSD. Гаджет без труда распознает карточки объёмом до 128 Гб включительно. На флешку такого объема поместятся примерно 16 часов видео в формате Super Full HD или же сутки беспрерывной съемки в Full HD. Таким образом, можно запечатлеть даже весьма продолжительную поездку целиком. На левом торце находится утопленная в корпус клавиша сброса (reset) и miniHDMI-выход. Последний используется для подключения регистратора к телевизору. Корпус AdvoCam-FD8 RED-II GPS+ГЛОНАСС сделан из шероховатого пластика чёрного цвета. Материал приятный на ощупь и довольно практичный. Так, на нём не остается отпечатков пальцев или мелких царапин, он не склонен к коллекционированию потертостей, да и из руки не выскальзывает. К качеству сборки регистратора у меня не возникло никаких претензий. Все детали чётко подогнаны друг к другу, нет ни неровных стыков, ни заусенцев, ни больших зазоров. Здесь же скажу несколько слов о креплении на вакуумной присоске. Как я уже говорил, кабель питания подключается не к регистратору, а именно к креплению. Также его преимуществом являются компактные размеры и надежный поворотный шарнир. Другими словами, вы можете быстро повернуть регистратор в любую сторону без откручивания винтов и отжимания зажимов. Например, в салон или в сторону водительского окна для записи беседы с инспектором ГИБДД. Запись видео AdvoCam-FD8 RED-II GPS+ГЛОНАСС записывает видео в разрешении — Super Full HD (2304x1296 пикселей). Поэтому глупо предполагать, что в нём используются дешевые пластиковые линзы, китайский процессор и китайская же матрица. Подобной экономией грешат многие бренды, производящие относительно недорогие регистраторы, однако AdvoCam не входит в их число. Так, объектив AdvoCam-FD8 RED-II GPS+ГЛОНАСС состоит из шести линз, сделанных из просветлённого профессионального стекла. Это говорит о том, что матрица получает бОльшее количество света в сравнении с пластиковыми линзами; как следствие, вечернее и ночное видео получается более высокого качества. Кроме того, пластиковые линзы могут деформироваться со временем под воздействием перепадов температур, а со стеклом такого не произойдет. Угол обзора объектива составляет 120 градусов по диагонали. Так что в кадр попадает не только то, что происходит непосредственно перед капотом автомобиля, но и обочина дороги. При этом изображение остается «ровным», то есть не загибается по краям, как это бывает с широкоугольными объективами. На процессоре для AdvoCam-FD8 RED-II GPS+ГЛОНАСС тоже не экономили. Это топовая версия американской Ambarella – A7LA50. Матрица здесь тоже американская – 4-мегапиксельная OmniVision OV4689 формата 1/3''. То есть размер сенсора здесь больше, чем в большинстве других регистраторов, где обычно 1/4'' или даже меньше. Это самым положительным образом сказывается на качестве записи в условиях недостаточной освещенности, поскольку чем больше каждый пиксель матрицы, тем лучше будет ночное и вечерне видео. И все это – особо подчеркну – в регистраторе среднего класса, а не во флагманской модели! AdvoCam-FD8 RED-II GPS+ГЛОНАСС записывает видео в следующих режимах: • 2560 х 1080 пикселей, 30 кадров в секунду; • 2304 х 1296 пикселей, 30 кадров в секунду; • 1920 х 1080 пикселей, 30 кадров в секунду; • 1920 х 1080 пикселей с HDR, 30 кадров в секунду; • 1280 х 720 пикселей, 60 кадров в секунду; • 1280 х 720 пикселей, 30 кадров в секунду. Предлагаю ознакомиться с примерами видео, записанного на AdvoCam-FD8 RED-II GPS+ГЛОНАСС в разное время суток и при разных погодных условиях: Я ни капли не слукавлю, если скажу, что AdvoCam-FD8 RED-II GPS+ГЛОНАСС пишет видео высокого качества. На записях видны все мелкие детали, такие как дорожные знаки, цвет светофоров, номерные знаки автомобилей, тексты на дорожных указателях и прочее. Также отмечу отсутствие затемнённых участков в кадре и излишне высветленных – картинка ровная. Все сказанное выше относится как к дневной съемке, так и к ночной. Даже не верится, что AdvoCam-FD RED-II GPS+ГЛОНАСС относится к среднему классу авторегов. Днем дистанция читаемости госномеров составляет около 17-18 метров, ночью – до 12 метров. Это отличные показатели для модели среднего ценового диапазона с ценником меньше 10 тысяч рублей. Китайские конкуренты за те же деньги выдают показатели хуже: днём – максимум 15 метров, ночью – около 10 метров. Дополнительные функции Здесь начну с того, что AdvoCam-FD8 RED-II GPS+ГЛОНАСС автоматически включается и начинает запись после запуска двигателя машины. Отключение происходит аналогичным образом – двигатель заглушили, съемка прекратилась и регистратор выключился. Также можно активировать ручной режим старта/остановки записи. Функция циклической записи (сохранение новых роликов поверх старых при заполнении карты памяти), конечно же, присутствует. В настройках можно выбрать продолжительность роликов между 1, 5, 10 и 15 минутами. Для того чтобы важное видео случайно не удалилось при циклической записи, любой фрагмент можно пометить как «важный» и «неудаляемый» вручную. Также для присвоения аварийной метки предусмотрен встроенный G-сенсор, который автоматически реагирует на «внештатные ситуации», например, удар, резкое торможение, наезд в открытый люк, большую яму и т.д. В таком случае датчик срабатывает и автоматически защищает текущий фрагмент видео от перезаписи. К слову, в настройках можно настроить чувствительность G-сенсора. Скажем, вы часто ездите по грунтовым дорогам или дорогам с плохим покрытием – нужно выставить чувствительность на более низкий уровень, чтобы датчик не срабатывал на малейших ямках и кочках. И наоборот: если вы катаетесь только по хорошим дорогам – «выкручиваем» чувствительность на более высокий уровень. Отдельно отмечу функцию «копия для протокола». С её помощью вы можете быстро скопировать «аварийное» видео в память регистратора (для этого предусмотрено 256 Мб встроенной памяти, чего хватит почти на две минуты записи в разрешении Super Full HD), а карту памяти вытащить и отдать сотруднику ГИБДД. Согласитесь, это удобно. Не нужно копировать видео в телефон или оснащать регистратор вторым слотом для карты памяти. Мне такая опция очень понравилась. Немало функций в AdvoCam-FD8 RED-II GPS+ГЛОНАСС добавляет двухсистемный приемник спутниковой навигации GPS/ГЛОНАСС. К примеру, он определяет скорость, которая может отображаться поверх видеоряда в виде штампа. К тому же, в настройках можно выставить максимальный предел скорости, которая будет показана на видео. Так сказать, опция специально для водителей нашей страны, которые любят нарушать скоростной режим. Кроме этого, AdvoCam-FD8 RED-II GPS+ГЛОНАСС способен заблаговременно предупреждать водителя о приближении к постам ГИБДД, камерам фиксации скорости (в том числе «Стрелка-СТ») и т.д. То есть в случае превышения вы всегда успеете снизить скорость до разрешенной. Работает это следующим образом. В памяти регистратора содержится база с координатами постов и камер. При приближении к таким точкам устройство предупредит вас звуковым сигналом, а на экране будет показана ваша текущая скорость и разрешенная. Можно использовать как «официальную» базу от AdvoCam (есть на официальном сайте бренда ) или использовать базы от энтузиастов (на просторах интернета таких более чем достаточно). К тому же, вы сами можете редактировать файл с базой данных – удалять устаревшие «точки» или добавлять свои. Всё просто и удобно, файл имеет расширение TXT. Если кто-то не знает, чем двухсистемный модуль спутниковой навигации лучше обычного GPS (односистемного), я объясню. Вариант ГЛОНАСС/GPS увереннее держит связь со спутниками в плохих условиях приёма сигнала- например, тоннелях или местах с большим количеством высотных зданий. Плюс на поиск спутников, то есть, старт навигационного модуля уходит меньше времени. AdvoCam – один из немногих производителей регистраторов, который оснащает свои модели двухсистемными приёмниками GPS-ГЛОНАСС. Китайские и псевдо-русские бренды, которые перепродают «Китай» под своими логотипами, практически всегда ставят «голый» GPS и не учитывают национальную специфику для российских потребителей. Также стоит сказать о наличии в AdvoCam-FD8 RED-II GPS+ГЛОНАСС системы безопасности LDWS, функция которой – снизить количество аварий, произошедших по вине уснувшего или отвлёкшегося водителя. Так, регистратор следит за движением автомобиля по дорожной полосе и в случае смещения на обочину или соседнюю полосу издает громкий сигнал. Таким образом, водитель успеет прийти в себя и избежать ДТП. Функция весьма полезна, только для её правильной работы нужна качественная дорожная разметка, не покрытая пылью, грязью или снегом. То есть, данная функция будет работать по сути только летом в хорошую погоду. Вывод Подведу итоги. AdvoCam-FD8 RED-II GPS+ГЛОНАСС относится к среднему классу видеорегистраторов, однако его принадлежность определяет лишь цена (9 500 рублей). В остальном же его вполне можно назвать флагманским устройством, и для этого есть все основания. Посудите сами: регистратор пишет высокодетализированное качественное видео в разрешении Super Full HD, за что стоит благодарить недешевые комплектующие. Номера едущих впереди автомобилей различимы днём с 17 метров, ночью – с 12. Очень и очень достойный результат для среднего ценового сегмента. Также он оснащен двухсистемным модулем спутниковой связи (GPS/ГЛОНАСС) в отличие от большинства китайских моделей, в которые ставят только GPS. AdvoCam-FD8 RED-II GPS+ГЛОНАСС имеет весьма широкий набор дополнительных функций – практическ максимальный. Включая предупреждение о приближении к радарам, камерам и постам ГИБДДД, и набирающую популярность систему LDWS. Добавим сюда высокое качество сборки и богатую комплектацию. В итоге получим современный авторег по доступной цене. Впрочем, если желаете немного сэкономить – можно купить за 8 000 рублей версию AdvoCam-FD8 RED-II без модуля GPS/ГЛОНАСС.
https://geektimes.ru/company/advocam/blog/284124/
habrahabr
3CX V15 SP4 – новые возможности и Release Candidate версии для Linux
['3CX', 'V15', 'SP4', 'Linux', 'RC', 'Release Candidate', 'DECT', 'FXS']
Дорогие друзья! Прежде всего, просим прощения за задержку в публикации статей, которая случилась исключительно по техническим причинам. Мы сделали все необходимое, чтобы такие задержки больше не...
Дорогие друзья! Прежде всего, просим прощения за задержку в публикации статей, которая случилась исключительно по техническим причинам. Мы сделали все необходимое, чтобы такие задержки больше не повторялись. Мы продолжаем публиковать информационные статьи и технические руководства для вас в прежнем режиме! Приближаются праздничные дни, и мы приготовили для вас подарок – релиз 3CX v15 Service Pack 4, наполненный новыми возможностями и важными исправлениями. А 3CX V15 Linux Edition получила статус Release Candidate! Главные улучшения в новом релизе: автоматическая настройка DECT и FXS устройств, позволяющая несколькими кликами мыши настроить базовую станцию DECT с множеством терминалов (трубок) — при этом каждому терминалу присваивается свой SIP номер; новый модуль отчетов и многочисленные исправления при генерации отчетов. В новом релизе мы также сократили функциональный разрыв между Windows и Linux версиями системы – в Linux версии появился факс-сервер, система отказоустойчивости и поддержка внешних каталогов пользователей. Обновление, как обычно, устанавливается через раздел Обновления интерфейса 3CX. Новые возможности Простая автоматическая настройка базовых станций DECT с несколькими DECT терминалами. Каждому терминалу присваивается индивидуальный добавочный номер 3CX. Руководство по настройке будет опубликовано в ближайшее время. Вход в персональный портал пользователя непосредственно из консоли управления 3CX Новый модуль отчетов для Linux Возможность экспорта журнала вызовов в CSV файл Повышено качество работы системы отказоустойчивости Система отказоустойчивости появилась в версии для Linux Добавлена поддержка голосового кодека G729 в клиентах 3CX Новый факс-сервер для Windows и Linux с поддержкой протокола IPv6 Добавлены дополнительные домены первого уровня для выбора FQDN имени сервера 3CX В консоль управления добавлен выбор страны и часового пояса Добавлена интеграция с Office 365 Directory Service в Linux версии. Теперь вы можете синхронизировать контакты Office 365 с адресной книгой 3CX Дополнительная опция безопасности – блокирование вызовов на префиксы спутниковых телефонных номеров Автоматическая настройка новой сущности 3CX (добавочные номера, транки, парметры АТС) с помощью файла – шаблона (файла ответов). Дополнительная информация содержится здесь . Исправления Многочисленные исправления в ядре редакции 3CX V15 для Linux — перевод ее в статус Release Candidate Исправлена ошибка в сервисе Management console, который иногда стартовал слишком долго. Из-за этого интерфейс системы при входе выдавал ошибку. Добавлено сообщение о необходимости обновить кэш браузера при обновлении интерфейса консоли управления Исправлена ошибка, при которой не сходилась статистика Очередей / Агентов и Обзора продуктивности очереди Вызовы, в которых производилось вклинивание, показывали неточную общую длительность разговора Добавлено округление стоимости вызова Исправлены другие мелкие ошибки генерации отчетов Исправлена ошибка, которая возникала при необходимости указать пользовательский IP адрес и порт в поле SIP Contact в настройках транка Резервное копирование теперь сохраняет и список заблокированных префиксов (стран) Загрузки и документация Редакция 3CX V15 для Windows Редакция 3CX V15 для Linux, устанавливается по этому руководству . Только для Debian Linux 8! ISO образ Debian for 3CX Руководство по автоматической настройке FXS и DECT устройств Руководство по автоматической установке и настройке 3CX Руководство администратора Руководство пользователя Журнал изменений
https://habrahabr.ru/company/3cx/blog/318578/
habrahabr
«Программист — Аналитическое мышление = 1С программист» и другие результаты GoToHack
['машинное обучение', 'программирование', 'анализ данных', 'хакатон', 'школа']
С 9 по 11 декабря состоялся наш второй хакатон GoToHack для ребят до 20 лет, посвященный применению технологий машинного обучения в сфере образования и HR. По итогам каждая команда...
С 9 по 11 декабря состоялся наш второй хакатон GoToHack для ребят до 20 лет, посвященный применению технологий машинного обучения в сфере образования и HR. По итогам каждая команда презентовала результаты перед экспертами, лучшие были награждены различными призами: от поступления в университет до гранта размером 100 000 рублей на поездку на международную конференцию. О проектах и забавных моментах можно прочесть под катом. К участию мы пригласили 90 отчаянно жаждущих «машинку» школьников и студентов, которые смогли пройти отборочный онлайн-этапа хакатона в виде задания на Kaggle по предсказанию результата прохождения онлайн-курса на основе реальных данных партнёра – платформы Stepik.org. Подробно мы писали об этом здесь . Как и в первый раз, хакатон начался с обучающего интенсива и мастер-классов: Александр Панин из Яндекса провел серию вводных мастер-классов для начинающих, Камиль Салахиев из Университета Иннополис провел мастер-класс по MapReduce, Муаммар Иль-Шедиват из Яндекса рассказал ребятам о работе с речью. Потом начались презентации кейсов от гостей хакатона: Александр Кукушкин рассказал об исследовании московских школ, Александр Петров из E-Contenta и Александр Семенов из МТС поведали об исследованиях данных социальных сетей. После ребята объединились в команды и познакомились с кураторами, которыми стали молодые разработчики и выпускники ШАД Яндекса. Команды могли использовать любые открытые данные для реализации своих идей, организаторы же предоставили датасеты от Stepik, QIWI, HH, VK, Skyeng, МТС и GitHub. Благодаря щедрому партнеру Servers.ru, у каждой команды была возможность отхватить себе по GPU и радоваться жизни. Второй день начался с мастер-классов по Deep Learning от Александра Панина, работе с текстами от Александра Петрова и с грязными данными от Кирилла Лунева из Яндекса. Также прошла презентация проекта про мониторинг внимания аудитории по видео от студентов ФКН НИУ ВШЭ под руководством YDF. Презентации части лекций можно здесь , воркшопов – здесь . Дальше все участники погрузились в непрерывные судороги рождения проектов, периодически страдая от отсутствия конкретной задачи и лидерборда, а также наслаждаясь забавными особенностями площадки и окружения. Немного о процессе Хакатон прошел в стенах Точки кипения АСИ, и все 3 дня нас радовали забавные схемы форсайтов и стенды, довольно сильно мотивирующие ребят. Поставки глюкозы юным датасайнтистам происходили круглосуточно. Также как и постоянные внутривенные инъекции знаний и лайфхаков от кураторов. Стоит отдать должное кураторам, многие проявили небывалую стойкость и терпение. Естественно, участники не обходились без здоровой доли агрессии и адреналина. Как и обычно бывает на хакатонах, в конце все закончилось презентациями проектов от команд, доживших до сего торжественного момента. Стоит отметить, что в этот раз итоговое решение принималось не только на основе выступления, как это и обычно бывает, еще была учтена оценка за техническую реализацию от кураторов. Это добавило антуража процессу, ребята судорожно делали демки, тетрадки и разгребали свой говнокод. В итоге первое место разделили 2 команды, представившие следующие проекты: – Сборная звездных школьников из Воткинска, Москвы и Архангельска c чат-ботом ZuckWorkBot для подбора онлайн-курсов на Coursera соответствующих требованиям выбранной вакансии компании Facebook. Ребята порадовали жюри веселой презентацией о том, что все хотят работать в FB, и рассказали как они могут нам всем помочь. Бота можно потестировать, ищите @ZuckWorkBot в Telegram. – Одинокий первокурсник с ФКН ВШЭ с проектом Q&A matching , основная идея которого заключается в подборе ответа на вопрос, заданный естественным языком. Вся система обучалась на датасете вопросов от ТheQuestion. Вопросы и ответы разбиваются на слова и векторизуются при помощи Word2Vec, попадают в рекуррентную нейронную сеть, после чего при помощи triplet loss отображаются в векторное пространство высокой размерности. Когда задается новый вопрос, к нему применяется то же преобразование, после чего ищется L2-ближайший ответ. Полученные результаты могут быть использованы для автоматизации поддержки программных продуктов, онлайн-курсов и тд. Второе место заняли ребята с проектом Personnel по оценке заработной платы по описанию вакансии и навыков, требуемых от кандидата. Система Skill2Vec реализована с помощью преобразования навыков в вектора аналогично Word2Vec и обработки естественного языка рекуррентными нейронными сетями. Один из забавных примеров: «программист»-«аналитическое мышление» =«1С программист», демка здесь . Третье место – команда, представившая систему StudentClass по отслеживанию прогресса ученика онлайн-платформы обучения английскому языку Skyeng во время голосового общения с учителем. С помощью нейронных сетей по аудиозаписи урока определяется, кто говорит в данный момент времени и на каком языке. Также были вручены специальные призы в номинациях от QIWI. Компания не только предоставила свои данные и задачи на них, но и наградила 3 команды по итогам: AlexNet, Untitled1 и Amise. Комментарии о задачах от QIWI: «В прошлом году были исследования, показавшие, что студенты не находят работу после диплома. Мы посмотрели, что много студентов играет в игры. А где игры — там и QIWI. Посмотрели все данные по платежам, представили, как их можно проанализировать. Задача стояла исследовать данные и найти в платежной истории какой-то набор признаков, говорящих о том, что студент закончил университет и у него появился доход. Например, стал платить за ЖКХ или больше тратить. Задача участникам понравилась, ведь она очень похожа на реальный комплекс задач, которые решают исследовательские компании, сотрудничающие с крупнейшими европейскими банками. Они тоже ищут события по платежной истории — обнаруживают свадьбу, скорое рождение ребенка, покупку машины, — а банк предлагает клиенту соответствующие кредиты и другие продукты. Вторая задача была про определение социодемографических характеристик пользователя. Команда, получившая первый приз, с высокой точностью научилась определять пол и возраст, и их решение может быть по-настоящему применено в бизнесе. Конечно, ребята ожидали, что в банках много данных. А на самом деле платежная история банка выглядит довольно скучно: категория транзакции, ее сумма и время. Но из этого скучного списка можно выделить огромное количество признаков. И мы хотели, чтобы ребята попробовали эту работу сделать самостоятельно. Также хотели бы отметить, что на хакатоне само соревнование часто отходило на второй план. Хотя команды были соперниками, они много помогали друг другу, делились кусками кода, тестировали. На взрослых хакатонах такого не бывает вообще. У поколения Z — родившихся после 1995 года — вообще повышенные навыки командообразования, назначения ролей. И больше способностей добиться общего результата.» Также свои номинации учредил МТС и Рыбаков Фонд с денежными грантами, Университет Иннополис c грантами на бесплатное обучение в бакалавриате, ФКН НИУ ВШЭ с приглашением на Школу по байесовским методам в глубинном обучении. А компания Профилум, например, пригласила победившие команды на ужин с инвестором Гором Нахапетяном. По итогам организаторы выбрали 6 школьников, которые отправятся на финал олимпиады НТИ, минуя отборочные этапы. Кстати, на зимней школе GoTo будет отдельная мини-группа для подготовки к олимпиаде по направлению «Большие данные и Машинное обучение.» Генеральным партнером хакатона стала Российская венчурная компания, техническим партнером – компания Servers.ru. Комментарии Александра Петрова, одного из членов жюри: «Я был приятно удивлен уровнем проектов на хакатоне – он соответствовал самому „взрослому“ уровню. Ребята использовали те методы и технологии, которые появились недавно и пока только начинают находить применение в реальном бизнесе, например, технологии обучения глубоких нейросетей. Уверен, что знания и опыт полученный в рамках хакатона пригодятся всем для будущих проектов. Мы со стороны E-contenta обязательно продолжим сотрудничество с GoTo, так как для нас это не просто благотворительность: уже двое ребят из GoTo прошли стажировку у нас, а их код работает в боевом режиме на крупных проектах.» Фото с закрытия Узнать подробности, а также подать заявки на участие в следующем хакатоне можно здесь .
https://habrahabr.ru/company/goto/blog/318260/
habrahabr
Создавая хтонических чудовищ, документируй
['документация', 'api', 'c', 'c++', 'lua']
Под данным изречением-мемом, взятым с замечательной картинки Владимира Филонова, поставит свою подпись каждый человек, имеющий хотя бы отдалённое отношение к программированию. Весь вопрос, как?...
Под данным изречением-мемом, взятым с замечательной картинки Владимира Филонова , поставит свою подпись каждый человек, имеющий хотя бы отдалённое отношение к программированию. Весь вопрос, как? Как именно документировать-то? Нижележащий текст преследует несколько целей: Дать краткий обзор (читай — немного погундеть на тему) неудовлетворительного состояния инструментария, применимого к хтоническим чудовищам мира C/C++; Предложить своё альтернативное решение (бесплатно-без-СМС-и-регистрации — проект некоммерческий и выложен на GitHub под MIT-лицензией); Призвать сообщество пообщаться на тему и собрать идеи; Пригласить присоединиться к разработке проекта на GitHub. Сразу оговорюсь, что хотя проект создавался в первую очередь как альтернатива, а точнее, дополнение Doxygen для сишных и плюсовых API, архитектурно он в равной степени пригоден и для других языков . Это позволяет создавать порталы документации разноплановых библиотек — сами библиотеки могут быть написаны на разных языках, а в документации будет единство стиля во внешнем виде и поведении. Мотивация По большому счёту, подходов к документированию API и библиотек — плюсовых или нет — ровно два. Первый, это писать всё ручками . Даже неважно в чём — в Help & Manual, RoboHelp, Word или другом редакторе. Несмотря на то, что этот традиционный способ всем понятен и по-прежнему широко используется, я глубоко убеждён что он в корне неверен. Дело в том, что он порождает документацию, которая всё время местами нерелевантна и отстаёт от объекта документации . Поддержка согласованности между созданными раздельно, а зачастую ещё и разными людьми, документацией и постоянно эволюционирующим API библиотеки — не эволюционируют только умершие или замороженные продукты! — это колоссальная задача, лишь немногим более лёгкая написания первичной документации. Второй, "правильный" подход, состоит в том, чтобы генерировать документацию по исходникам автоматически. Специально обученный парсер пробегает по исходникам, вычленяет особым образом оформленные комментарии с документацией и строит структуру дерева публичных объявлений API. После этого генерируется документация в нужном формате — меня, как, полагаю, и большинство, в первую очередь интересует HTML и PDF. Основным преимуществом данного подхода является гарантированная когерентность объявлений в исходниках API и в конечной документации. Даже при полном отсутствии в исходниках содержательных комментариев с собственно "документацией" , в конце мы будем иметь прекрасный снимок состояния API библиотеки, с возможностью "попрыгать" по объявлениям и описаниям типов, и т.д. Итак, с вашего позволения, я сконцентрируюсь на "правильном" подходе с автогенерацией. Какие варианты у нас имеются тут? Увы, для документации C/C++ на данный момент имеется и реально используется печально мало : Doxygen да QDoc . И с этими двумя тоже далеко не всё гладко. Doxygen — первый по-настоящему успешный проект по вытаскиванию комментариев из кода на плюсах и превращению оных в HTML-документацию с гиперссылками, картинками графов наследования, вызовов и т.д. В отличие от своего прямого родителя — первопроходца Doc++, так никогда и не получившего достаточного распространения, Doxygen сейчас — это де-факто стандарт документирования кода на C/C++. И всё это было бы замечательно, если бы не два "но": Стандартный генерируемый доксигеном HTML, как бы это помягче сказать… не обременён элегантностью . Конечно, тут есть место субъективизму. Я вполне допускаю, что в мире существуют не столь придирчивые люди, которых доксигеновский выхлоп полностью устраивает (рискну предположить, однако, что профессиональных дизайнеров среди них не окажется). Но даже если умолчальный доксигеновский HTML и устраивает кого-то с визуальной точки зрения (а серьёзно, есть такие, кому он и вправду нравится эстетически ? напишите в комментариях!), очень часто хочется поменять и настроить что-то выходящее за рамки подкручивания CSS — например, упечь объявления в <pre> и расставить отступы и пробелы в соответствии с принятым в данной конкретной библиотеке coding-style. Это подводит нас ко второй, более фундаментальной проблеме Doxygen: Doxygen за свою долгую жизнь так и не отрастил настоящую, модульную настраиваемость . Да, есть Doxyfile с кучей переменных, есть возможность менять HTML шапки и CSS, но архитектурно — всё захардкожено в монолитное C++ ядро! Причём захардкожен как front-end, а именно, парсеры исходников, так и back-end — генераторы HTML, PDF, RTF и другого (среди которого, слава небесам, есть и XML). QDoc по умолчанию выдаёт гораздо, гораздо более симпатичный HTML , чем Doxygen. К сожалению, если требуется что-то не по умолчанию , то QDoc страдает всё той же врождённой деревянностью , что и Doxygen (растущей, понятно, из той же самой ж... захардкоженности и парсера, и генератора в монолитное плюсовое ядро). В дополнение к своей деревянности, QDoc, в отличие от Doxygen, имеет всего лишь один входной парсер — для QT-диалекта C++ (со всеми Q_OBJECT , Q_PROPERTY , foreach , и т.д. жёстко трактуемыми как ключевые слова). И при этом, — что уж совсем ни в какие ворота, — не умеет генерировать PDF! Альтернатива Предлагается заменить один инструмент конвейером . Вместо Doxygen -> (HTML, PDF, ...) … будем использовать следующий pipeline: Doxygen -> (XML) -> -> Некий-Мост -> (reStructuredText) -> -> Sphinx -> (HTML, PDF, ...) Что оставляем старого? Разработчики знают как и уже привыкли документировать C/C++ код с помощью Doxygen-комментариев : /*! \brief This is a brief documentation for class Foo. This is a detailed documentation for class Foo. ... */ class Foo { // ... } Зачем изобретать новый синтаксис? Будем писать документацию так же, как и раньше! Doxygen умеет вытаскивать документацию из исходников и класть её вместе с деревом объявлений в XML базу данных. Прекрасно! Это будет нашим front-end . Ещё легче ответить на вопрос о том, что использовать в качестве back-end — конечно, Sphinx . Sphinx заслуженно получил колоссальное распространение как инструмент написания технической документации. Он выдаёт весьма вкусно выглядящий HTML с поддержкой полноценных тем (а не просто CSS!), умеет склеивать всё в одну HTML-простыню, генерировать документацию в PDF, EPUB и множестве других форматов — и всё это из коробки! Но что самое главное, он полностью настраиваем с помощью Python-скриптов, причём их можно применять как для тюнинга внешнего вида, так и для расширения входного языка (каковым для Sphinx является reStructuredText) — а именно, дописывать свои директивы и потом использовать их в документации. Осталось подружить Doxygen и Sphinx. Строим мост Замечу, что я не первый, кто пытался построить мост между Doxygen и Sphinx . Относительную известность приобрёл проект breathe , написанный на Python как расширение для Sphinx. В настоящий момент проект не слишком активно ковыряется отвёрточкой, и, увы, из коробки не пригоден для серьёзных задач. Архитектурно он устроен следующим образом: он парсит XML-выхлоп доксигена и создаёт узлы reStructuredText дерева в памяти напрямую. Я же решил пойти несколько другим путём. Doxyrest — так называется наш мост — парсит доксигеновские .xml файлы, а затем отдаёт распарсенный XML и набор файлов-шаблонов в шаблонизатор (string template engine, template processor). Шаблонизатор генерирует файлы с reStructuredText , и уже эти .rst файлы передаются в Sphinx-back-end для получения окончательной документации в заданном формате. Основная фишка — конечно же, использование шаблонизатора. Это позволяет полностью настраивать структуру документации: менять порядок и группировать документируемые объекты (классы/функции/свойства и т.д.), настраивать стиль объявлений (где и как использовать отступы, пробелы, переносы строк и т.д.), использовать логику произвольной сложности для включения или не включения данного конкретного объекта в документацию, и так далее — и всё это без перекомпиляции , просто правкой входных шаблонов! Но главное — подход с шаблонизатором позволяет применять Doxyrest для абсолютного большинства любых других языков , и в частности, разнообразных DSL — для которых никто и никогда не будет делать специализированных систем документации. Doxygen не умеет парсить ваш язык? Взяли компилятор языка, добавили туда генерацию Doxygen-подобного XML по уже имеющемуся AST, затем исправили шаблоны выходных .rst файлов — чтобы объявления в документации были с нужным синтаксисом, — и всё! Ваш язык теперь можно документировать с помощью Doxygen-комментариев и получать на выходе красивую Sphinx-документацию. В настоящий момент для шаблонизации используется язык Lua (просто потому что у меня уже была готовая и отлаженная библиотечка Lua string templates), но в теории ничто не мешает добавить поддержку и других языков шаблонизации. Выглядят и работают шаблоны как-то так: Title ===== %{ if false then } This text will be excluded.. %{ end -- if for i = 1, 3 do } * List item $i %{ end -- for } На выходе будем иметь: Title ===== * List item 1 * List item 2 * List item 3 Примеры использования Лучше один раз увидеть, чем сто раз услышать. Посему, вместо заключения я решил просто привести ссылки на результат работы Doxyrest в применении к различным языкам: Jancy Standard Library Reference (язык Jancy) Jancy C API Reference (язык C) IO Ninja API Reference (язык Jancy) AXL Library Reference (язык C++) Несмотря на незаконченность содержательной части документации по ссылкам выше (собственно описания классов, функций и т.д.), всего этого должно быть достаточно для демонстрации работоспособности метода. Страничка проекта на GitHub: http://github.com/vovkos/doxyrest Проект выложен под одной из самых нестрогих лицензий в мире — The MIT License . Смотрите, пробуйте, присоединяйтесь к разработке. А я с удовольствием отвечу на все вопросы в комментариях.
https://habrahabr.ru/post/318564/
habrahabr
Простейший вывод звука с помощью библиотеки Audiere
['audiere', 'c++', 'audio api', 'beginner manual']
Приветствую! Данная заметка ориентирована на начинающих программистов, самых, что ни на есть новичков. Она о простой библиотеке Audiere. Если вы когда-то хотели вывести звук просто и быстро, то...
Приветствую! Данная заметка ориентирована на начинающих программистов, самых, что ни на есть новичков. Она о простой библиотеке Audiere. Если вы когда-то хотели вывести звук просто и быстро, то Audiere вам скорее всего понравится! Для начала расскажу немного о том, что это: Audiere — это высокоуровневый аудио-API с открытым исходным кодом под лицензией LGPL. Его можно использовать во множестве языков, включая Java, C++, Python, Delphi и др. Разрешается использовать в коммерческих приложениях свободным образом, если исходный код не будет затронут (подробности в документации к библиотеке). Подготовимся к реализации простейшего примера на C++: Скачиваем библиотеку на оф.сайте (в моём случае — это Win32 Binary Release) Традиционно переносим файл «audiere.lib» в папку «lib» компилятора, а заголовочник «audiere.h» также в папку «include» вашего компилятора *** пути к папке компилятора для CodeBlocks «Program Files(x86)/CodeBlocks/MinGW/» , для Microsoft Visual Studio - «Program Files(x86)/Microsoft Visual Studio/VC/» Создаём для примера консольный проект C++ В настройках линкера в проекте добавляем «audiere.lib» Не забываем «audiere.dll» из папки «bin» положить рядом с исходниками нашего проекта, а затем и рядом с exe-файлом нашей программы. Если совсем новичок Если ты третий день, как научился выводить «cout<<», то заранее скажу, друг, просто повторяй, что написано внизу, я постараюсь всё объяснить. Необходимо подключить заголовочные файлы: #include <iostream> //нужен для вывода строк "cout<<" #include "conio.h" //нужен намеренно для "getche()", а не "cin>>" #include "windows.h" //библиотека audiere её требует #include "audiere.h" //сама библиотека using namespace std; using namespace audiere; //подключаем пространства имён для более короткой записи Далее главная функция: int main() { setlocale(0, "Russian"); //пусть наша консоль говорит по-русски cout<<"Простейшее воспроизведение звука"<<endl; AudioDevicePtr device = OpenDevice(); //Для начала нужно открыть AudioDevice OutputStreamPtr sound = OpenSound(device , "sound.wav" , false); //создаем поток для нашего звука sound->play(); //проигрываем наш звук getche(); //ждём нажатия любой клавиши прежде чем выйти из программы } Теперь, комментарии чуть более развернутые: AudioDevicePtr device = OpenDevice(); Здесь мы создаем, по концепции библиотеки указатель device (не совсем явный, но всё же указатель). OpenDevice() можно оставить без аргументов, тогда библиотека сама выберет подходящее устройство. Далее, открываем наш файл в поток: OutputStreamPtr sound = OpenSound(device , "sound.wav" , false); Открывая наш звук, в OpenSound нужно передать три аргумента: 1. device — устройство куда будет происходить вывод 2. «sound.wav» — наш произвольный звук 3. false или true — хотим мы, чтобы наш звук был загружен в память и воспроизведён(false) или, посредством потока (например, если это большой файл), воспроизводился не загружаясь полностью в память(true). Для саундтреков обязательно «true», иначе всю память займёт звук. sound->play(); Проигрываем наш звук! Как видно, всё очень просто. Для звуков можно установить громкость: sound->setVolume(1.0f); //полная громкость (для половинной "0.5f" соответственно) Можно сделать звук повторяющимся (зацикленным): sound->setRepeat(true); Остановить воспроизведение данного потока: sound->stop(); Узнать проигрывается ли данный поток сейчас: sound->isPlaying(); Узнать текущую громкость у данного потока: sound->getVolume(); Установить панораму звука (слева, по центру, справа): sound->setPan(-1.0);//в данном случае установит звук на левый канал, 0.0 - установит посередине, а 1.0 справа Установить скорость воспроизведения звука (тональность тоже меняется): sound->setPitchShift(1.0);//нормальная скорость. Значения от 0.5 до 1.0 замедлят звук, а от 1.0 до 2.0 ускорят. sound->getPitchShift();//узнать текущее значение PitchShift для потока В заголовочном файле «audiere.h» определены ещё некоторые другие функции такие, как «CreateTone();», «CreatePinkNoise()» и прочие, включая MIDI-возможности. Список членов пространства имён «audiere», а заодно и ссылка на онлайн-документацию здесь . Конечно же, в нашу программу ещё нужно добавить обработку ошибок, тогда исходный код будет выглядеть следующим образом: AudioDevicePtr device = OpenDevice(); if(!device) { cout<<"Ошибка открытия AudioDevice. Нажмите любую клавишу для выхода.."; getche(); return 0; //выходим из программы } А также обработка ошибки открытия файла: if(!sound){ cout<<"Ошибка открытия файла! Для выхода нажмите любую клавишу.."; getche(); return 0; } Исходный код полностью #include <iostream> //нужен для вывода строк "cout<<" #include "conio.h" //нужен намеренно для "getche()" , а не "cin>>" #include "windows.h" //библиотека audiere её требует #include "audiere.h" //сама библиотека using namespace std; using namespace audiere; //определяем пространства имён для более короткой записи кода int main() { setlocale(0, "Russian"); //пусть наша консоль говорит по-русски cout<<"Простейшее воспроизведение звука"<<endl; AudioDevicePtr device = OpenDevice(); //Для начала нужно открыть AudioDevice if(!device){ cout<<"Ошибка открытия AudioDevice. Нажмите любую клавишу для выхода.."; getche(); return 0; //выходим из программы } OutputStreamPtr sound = OpenSound(device , "sound.wav" , false); //открываем наш звук if(!sound){ cout<<"Ошибка открытия файла! Для выхода нажмите любую клавишу.."; getche(); return 0; } sound->play(); //проигрываем наш звук getche(); //ждём нажатия любой клавиши прежде чем выйти из программы } И напоследок, программа по-интереснее: сделаем примитивный музыкальный инструмент! В этот раз мы будем пользоваться методом «getch()». Его отличие в том, что он работает также, как «getche()», но не отображает введенные символы. Но вдруг у вас получилась интересная мелодия и нужно посмотреть, что вы нажимали?: можно использовать и «getche()», а можно и в массив записывать с «getch()». Я намеренно не усложняю текст для новичков, чтобы не скрывать простоту кода, поэтому проверку на ошибки и всё остальное вы можете дописать сами. Исходный код музыкального инструмента: #include <iostream> #include "conio.h" #include "windows.h" #include "audiere.h" using namespace std; using namespace audiere; int main() { setlocale(0, "Russian"); cout << "Играйте клавишами Q W E R T Y U I O . X - для выхода" << endl; AudioDevicePtr device = OpenDevice(); OutputStreamPtr do1 = OpenSound(device , "do.wav" , false); //здесь мы начинаем создание потоков со звуками определённой высоты OutputStreamPtr re = OpenSound(device , "re.wav" , false); OutputStreamPtr mi = OpenSound(device , "mi.wav" , false); OutputStreamPtr fa = OpenSound(device , "fa.wav" , false); OutputStreamPtr sol = OpenSound(device , "sol.wav" , false); OutputStreamPtr la = OpenSound(device , "la.wav" , false); OutputStreamPtr si = OpenSound(device , "si.wav" , false); OutputStreamPtr do2 = OpenSound(device , "do2.wav" , false); //заканчиваем октавой - вновь нота до, но уже следующей октавы char notePlay = '1'; //инициализируем символьную переменную с произвольным значением while(notePlay!='x') //цикл выполняется, пока не нажата клавиша "x" { notePlay=getch(); if(notePlay=='q') do1->play(); else if(notePlay=='w') re->play(); else if(notePlay=='e') mi->play(); else if(notePlay=='r') fa->play(); else if(notePlay=='t') sol->play(); else if(notePlay=='y') la->play(); else if(notePlay=='u') si->play(); else if(notePlay=='i') do2->play(); } return 0; } Файлы *.wav для этого проекта можно скачать здесь . Распакуйте их в папку с исходным кодом. А это для совсем новичков В «conio.h» есть хорошая альтернатива методу «cin>>» — это «getche()». «getche()» не дожидается ввода команды «Enter», а присваивает значение переменной сразу после нажатия клавиши: char inputVar; inputVar=getche(); Но как видишь ты сможешь нажать на клавишу лишь однажды, поэтому этот метод лучше использовать для массивов в циклах: char inputVar[30]; //наша строка-массив int i=0; //счётчик для функции while(!inputVar[i]=='\r' && i<30) { inputVar[i]=getche(); i++; } " !inputVar[i]=='\r' " — это проверка на нажатие «Enter», если он будет нажат — цикл закончится. '\r' — это признак возврата каретки. А теперь, почему в коде «getche()» стоит так одиноко и не присваивается никакой переменной: нам это не нужно. Нужно лишь дождаться нажатия любой клавиши, после чего программа завершится. С помощью «setlocale(0, „Russian“);» устанавливается поддержка вывода русского текста в консоль (но не ввода). Следующие две строки будут понятнее после более продолжительного знакомства с C++, например, по книге Герберт Шилдт — «Полный справочник по C++» Поскольку «sound» у нас — это указатель, то методы для него будут выполняться с помощью оператора стрелочки "->", а не точки; как могло бы быть: «sound.play()». Этому, в вышеупомянутой книге, посвящена глава «Указатели». Комментарий к конструкции «if else»: Для всех следующих проверок мы использовали «else if» , что даёт прирост скорости для программы, потому что после проверки каждого значения и его соответствия нажатой клавишы — остальные опреаторы else if выполнены не будут. Если бы мы записали: while(notePlay!='x') //цикл выполняется, пока не нажата клавиша "x" { notePlay=getch(); if(notePlay=='q') do1->play(); if(notePlay=='w') re->play(); if(notePlay=='e') mi->play(); if(notePlay=='r') fa->play(); if(notePlay=='t') sol->play(); if(notePlay=='y') la->play(); if(notePlay=='u') si->play(); if(notePlay=='i') do2->play(); } то несмотря, на нажатую, например, клавишу 'q' — все остальные условия всё равно бы проверялись, что в данном случае бессмысленно. Желаю успеха в обучении! Пусть этот краткий обзор послужит началом для новичков в их замыслах. Всего доброго!
https://habrahabr.ru/post/318584/
habrahabr
Как стать первым в спортивном программировании: Университет ИТМО делится опытом. Часть 2
['университет итмо', 'спортивное программирование']
Мы продолжаем рассказывать о курсе «How to Win Coding Competitions: Secrets of Champions», который Университет ИТМО запустил на платформе edX в этом году (первую часть материала читайте...
Мы продолжаем рассказывать о курсе «How to Win Coding Competitions: Secrets of Champions», который Университет ИТМО запустил на платформе edX в этом году (первую часть материала читайте здесь ). Во второй части нашей беседы с авторами и инструкторами курса — Максимом Буздаловым и Павлом Кротковым, чемпионами ACM ICPC, и Дарьей Яковлевой, призером Google Code Jam for Women, речь пойдет о том, важен ли победителям олимпиад правильный настрой, как развить навык поиска креативных решений и кому будет полезен курс от чемпионов Университета ИТМО. Michael Pollak / Flickr / CC Настрой vs опыт: какую роль в победе играет психология Максим Буздалов считает, что успех команды (или участника, если речь идет об одиночном соревновании) зависит от тренировок и слаженности работы, которые нарабатываются долгими часами практических занятий — чем больше участники тренируются, тем меньше их результат зависит от правильного настроя или его отсутствия. Я бы не сказал, что «настрой» играет значительную роль в успехе. Чем выше уровень команды, тем выше интеллект ее участников, и тем реже работают методы самообмана, направленные на повышение уверенности в своих силах и на «поднятие духа» — Максим Буздалов А вот совместимость участников друг с другом, и их личные качества, по мнению Максима, играют очень большую роль. При этом некоторые из таких качеств — как положительных, так и отрицательных — могут проявиться только на финальном соревновании, от осознания ответственности: раньше команда отвечала только за себя, а в финале она представляет уже весь университет или даже страну. Пример из личного опыта Максима (чемпиона ACM ICPC 2009 года): Разумеется, наличие встроенного в головы «боевого духа» может очень сильно помочь: так, наши соперники в 2009 году, команда университета Циньхуа, за последний час решили четыре, что ли, задачи, и вырвались на второе место, обеспечив себе золотую медаль и титул чемпиона Азии. Хороший пример… … если бы не тот факт, что первое место заняли мы, которые, спустя несколько минут после начала последнего часа, сдали свою последнюю девятую задачу, и за оставшийся час не успели написать ничего толкового. Правда, мы, конечно же, не «опустили руки», просто ситуация сложилась таким образом, что все предыдущие четыре часа у нас были задачи в очереди на написание, а тут они внезапно кончились. Мы писали решение десятой задачи, но времени на нее нам не хватило — Максим Буздалов Команда Университета ИТМО-2016 на ACM ICPC : Адам Бардашевич, Антон Ковшаров, Андрей Станкевич (тренер) и Владимир Смыкалов Павел Кротков уточняет — для команды профессионалов «заряженность на победу», возможно, и отходит на второй план, но вот начинающим участникам олимпиад без нее не обойтись: Мой опыт говорит, что основное [для новичка] — это все-таки психология и стрессоустойчивость. Андрей Станкевич в шутку говорил, что для развития своей карьеры как тренера ему нужно получить образование психолога/психиатра — Павел Кротков Дарья Яковлева подчеркивает: если этап соревнования сразу не задался, у участников действительно могут «опуститься руки» — но бороться с проблемой эффективнее всего помогают дополнительные тренировки, а не какие-либо психологические приемы. Однако хорошее настроение и самочувствие перед началом соревнований отходят на второй план, если команда или кто-то из ее участников не испытывает особого интереса к процессу. Люди, не испытывающие удовольствия от решения задач, конечно, не получат никаких призовых мест, просто не имеют шансов — Максим Буздалов Лайфхаки и советы Мы предложили авторам курса «Как побеждать в соревнованиях по программированию: секреты чемпионов» поделиться советами и приемами, полезными в олимпиадном программировании — получилось несколько больших тем: Практика Практика, практика и ещё раз практика. Главный лайфхак — решать по одной задаче каждый день, даже в выходные, и не пропускать ни одного дня — Дарья Яковлева Максим Буздалов и Павел Кротков отмечают — постоянные тренировки помогают не просто добиваться успеха в решении задач, но и дают возможность предчувствовать правильный ход мысли. Однако одного онлайн-курса для развития такой способности будет явно мало (для его прохождения слушателям потребуется 4-6 часов в неделю) — придется ежедневно решать задачи (кстати, авторы курса в рамках занятий дают советы о том, как продолжать регулярные тренировки самостоятельно). Чутье (или тонкая настройка в мозге эвристик, с помощью которых расставляются приоритеты в поиске направлений мысли) может быть развито только при решении очень большого числа задач. Нагрузка, предлагаемая курсом на эту тему — одна-три олимпиадных задачи в неделю в течение четырех недель — очевидно, недостаточна. Для развития чутья нужно длительно и регулярно решать олимпиадные задачи различной степени сложности (от субъективно легких до субъективно непосильных) — Максим Буздалов Когда ты видел тысячу задач на разные алгоритмы и идеи, понять, в каком направлении идти в поисках решения тысяча первой существенно проще. В этом смысле курс может заложить некую основу и показать хотя бы самые базовые темы и виды задач. [Спортивное программирование] — это все-таки математика, и редко задачу можно решить методом, кардинально отличающимся от задуманного автором. Хотя и такое тоже бывает,  и чтобы это увидеть, опять же, нужно иметь опыт решения разнообразных задач — Павел Кротков Парное программирование Еще один совет от Павла — практиковаться в парном программировании. Такой подход позволяет экономить время команды и добиваться синергетического эффекта (задачу сокомандники решают уже не каждый по отдельности, а сообща): Понятно, что в такой ситуации количество «мозгов», работающих над решением, удваивается, и решение должно появляться быстрее/более качественным — Павел Кротков Тактические решения во время олимпиады Максим Буздалов дает совет, вполне применимый и для работы команды «промышленных» программистов в условиях жесткого дедлайна (например, когда нужно решить сразу несколько заранее известных, но не тривиальных задач в очень сжатые сроки): Предположим, идет пятичасовое командное соревнование. В этом случае, все участники команды должны прочитать все нерешенные задачи к концу первого часа. Именно так. Таким образом, вы 1) найдете все простые задачи, и 2) сможете обсуждать на равных сложные задачи. Расширением этой техники является бумажка, размеченная в виде таблички, на которой строчками выступают задачи, а столбцами — участники. В ячейках участник отмечает, что он прочитал условие задачи, а также вносит краткие комментарии (например, «задача на динамическое программирование по подмножествам»). Решенная задача вычеркивается. Таким образом, текущее состояние команды становится обозримым для самой команды — Максим Буздалов Изучение смежных областей Еще один совет от Максима касается развития творческого мышления: помимо постоянной практики (которая закладывает определенные «паттерны» решения задач) иногда полезно заставлять себя думать нестандартно. Лучше всего на достижение этой цели «работает» изучение смежных дисциплин – от очевидных до сравнительно экзотических. Есть такая «полуолимпиадная» дисциплина, называется «теория решения изобретательских задач». Я не могу сказать, что я являюсь в ней профессионалом — скорее, я работаю в этой сфере интуитивно — но в ней предлагаются некоторые высокоуровневые идеи, которые могут помочь в оптимизации и де-стандартизации процесса мышления. Мне в свое время очень сильно помогли олимпиады по математике. В них, во-первых, большое разнообразие способов думать над задачей, а во-вторых, они приучают думать не одним способом из перечня, а, скорее, «выпуклой комбинацией» этих способов. Таким образом, каждая новая идея, придуманная или где-то увиденная, увеличивает вашу способность решать задачи не на одну идею, а на бесчисленное множество идей, появляющихся в результате гибридизации новых знаний и того, что вам уже известно. Много читайте, причем не только в выбранной вами предметной области (предположим, computer science), но и в разных других областях (например, биология). Эти знания помогут вам находить решения задач в одних областях, пользуясь идеями и знаниями из других областей — и тем самым потрясать мир радикальными новыми взглядами — Максим Буздалов Robert Gourley / Flickr / CC Как отдыхают победители олимпиад Ежедневная практика, решение задач, изучение смежных областей знаний, учеба в вузе — кажется, что такие требования полностью исключают из жизни участников олимпиад какой-либо отдых. Максим, Павел и Дарья развеяли наши сомнения — хотя оказалось, что и во время отдыха чемпионов по программированию тянет кодить: Если пытаться выделить что-то общее, я бы сказал, что настольные игры очень популярны. Но по большому счету каждый отдыхает по-своему — Павел Кротков Ребята любят играть в настольные игры, в которых нужно придумывать интересные стратегии, тактики для того, чтобы победить. Также программисты [-олимпиадники] любят активный отдых: футбол, волейбол, фрисби. Есть ребята, которые любят танцевать хастл. Участники очень разносторонние личности, и у каждого свои интересы — Дарья Яковлева Участники олимпиад — обычные люди, так что хобби и увлечения могут быть такими же, как и у других людей. Правда, программирование сейчас настолько большое, как область деятельности, и позволяет столько свободы, что программист может иметь в качестве хобби… программирование, просто отличающееся от того, которое является его работой. Так, когда я участвовал в олимпиадах, из программистских хобби у меня были генетические алгоритмы (позднее выросшие в магистральное направление моей научной деятельности) и обработка звука. А «обычным» моим хобби уже больше десяти лет является игра на гитаре, сочинение музыки и свободная импровизация — Максим Буздалов Не только олимпиады: кому еще (кроме будущих чемпионов) полезен этот курс Авторы курса отмечают: далеко не все из записавшихся собираются в ближайшем будущем участвовать в чемпионатах по программированию. Многие из тех, кто прошел курс, просто хотели узнать что-то новое в знакомой области или даже развить профессиональные навыки и сделать более привлекательным свое портфолио. Да, курс полезен ИТ-специалистам. Он рассказывает о том, какие бывают соревнования по программированию, как в них участвовать, как решать олимпиадные задачи, какие методы использовать и как дальше развивать навыки решения задач. И все эти идеи можно применить и реализовать в ИТ-сфере — Дарья Яковлева Общение на форуме с некоторыми слушателями курса, показало, что некоторые ИТ-специалисты с помощью нашего курса вновь обрели веру в то, что программирование может быть интересным. Как показывает опыт общения с различными программами и сайтами, многим ИТ-специалистам было бы неплохо пройти хотя бы базовый курс в области вычислительной сложности, чтобы хоть как-то понимать, на каких масштабах размеров данных их программы начнут тормозить, и что с этим делать. Этот курс (несмотря на название, разумеется) вполне может сыграть такую роль — Максим Буздалов Павел Кротков (который параллельно с преподаванием курса работает в Facebook) объясняет, почему ИТ-гигантам интересны программисты-олимпиадники: С одной стороны, такие [олимпиадные] задачи, конечно, имеют мало общего с повседневной работой «промышленного» программиста. С другой, ведущие IT-компании (Google, Facebook – из мировых), Яндекс – из российских, как раз любят нанимать на работу людей с олимпиадами бекграундом. Более того, даже собеседования в эти компании имеют много общего с соревнованиями. Я бы сказал, что прохождение такого собеседования (опыт успешного участия в соревнованиях) даёт возможность понять, что кандидат умеет «соображать» в условиях стресса и ограниченного времени. В общем и целом, сам по себе курс скорее не поможет в повседневной работе, но может помочь начать лучше ориентироваться в области алгоритмов/математики тем, у кого в этой области есть пробелы. А само участие в соревнованиях, в целом, может помочь «не заржаветь» мозгам в случае, если работа иногда становится несколько скучной — Павел Кротков Добавим, что второй поток курса «Как побеждать в соревнованиях по программированию: секреты чемпионов» стартует 6 марта 2017 года, но записаться на него можно уже сейчас. Занятия продлятся 5 недель: для обучения понадобится знание английского и одного из популярных языков программирования (C++, Java или Python). Пройти обучение можно бесплатно (сертификат о прохождении обучения — если он вам понадобится — обойдется в $49). Ждем вас в числе слушателей курса и будущих победителей олимпиад!
https://habrahabr.ru/company/spbifmo/blog/318576/
habrahabr
Кейc Intouch: Собрать заявки на страховку с помощью нативной рекламы
['рекомендательные системы', 'нативная реклама', 'relap', 'реклама в интернете', 'intouch']
С помощью нативной рекламы Intouch продвигали форму для сбора заявок на страховку. В результате кампании конверсия в лид на странице Intouch – от 1,5% до 2,02%. Рассказываем, как нам удалось...
С помощью нативной рекламы Intouch продвигали форму для сбора заявок на страховку. В результате кампании конверсия в лид на странице Intouch – от 1,5% до 2,02%. Рассказываем, как нам удалось привести на сайт людей, которые были заинтересованы в покупке. Баннерная реклама, спонсорские статьи и нативная реклама — самые распространенные форматы рекламы в медиа. У каждого из форматов есть свои особенности: Баннерная реклама — инструмент повышения узнаваемости, но она почти не генерирует трафик. Согласно исследованиям 64% всех переходов по баннерам совершают всего 10% пользователей. Пользователи с удовольствием читают спонсорские статьи, но редко переходят с них на сайт рекламодателя. Нативная реклама, встроенная в ленту издания, дает бренду возможность взаимодействовать с клиентами на собственной площадке. Для сбора заявок на страховку Intouch создала на своем сайте форму, которая позволяет быстро рассчитать стоимость страховки и заказать ее. Пользователи должны были взаимодействовать именно с этой формой, поэтому из всех инструментов для рекламы в медиа выбрали нативную рекламу. Результаты нативных кампаний Intouch и Relap Цели Привести конверсионную аудиторию на сайт Intouch с сайтов российских СМИ. Геотаргетинг Москва и Санкт-Петербург. Подход Таргетированная нативная реклама в СМИ. Кастомное сегментирование аудитории читателей СМИ. Отсеивание некорректно заполненных анкет на этапе заявки. Результаты Средняя конверсия креатива в клик такая же, как средняя конверсия у обычных статей в СМИ, где была размещена реклама. Конверсия в лид с корректным номером телефона на странице Intouch от 1,5% до 2,02%. За 4 месяца объем размещений Intouch в Relap вырос в 4 раза. Дмитрий Зотов , media manager: По результатам теста стало понятно, что Relap позволяет нам добиваться хороших performance результатов при размещениях в СМИ. Нативная реклама Relap дает возможность получить прогнозируемое количество качественных переходов и заявок. У нас появился новый высококонверсионный канал, который помогает привлекать нам нашу целевую аудиторию. Как настраивали кампанию? Верификация лидов Дмитрий Зотов , media manager: Чтобы подать заявку на страховку, пользователь должен был заполнить данные о себе и своем авто. Мы автоматизировали верификацию лидов так, что с формы к нам попадали только корректные анкеты. Заявки, которые были неправильно заполнены мы не учитывали. Поэтому при оценке эффективности Relap учитывались только корректные данные. Сегментирование аудитории Relap используют более 3500 российских медиа, суммарная аудитория 60 миллионов человек. Мы знаем, где и какие статьи читают пользователи, и анализируем содержание текстов. Благодаря этому можем выделять сегменты аудитории по интересам. Для Intouch мы выделили сегменты по автомобильной и страховой тематике: это были читатели которые в последнее время интересовались страхованием и смежными темами. Реклама Relap работает кроссдоменно: мы можем показать рекламу страховки на РИА Новостях тем, кто до этого интересовался страхованием на автомобильном сайте. Так с помощью анализа поведения пользователей, нам удалось привести на сайт Intouch людей, которые были заинтересованы в покупке страховки.
https://habrahabr.ru/company/surfingbird/blog/318586/
habrahabr
Агрегация несущих в LTE или на что обратить внимание при покупке следующего смартфона
['LTE-A', '4G', 'cмартфон']
Скорость мобильного интернета зависит как от оператора связи, так и от вашего устройства. Когда при описании сети оператора используются термины 4G+ или LTE-Advance, то речь идет о том, что на сети...
Скорость мобильного интернета зависит как от оператора связи, так и от вашего устройства. Когда при описании сети оператора используются термины 4G+ или LTE-Advance, то речь идет о том, что на сети поддерживается технология агрегации несущих, она-то и обеспечивает более высокие скорости мобильного интернета. Что это такое, как это уже реализовано на сетях российских операторов мобильной связи, какие смартфоны ее поддерживают – об этом данная статья. Для понимания принципа работы этой технологии давайте представим автомобильную дорогу. Очевидно, что пропускная способность дороги с двумя полосами движения выше чем у дороги с одной полосой. А трасса с тремя или даже четырьмя полосами позволяет пропустить еще большее количество разных автомобилей, двигающихся с различными скоростями. Аналогично дорогам, в сотовой связи имеются несущие – радио частоты на которых передается полезная информация. Если агрегировать (объединить) несущие для передачи данных, то можно получить большую пропускную способность сети, а значит и скорость мобильного интернета конкретного абонента. В России для сетей 4-го поколения на сегодня используются четыре частотных диапазона: Диапазон частот 1800 МГц 2600 МГц 800 МГц 2600 МГц Номер диапазона по классификации 3GPP 3 7 20 38 Разделение каналов FDD FDD FDD TDD Распространение сигнала (территория покрытия, проникновение в помещение) среднее низкое высокое низкое Распространенность на смартфонах высокая высокая Средняя, растет Низкая, растет Ширина полосы и территория покрытия каждого диапазона у операторов отличаются. Например, международная версия в целом хорошего смартфона Xiaomi mi5 не поддерживает 20-й диапазон. Для российских абонентов это может быть критичным, т.к. не смотря на небольшую полосу в 5 МГц в этом диапазоне, ограничения по мощности и различное покрытие у разных операторов, сам диапазон имеет высокое indoor проникновение, т.е. у смартфона больше шансов передавать данные в помещении. Другой пример, МегаФон имеет 40 МГц непрерывного спектра 7-го диапазона, в то время как у других операторов только 20 МГц. Это дает значительное преимущество оператору (для высоких скоростей и емкости), хотя и не реализованное полностью. Для абонентов МТС безусловно важно проверить поддерживается ли смартфоном 38-й диапазон – у МТС высокое покрытие этого диапазона в Москве. В выигрышном положении, например, оказались пользователи iPhone 6S, 7, их смартфоны работают с 38-м диапазоном. Проводя дальше аналогию с автомобильными дорогами можно сказать что новый смартфон должен уметь ехать по всем четырем дорогам (полосам). Таким образом, при выборе нового смартфона, если вам важна скорость мобильного интернета, следует обратить внимание при чтении спецификации поддерживает ли данное устройство в идеале все четыре диапазона – 3, 7, 20, 38. На сегодня таких смартфонов пока немного, требуемый минимум – наличие диапазонов 3 и 7, средний вариант – наличие 3, 7 и 20 диапазонов. Теперь поговорим, собственно об агрегации несущих. На сегодня российские операторы поддерживают следующие комбинации агрегации несущих: Оператор МегаФон МТС Билайн Теле2 Комбинации 7+7, 3+7, 3+7+7 3+38, 3+7 3+7 - Таким образом, максимальная конфигурация имеется у МегаФон в Москве и Санкт-Петербурге – это агрегация трех компонентов — 20 МГц из 3-го диапазона и 20+20 МГц из 7-го диапазона. Абонентские устройства классифицируются по категориям. Наиболее распространенными на сегодня являются устройства 4-й категории CAT4. Это означает что максимально достижимая скорость мобильного интернета на прием (downlink или DL) может составлять 150 Мбит/секунду, на передачу (uplink или UL) – 50 Мбит/с. Важно отметить, что это максимально достижимая скорость в идеальных условиях – главные из которых — вы недалеко от вышки, кроме вас в соте больше нет абонентов, к базовой станции подведен оптический транспорт и др. Категория абонентского устройства Макс. скорость DL, Мбит/с Агрегация несущих Дополнительные технологии CAT4 150 - - CAT6 300 2х20 МГц - CAT9 450 3Х20 МГц - CAT12 600 3Х20 МГц 4x4 MIMO, 256 QAM CAT16 980 4Х20 МГц 4x4 MIMO, 256 QAM Смартфоны 4-й категории работают у всех 4-х российских операторов, устройства 6-й категории могут показать максимальные результаты в сетях МегаФон, МТС и Билайн, а вот устройства 9-й категории пока могут проявиться по максимуму только в сети МегаФон. Агрегация несущих появляется в устройствах начиная с 6-й категории. Устройства с CAT6 поддерживают агрегацию двух несущих, и уже есть на нашем рынке. Это, например, Lenovo Moto P2, Lenovo Moto Z Play, Lenovo Moto Z, Sony Xperia X, Xiaomi Mi Note 2, Apple 6S. Устройства 9-й категории только начали появляться. Это HTC M10, Apple iPhone 7, Sony Xperia XZ. Появление смартфонов 12-й и 16-й категорий ожидается в 2017 году, в первую очередь обращайте внимание на флагманские модели ASUS и Sony. Пиковые скорости будут возможны при условии реализации операторами дополнительных технологий 4x4 MIMO и 256 QAM. Если включение модуляции 256 QAM будет произведено в результате обновления программного обеспечения инфраструктуры оператора, то технология 4x4 MIMO (4 антенны на прием, 4 антенны на передачу) потребует инвестиций в антенное хозяйство. В связи с этим, максимальные пиковые скорости будут возможны в начале только в хот-спотах типа бизнес / торговые центры, вокзалы и т.п. Как узнать категорию смартфона? Это не тривиальная задача. Хорошим признаком является используемый чипсет (процессор/модем). Узнать его можно, например, тут . Для устройств 6-й категории ориентируйтесь на Qualcomm Snapdragon 625, 626, 653, 435, а для устройств 9 категории – Qualcomm Snapdragon 820 и 821. Это к сожалению, не может гарантировать максимальный результат, так, например, смартфон ZTE Z11 построен на флагманском чипсете Snapdragon 820, но глобальная версия у нас будет работать только как устройство 4-й категории. На сегодня из смартфонов 6-й категории можно рекомендовать — Moto Z и Xiaomi Mi Note 2, 9-й категории — Sony Xperia XZ и, если вы готовы переплачивать за бренд — iPhone 7. Автор не имел возможность протестировать Samsung Galaxy S7, и в частности, какие комбинации агрегации российских операторов поддерживаются, поэтому, коллеги, кто знает, пожалуйста, пишите в комментариях. С наступающим Новым годом!
https://habrahabr.ru/post/318588/
habrahabr
Базовые модели мобильной навигации
['ux', 'ux design', 'ui', 'ui/ux', 'interface', 'навигация', 'управление жестами', 'перевод']
Навигация в приложении должна быть интуитивной и предсказуемой. Разобраться, как по нему перемещаться, должно быть легко как для тех, кто уже пользовался приложением, так и для тех, кто открывает...
Навигация в приложении должна быть интуитивной и предсказуемой. Разобраться, как по нему перемещаться, должно быть легко как для тех, кто уже пользовался приложением, так и для тех, кто открывает его впервые. Но на мобильных устройствах сделать навигацию доступной и легкой для обнаружения непросто из-за ограничений, которые накладывает маленький размер экрана, и необходимости отдавать приоритет над UI элементами контенту. Разные модели навигации пытаются разрешить это проблему по-разному, но каждая из них страдает от ряда проблем, связанных с юзабилити. В своей статье Ник Бабич, специалист по разработке мобильных приложений и UX дизайну, рассматривает три базовых модели навигации — меню-гамбургер, Tab bar и управление жестами — и описывает их сильные и слабые стороны. Меню-гамбургер Пространство на экране мобильного устройства — ценность на вес золота, а меню-гамбургер — одна из самых популярных моделей навигации, помогающих вам его сберечь. Выдвижная панель позволяет спрятать навигацию за левой границей экрана и показывать ее только когда пользователь совершит определенное действие. Такое решение особенно полезно, если вы хотите, чтобы пользователь сосредоточился на контенте главного экрана. Пример Как видите, собственно меню скрыто за иконкой. Плюсы Большое количество вариантов навигации. Главное преимущество навигационного меню в том, что с его помощью можно уместить большое количество вариантов на маленьком участке. Аккуратный дизайн. Освободите место на экране, перенеся все варианты с него на боковое меню. Минусы Скрытую навигацию сложнее найти. С глаз долой — из сердца вон. Если навигация спрятана, пользователи с меньшей вероятностью будут ей пользоваться. Несмотря на то, что эта схема становится стандартной и многие владельцы мобильных с ней знакомы, большое количество людей просто не додумается открыть меню. Противоречие с правилами навигации платформы. Для Android меню-гамбургер стало практически стандартом, но на iOS устройствах его просто невозможно внедрить, не затрагивая основные элементы навигации. В результате панель может оказаться перегруженной. С меню-гамбургером контекст оказывается скрыт. Меню-гамбургер не отображает текущую позицию пользователя; эту информацию сложнее извлечь, так как она становится видимой только при нажатии на иконку меню. Для того, чтобы попасть на искомую страницу, требуется дополнительное действие. Для перехода на ту или иную страницу нужно не меньше двух кликов (один — на иконку меню, второй — на интересующую пользователя страницу). Советы Варианты должны быть в приоритете. Если у вас сложная навигация, вы не облегчите жизнь пользователю тем, что ее спрячете. Есть много примеров из жизни, которые показывают: когда варианты из меню представлены в более визуально доступном виде, вовлеченность растет, а пользовательский опыт улучшается. Спросите у себя: «Какие элементы настолько важны, чтобы сделать их видимыми на мобильном устройстве?». Чтобы ответить на этот вопрос, необходимо сначала разобраться, что же имеет значение для ваших пользователей. Если у вас небольшое количество пунктов меню с высоким приоритетом, подумайте о том, чтобы перенести их во вкладки или на Tab bar. Посмотрите, как у вас структурирована информация. У хороших приложений очень узкий фокус. Если структура сложная, возможно, имеет смысл разделить функции между двумя или несколькими приложениями попроще. Facebook выпустил свой Messenger именно для того, чтобы решить проблему излишней сложности. Если урезать функционал, сократится и количество вариантов в меню, а значит, отпадет необходимость внедрять меню-гамбургер. Tab bar Модель с использованием панели вкладок, — наследие дизайна десктопных приложений. Обычно на панели представлено относительно небольшое количество вариантов равной значимости, которые должны быть доступны для прямого перехода с любого экрана в приложении. Пример В Твиттере Tab bar позволяет пользователю переходить непосредственно на экран, связанный с выбранным объектом. Плюсы Tab bar легко передает информацию о местонахождении пользователя. При правильном применении визуальных подсказок (иконки, подписи, цвета) она становится самоочевидной и не требует дополнительных пояснений. Tab bar обеспечивает постоянство. Варианты навигации все время представлены на экране, так что пользователи видят, какие основные окна имеются в приложении, и могут перейти на любое из них по клику. Минусы Число вариантов навигации ограничено. Если в вашем приложении их больше пяти, уместить все на Tab bar, сохраняя при этом оптимальный для тачскрина размер иконок, будет сложно. Логика и расположение панели вкладок у iOS и Android отличаются. У каждой из этих платформ свои правила и рекомендации, касающиеся UI и юзабилити; их следует принимать во внимание, создавая Tab bar для того или иного устройства. Панель может находиться в верхней (преимущественно на Android) или нижней (преимущественно на iOS) части страницы. Кроме того, на iOS нижняя панель часто используется, чтобы переключаться между экранами приложения. На Android же, напротив, принято отображать вкладки для визуального управления сверху. К тому же на нижнюю панель иногда выводятся действия. Советы Не делайте иконки слишком маленькими. Они должны быть достаточно крупными, чтобы на них легко было нажимать. Чтобы рассчитать размер каждой иконки действия на нижней панели, разделите ширину экрана на количество действий. Или же подгоните размер всех иконок под самую большую из них. Иконки должны быть протестированы на юзабилити. Применяйте правило пяти секунд: если вам понадобилось больше пяти секунд, чтобы придумать иконку для чего бы то ни было, скорее всего она не сможет эффективно передать нужное значение. Всегда добавляйте к иконкам подписи. Из-за того, что у большинства иконок отсутствует стандарт применения, поясняющий текст необходим, чтобы передать нужную информацию и снизить градус неопределенности. Пользователям должно быть понятно, что именно произойдет, если они кликнут на элемент. Управление жестами 29 июня 2007 года наступил поворотный момент. Как только компания Apple выпустила на рынок первый смартфон с полностью сенсорным экраном, взаимодействие с тачскрином стало доминирующим типом управления для мобильных устройств. Жесты быстро приобрели популярность среди дизайнеров; появилось множество приложений, которые экспериментировали с управлением жестами. Сегодня успех мобильного приложения может в большой степени зависеть от того, насколько продуманно жесты встроены в пользовательский опыт. Пример Tinder совершил переворот в своей индустрии при помощи жеста swipe, который стал практически визитной карточкой продукта. У людей это приложение ассоциируется с «проведите вправо» и «проведите влево». Плюсы Убирает лишние элементы из интерфейса. Выстраивая дизайн на базе управления жестами, вы получаете возможность делать интерфейс более лаконичным, тем самым экономя место для ценного контента. «Естественный интерфейс». Люк Вроблевски в своей статье приводит данные из исследования, в ходе которого сорок человек из девяти разных стран попросили придумать жесты для различных действий (удаление, пролистывание, приближение и т. д.). Важно отметить следующую тенденцию: выбранные жесты оказались схожими, несмотря на различия в культурах и опыте участников эксперимента. К примеру, когда им предлагали «удалить», большинство людей, к какой бы национальности они ни относились, пытались перетащить объект на пределы экрана. Минусы Невидимая навигация. Видимость — важный принцип дизайна UI. Посредством меню можно сделать так, чтобы все возможные действия были видимыми и, как следствие, чтобы их можно было легко найти. Невидимый интерфейс может выглядеть заманчиво красивым, но сама его невидимость вызывает массу проблем с юзабилити. Управление жестами по природе своей существует в скрытом виде, пользователю нужно сначала его обнаружить. Здесь работает та же закономерность, что и в случае с меню-гамбургером: если возможность спрятана, ей воспользуется меньше людей. Больше усилий со стороны пользователя. Большая часть жестов не отличается ни естественностью, ни простотой для освоения и запоминания. Разрабатывая навигацию, основанную на жестах, имейте в виду: по мере того, как вы убираете объекты из интерфейса, пользователю становится все сложнее учиться работать с вашим приложением. Без визуальных подсказок он может растеряться, не зная, как взаимодействовать с интерфейсом. Советы Удостоверьтесь, что вы не пытаетесь научить людей радикально новой схеме взаимодействия с приложением. Воссоздайте опыт, с которым они уже знакомы. Чтобы создать хорошую навигацию, основанную на жестах, для начала нужно посмотреть, как обстоят с ними дела в мире мобильных приложений в целом. Например, если вы разрабатываете почтовое приложение, использовать swipe для пролистывания писем можно спокойно — этот жест будет знаком многим пользователям. Предоставляйте информацию по мере необходимости и используйте визуальные инструкции, чтобы научить людей работать с вашим приложением. Помните: нужно показывать только данные, необходимые пользователю для действия, которое он осуществляет в данный момент — почти как в играх, где механика раскрывается по мере прохождения. Вывод Помощь аудитории в навигации должна быть приоритетом в каждом приложении. Всегда стремитесь понять, кто ваш пользователь, в каких целях он использует приложение, и применяйте навигацию так, чтобы облегчить для него достижение этих целей. Чем проще для людей пользоваться вашим продуктом, тем больше вероятность, что они будут им пользоваться.
https://habrahabr.ru/company/everydaytools/blog/318570/
habrahabr
Полезные Хухи: спасаем аналоговые камеры
['видеорегистратор', 'CCTV', 'видеонаблюдение', 'аналоговая камера', 'IP-камера', 'Hikvision', 'Huhi', 'хухи', 'аналог']
Для кого-то окажется новостью, что в эпоху нейросетей, машинного зрения, алгоритмов глубинного обучения, сенсорных датчиков и сетевых камер видеонаблюдения, люди пользуются аналоговым...
Для кого-то окажется новостью, что в эпоху нейросетей, машинного зрения, алгоритмов глубинного обучения, сенсорных датчиков и сетевых камер видеонаблюдения, люди пользуются аналоговым оборудованием. Но учитывайте, что в мире существуют и успешно работают тысячи старых аналоговых камер. Аналоговый выход есть у множества устройств (например, у видеодомофонов) – вся эта техника благополучно живет и не собирается отмирать в ближайшее время. Хорошо это или плохо? Ответ лежит где-то посередине, но мы, тем временем, способны превратить любую аналоговую систему видеонаблюдения в нечто более современное. Ivideon начал поставки гибридного видеорегистратора Hikvision DS-7204HUHI-F1/N , которого для краткости назовем благозвучным для русского уха именем «Хухи». C его помощью к нашему облачному сервису можно одновременно подключать аналоговые и IP-камеры. Далее о самом видеорегистраторе и более глобально – обо всем аналоговом мире. Где нужен гибридный видеорегистратор Итак, на некоторых объектах до сих пор установлены аналоговые камеры. Нужна ли мотивация переходить на IP-камеры, даже учитывая все скудные возможности устаревших решений? На первый взгляд, ответ очевиден: одно только типичное для аналоговых камер разрешение 704x576 по современным меркам выглядит печально. Не говоря уже о возможных многочисленных помехах. Причины оставлять все без изменений для бизнеса есть: качество картинки ниже, но и для видео нужно меньше дискового пространства, что имеет значение в локальных решениях; стоимость камер ниже цифровых (для тех, у кого они уже есть, не самый актуальный критерий); если у IP-камер нет встроенной поддержки облачного сервиса, то для их работы может понадобиться компьютер – решение для аналоговых камер гораздо компактнее; установка новых камер – это большие расходы для компании; необходимо не только менять камеры, но и прокладывать кабели (ethernet/оптику), устанавливать роутеры и коммутаторы – брать откуда-то деньги и вкладывать в проект. На одном предприятии могут быть установлены десятки аналоговых камер, несколько видеорегистраторов, подключенных к компьютерам локальной сети (для хранения архивов), проложены сотни метров кабелей. Можете себе представить, сколько нужно средств и усилий, чтобы «осовременить» такую систему? Однако не всё безнадёжно. Любое железо можно использовать до тех пор, пока оно работает, если удастся применить его в связке с актуальным софтом. Что делать с аналоговыми камерами Гибридный видеорегистратор Hikvision DS-7204HUHI-F1/N с прошивкой Ivideon позволяет одновременно подключать к сервису аналоговые и IP-камеры. Подключить можно 4 аналоговые камеры и 2 IP-камеры или все 6 IP-камер (до 4 Мп) при отключении аналоговых каналов. Такое количество камер можно считать оптимальным для негабаритного регистратора. Возможны любые комбинации аналоговых камер стандартной и высокой четкости в пределах 4 каналов. Для аналоговых камер на уровне софта в регистратор встроена детекция движения. К регистратору можно подключить монитор и смотреть видео локально. Хранить данные можно как стандартно в облаке, так и на самом видеорегистраторе (если есть угроза обрыва сети), поддерживающем жесткие диски объемом до 6 Тб. Можно комбинировать оба способа: сам видеорегистратор и/или жесткий диск могут украсть, но если вы используете облако в качестве резервного хранилища, данные останутся в облаке и будут доступны вне зависимости от ситуации на объекте. Это Hikvision со всеми обычными настройками, но чтобы его добавить в личный кабинет Ivideon достаточно стандартной процедуры с прописыванием MAC-адреса. Все каналы появляются сразу, как TVI / AHD камеры, так и привязанные на самом регистраторе любые поддерживаемые IP-камеры. Возможности и пользователи В первую очередь, данный регистратор решает задачу подключения традиционных аналоговых и мультиформатных камер к облаку, и при этом позволяет вам сохранить прежние инвестиции в систему, а также сэкономить при создании новой системы, за счет тех же аналоговых камер. Стоимость монтажа будет минимальной, потому что не придется менять оригинальный кабель на объекте. Второй важный момент: гибридное хранение архива. Бывают случаи, когда нужно часть камер смотреть чисто локально, а часть вывести в облако. И вариант с видеорегистратором, с кучей интерфейсов и с жестким диском, в таком случае очень удобен. Эти две возможности в совокупности с другими позволяют существенно расширить количество вариантов по построению систем с подключением к облаку. Решение с Хухи – хороший вариант для тех клиентов, у кого на одном объекте не 2-3, а 4-6 камер. Можно настроить гибридный способ хранения, дублируя в облаке данные с критически важных камер. И при этом пользоваться всеми возможностями Ivideon: доступ через десктоп и мобильные приложения к живому видео и архиву (как в облаке, так и локальному), активные уведомления о событиях, встраивание видео на сайт, «расшаривание» камер для неограниченного числа пользователей. Сколько на все это дело нужно интернета? Если воспользоваться калькулятором расчета видеоархива, 4 Мп камера генерит около 4 Мбит/сек, и тут уже 4x4 = 16 Мбит/сек. Однако цифры зависят от настроек: куда и как писать видео, в каком разрешении, с какой частотой кадров и каким битрейтом. Регистратор устанавливается очень просто: буквально после открытия коробки нужно снять крышку, установить жесткий диск, подключить питание и нажать power. После этого остается только выбрать тариф. Все настройки занимают буквально 5 минут и можно смотреть каналы регистратора через Ivideon. Характеристики видеорегистратора Модель : DS-7204HUHI-F1/N Количество видеоканалов : 6 Видеовыходы : VGA/HDMI/Аналоговый (CVBS) Количество аудиоканалов : 4 Аудио вход/выход : 4 Питание PoE : Нет Формат сжатия : H.264, H.264+ Макс. количество внутр. HDD : 1 Питание : 12В DC Рабочие температуры : -10 — +55 Габариты : 315 × 242 × 45 мм Вес : 1.5 кг Тревожный вход/выход : 4/1 USB-интерфейс : 2х USB 2.0 Как видите, размеры регистратора позволяют легко расположить его даже дома. Видеорегистратор поддерживает аналоговые камеры стандартной или высокой (стандарты AHD и HD-TVI) четкости и IP-камеры, работающие по нативному протоколу Hikvision или ONVIF: например, все модели Hikvision, Nobelic, Oco Pro, Oco Pro Lite. Видеорегистратор позволяет подключить 4 разные комбинации камер: 1) до 6 IP-камер 4 Мп (при отключении всех аналоговых каналов), 2) любые комбинации аналоговых камер стандартной и высокой (HD-TVI и AHD) четкости в пределах 4 каналов, 3) 3 IP-камеры и 3 аналоговые, 4) 4 IP-камеры и 2 аналоговые. Разрешение и скорость записи: HD-TVI 3Мп 15 к/с, 1080p 25 к/с, 1080p 30 к/c, 720p 25к/c, 720p 30к/c, 720p 50к/c, 720p 60 к/c; AHD 720p 25 к/с; WD1 25 к/с. Разрешение и скорость записи для IP-камер: 2 канала 4Мп 25 к/с; Частота к/с — осн. поток: 1/16 к/с ~ в реальном времени, суб-поток: WD1 / 4CIF / 2CIF 12 к/с; CIF/QVGA/QCIF 25 к/с. На задней панели регистратора расположены следующие разъемы: 4 разъема DMC для подключения аналоговых камер; 4 аналоговых разъема; видеовыходы VGA, HDMI, СVBS (для подключения внешнего монитора); 4/1 тревожный вход/выход; сетевой разъем; разъем питания. Итоги ✔ Подключение аналоговых и IP-камер (одновременно или чередуя) к сервису Ivideon. ✔ Возможность гибридного хранения: на жестком диске до 6 Тб, в облаке Ivideon или комбинируя оба способа. ✔ Уведомления о состоянии видеорегистратора / о наличии связи. ✔ Просмотр видео где угодно: с мобильного устройства, через десктоп-браузер, локально через монитор, с других компьютеров, установленных в локальной сети. ✔ Удаленная настройка камер (каналов): включение/выключение камеры и звука, настройка безопасности прямо в личном кабинете Ivideon. ✔ Автоматическое обновление ПО из облака. ✔ Детекция движения через Ivideon Server для аналоговых камер. ✔ Уведомления при детекции движения / звука. ✔ 10 990 руб.
https://habrahabr.ru/company/ivideon/blog/318590/
habrahabr
Китайские камеры Jovision и их OEM клоны. Мистификация безопасности
['реверс-инжиниринг', 'камеры наблюдения']
Так получилось, что для одного из проектов понадобилась управляемая система пространственного позиционирования целеуказателя. Сервоприводы различных производителей оказались довольно дорогими и...
Так получилось, что для одного из проектов понадобилась управляемая система пространственного позиционирования целеуказателя. Сервоприводы различных производителей оказались довольно дорогими и было решено купить управляемую камеру и использовать встроенный сервопривод камеры для позиционирования. С PTZ камерами я дела никогда не имел, поэтому на пробу была приобретена камера J2000IP-CmPTZ-111v2.0, якобы российского производителя " 3С-Групп ". Внимание! Публикация не является обзором камеры и скорее всего описывает разбор механизмов управления камерой предлагаемый производителем оборудования, а также оценку безопасности её использования. Итак камера J2000IP-CmPTZ-111v2.0, она же Jovision JVS-H411 . Ничем не выдающаяся камера домашнего сегмента. Как и большинство камер построена на чипе HiSilicon 3518E . Так как чип довольно распространён и к нему есть SDK, то производители поверх собранного ядра начинают "наворачивать" сверху свои специфические сервисы. Прошивки устройств обычно отличаются драйверами wifi модуля. Wifi модуль можно определить из названия прошивки взятой с адреса http://www.jovecloud.com/ipc/3518es/ : jvs3518es-7601.bin — Ralink RT7601 jvs3518es-8188.bin — Realtek RTL8188 jvs3518es-9271.bin — Atheros AR9271 Прошивка в моём устройстве jvs3518es-7601.bin и валидна она для следующего списка устройств фирмы Jovision: H411 J2000IP-CmPTZ-111-V2.0 H411V1_1 H411S-H1 H411V2 HC420S-H2 HC520D-H1 HC420-H2 H411-H1 H411KEDA AT-15H2 SW-H411V3 HZD-600DM AJL-H40610-S1 AJL-H40610-S2 JD-H40810 Итак. С моделью определились. Никакая это не российская разработка, как позиционирует её компания "3С-Групп", а просто OEM клон камеры большого китайского производителя. Но если это клон и прошивка китайская, то значит и сервисы в ней зашиты китайские. В принципе так и есть. Камера подразумевает регистрацию в облаке Jovision, подключения типа P2P, позволяет видеть изображение на своём телефоне и управлять камерой удалённо. Как любой сисадмин не доверяющий сторонним сервисам безопасности, тем более китайским, тем более видео, первое что я бы рекомендовал сделать — это поставить в камере шлюзом по умолчанию саму себя и использовать другие методы управления. Для удалённого управления камерой производитель предоставляет OCX оснастку для IE (для контроля из локальной сети) и Android приложение (для контроля через сеть интернет). Так как камеру планировалось использовать из-под Unix систем, то варианты с IE и Android отпали, как не подходящие под условия использования. Никакого более менее доступного API в сети найдено не было, поэтому начали реверсить то, что имели в наличии. OCX оснастка как оказалась использует 2 варианта управления: управление через закрытый ipc протокол. управление через встроенный thttpd сервер. Первый вариант сначала исключили(потом вернулись к нему ради интереса), т.к. реверс проприетарного протокола мог бы затянуться надолго и начали копать второй вариант. Оказалось, что все запросы к камере идут на один единственный URL http://<camip>/cgi-bin/jvsweb.cgi Естественно как наверное и положено в различных устройствах безопасности — доступ к устройству должен закрываться логином и паролем, примерно так. http://<camip>/cgi-bin/jvsweb.cgi?username=admin&password=password И после этого должна следовать команда управления. Но после того, как я добрался до внутренностей прошивки, я был сильно удивлён содержимому файла jvsweb.cgi #!/bin/sh eval `./proccgi` echo Content-type: application/json #echo #echo $FORM_cmd #echo $FORM_action #echo $FORM_param #echo $FORM_username #echo $FORM_password #echo ./wagent $FORM_cmd $FORM_action "$FORM_param" $FORM_username $FORM_password Маленькая программка proccgi парсит web запрос к серверу и конвертит его в переменные, которые далее "скармливаются" программе агенту, передающему эти данные в управляющую программу. Как показало исследование, поля username и password не влияют ни на что от слова СОВСЕМ . Важны только первые три параметра. Главное, что из этого я хочу донести до всех читателей: КАМЕРА НЕБЕЗОПАСНА! и управлять ей может кто угодно находясь с ней в одной сети. Продолжаем исследования. Подключение к камере по telnet(адрес по умолчанию 192.8.8.8) осуществляется по фиксированному логину и паролю root/jvbzd , который нельзя поменять обычными методами!!!! Опять же подключиться может кто угодно. Именно по данной причине я первым делом убрал доступ камеры в облако. Если базовые политики безопасности сразу являются скомпрометированы, то нет смысла доверять чему-то более высокоуровневому. Попробуем залезть еще поглубже. Процесс загрузки камеры состоит из загрузки ядра, чтения базовых настроек системы, запуску проверялки-перехватчика портов и запуска самой программы управления. Если с первыми двумя пунктами всё понятно, то с третьим пунктом возникает вопрос. Перехватчик портов основываясь на списке жёстко зарезервированных под сервисы портов, проверяет из занятость и резервирует за собой. Программа управления представляет собой статически скомпилёный бинарник весом в 5 мегабайт, в котором "зашита" вся логика управления камерой. Ядро камеры имеет встроенный watchdog и если от программы управления в нужный момент не пришёл alive сигнал, то камера автоматически перезагружается. Для того чтобы запустить камеру в отладочном режиме необходимо сделать 3 шага: Перезагрузить камеру и в течении 5 секунд после начала перезагрузки зайти на камеру телнетом Запустить ps w и через kill "пристрелить" процессы startup.sh и /tmp/sctrl . startup.sh необходимо "стрелять первым", т.к. в строке следующей за запуском /tmp/sctrl стоит команда reboot Запустить /tmp/sctrl с ключами: cmd=0/1 — включение командного интерфейса системы контроля debug=0/1 — включение расширенного дебага Все указанные действия необходимо выполнить в 10-15 секундный срок, до отработки watchdog. После запуска программы управления вы увидите лог работы, а также лог обработки входящих команд. Программа управления делится на несколько частей: модуль управления по ipc модуль управления по http модуль подключения к облаку модуль обнаружения совместимых сетевых устройств модуль управления по интерфейсу onvif Модуль управления по ipc работает постоянно и ожидает команд на порту 9101 Модуль управления по http реализован на свободном сервере thttpd, работает постоянно и ожидает команд на порту 80 Модуль подключения к облаку проверяет соединение каждые 10 секунд. Модуль обнаружения сетевых устройств пытается найти рекордер Модуль управления по интерфейсу onvif работает совместно с thttpd и предоставляет очень кривую и бедную поддержку управления. Да! забыл написать. Камера предоставляет шифрование трафика между клиентом и камерой, но!!! ключ шифрования един на все прошивки и лежит в файле /tmp/encrypt !!! Отбросим грустные вопросы и попробуем вернуться к управлению камерой. Все данные поступающие через веб интерфейс прозрачно транслируются в модуль управления. Модуль управления состоит из десятка подпрограмм отвечающих за обработку той или иной команды. К сожалению разработчики видимо решили, что код управляющей программы никогда не будет никому интересен и положили в одну корзину с подпрограммами управления состоянием камеры, подпрограммы управления памятью, вызовами процедур и состоянием самой системы управления. Список подпрограмм управления можно получить через запрос http://<camip>/cgi-bin/jvsweb.cgi?cmd=webhelp Вот список всех блоков управления камерой cmd list and help information mptz mptz zoom [X] [Y] [ZOOM] timer display all timer list stream for stream test account account operation cmd webalarm alarm operation command webmdetect motion detect operation command webprivacy privacy operation command webrecord record operation command webstorage storage operation command webstream stream operation command webifconfig ifconfig operation command webwifi wifi operation command webosd osd operation command websnapshot Have a snapshot of the channel webhelp Display help info webipcinfo ipcinfo operation command webdevinfo webdevinfo operation command webimage image operation command yst yst operation command system websystem operation command multimedia multimedia operation command ptz ptz operation command webaudio webaudio operation command redirect redirect stdout stderror webled led control command webad audio detect wdtoff Manual close watchdog Моей основной задачей было обеспечить чёткое позиционирование камеры, но к сожалению из-за программной реализации продукта оказалось, что сделать это невозможно. Почему ? Интерфейс управления кинематикой PTZ работает по RS485 и не имеет каких-либо внешних датчиков и счётчиков для определения текущего положения камеры. Интерфейс передающий команды в PTZ передаёт в модуль ядра шаг на который необходимо повернуть двигатель в нужную сторону. Для определения сектора работы, при первичной инициализации, камера поворачивается в нулевое положение по обоим осям и начинает вращение в сторону увеличения координат. Определив конец сектора вращения горизонтальной координаты камера делит полученный сектор на 65536. То же самое происходит с вертикальной координатой. Таким образом получается внутренняя координатная сетка на основании которой происходит позиционирование камеры. Когда мы при помощи интерфейса управления передаём в камеру команды поворота, в камере считается и сохраняется только внутренний счётчик недоступный пользователю. Когда мы сохраняем Preset, то программа управления сохраняет текущие координаты в которых на данный момент находится камера и потом использует их для позиционирования. Чёткое точечное позиционирование пользователю недоступно. Но не время сдаваться :) Продолжаем копать возможности камеры. За разбор входных данных в интерфейс управления отвечает библиотека cJSON , таким образом в переменной param должна быть валидная JSON структура. Строка запроса всегда выглядит так: http://<camip>/cgi-bin/jvsweb.cgi?cmd=<cmd>&action=<action>&param={"key1":"value1","key2":"value2"} На данный запрос камера обычно возвращает несколько строк в зависимости от результата {"status":"ok","data":""} {"status":"param error","data":""} param error либо результат выполнения запроса Распишу все найденные мной команды управления и их поля/параметры. Данные указанные в фигурных скобках содержат данные, которые необходимо поместить в поле param запроса. Большинство команд поддерживают action=list для вывода текущих настроек. Начнём с команды account. account Управление пользователями веб интерфейса системы list # List all account with passwords add: # add account {"acID": "aborche","acPW": "123","acDescript":"test","Power":17} check: # check password {"acID":"aborche","acPW":"123"} modify: # modify account {"acID":"aborche","acOldPW":"123","acNewPW":"1234"} del: # delete account {"acID":"aborche1"} count # count accounts Таким образом запрос списка аккаунтов будет выглядеть так http://<camip>/cgi-bin/jvsweb.cgi?cmd=account&action=list а добавление пользователя http://<camip>/cgi-bin/jvsweb.cgi?cmd=account&action=add&param={"acID": "aborche","acPW": "123","acDescript":"test","Power":17} webalarm Оповещения о срабатывании детекторов движения list # List all alarms set: # Set alarm {"delay":10,"sender":"[email protected]","server":"smtp.163.com","username":"ipcmail","passwd":"ipcam71a", "receiver0":"[email protected]","receiver1":"(null)","receiver2":"(null)","receiver3":"(null)"} Остановимся на минуту на этих двух командах. Все получаемые с камеры данные являются открытыми и доступ происходит без логина и пароля! Поэтому если вы не хотите лишиться доступа к своему почтовому ящику(как пример), будьте осторожны и заведите второй ящик. webmdetect Определение движения <ch> list # List motion detects # cmd=webmdetect&action=1 list # cmd=webmdetect 1&action=list <ch> set: {"bEnable":0,"nSensitivity":50,"nThreshold":15,"nRectNum":0, "stRect":[{"x":0,"y":0","w":0,"h":0}, {"x":0,"y":0,"w":0,"h":0}, {"x":0,"y":0,"w":0,"h":0}, {"x":0,"y":0,"w":0,"h":0}], "nDelay":10,"nStart":0,"bOutClient":0,"bOutEMail":0} Обратите внимание, что из-за кривизны разбора входных параметров можно беспрепятственно передавать любую длину команд с любыми параметрами. Так как камера имеет несколько каналов(видеопотоков), то часть команд может идти с номером канала. webprivacy Определение приватной зоны на изображении, которую не нужно транслировать <ch> list # List privacy zones # cmd=webprivacy&action=1 list # cmd=webprivacy 1&action=list <ch> set: # Set privacy zone {"bEnable":0,"stRect":[{"x":0,"y":0,"w":0,"h":0}, {"x":0,"y":0,"w":0,"h":0}, {"x":0,"y":0,"w":0,"h":0}, {"x":0,"y":0,"w":0,"h":0}]} webrecord Настройки записи # cmd=webrecord&action=1 list # cmd=webrecord 1&action=list <ch> list # List settings <ch> set: # {"bEnable":1,"file_length":600,"timing_enable":0,"discon_enable":0, "alarm_enable":0,"timing_start":0,"timing_stop":0,"disconnected":0, "detecting":0,"alarming":0,"alarm_pre_record":6,"alarm_duration":10} webstorage содержимое внешней карты памяти list # List settings format # Format storage webstream Настройки потоков # cmd=webstream&action=1%20list # cmd=webstream 1&action=list # cmd=webstream -c<chid> <streamid>&action=ability # cmd=webstream -c1 1&action=ability <ch> list # List streams <ch> set: # Set stream settings {"bEnable":1, "bAudioEn":1, "viWidth":1280, "viHeight":720, "width":1280, "height":720, "framerate":20, "bitrate":1024, "ngop_s":4, "rcMode":1, "encLevel":1, "quality":40, "minQP":24, "maxQP":46} <ch> resolution # Get stream possible resolution <ch> ability # Get stream settings requestidr # ????? webifconfig Настройки сетевого интерфейса list # Get interfaces configuration set: # Set interfaces configuration {"inet":"dhcp", "eth": {"name":"eth0","bDHCP":1,"addr":"","mask":"","gateway":"0.0.0.0", "mac":"02:00:01:01:01:12","dns":"8.8.8.8"}, "pppoe": {"name":"ppp0","username":"x","passwd":"1"}, "wifiap": {"name":"","passwd":"","quality":0,"keystat":0,"iestat":""} } scan # ReScan wifi networks webwifi Управление wifi подключением list # List wifi networks connect: # Connect to network {"name":"ZyXEL53", "passwd":"", "quality":2, "keystat":1, "iestat":"\u0004\u0002"} changemode: ???? Обратите внимание, что при помощи команд webwifi и webifconfig можно спокойно просканировать рядом находящиеся WIFI сети и подключиться к ним. Таким образом подконтрольная камера может спокойно шпионить за окружающей обстановкой webosd Управление идентификатором камеры на видео <ch> list # Get channel info <ch> set: {"bShowOSD":1, "timeFormat":"MM/DD/YYYY hh:mm:ss", "position":1, "timePos":2, "channelName":"HD IPC", "osdbInvColEn":1,"bLargeOSD":1} webipcinfo Информация о устройстве list # Get device info set: { "type": "J2000IP-CmPTZ-111-V2.0", "product": "JVS-HI3518ES-7601", "version": "V2.2.4402", "acDevName": "HD IPC", "nickName": "", "sn": 36430, "ystID": xxxxxxxxxx, "nDeviceInfo": [], "nLanguage": 1, "date": "2016-10-22 14:31:43", "bSntp": 1, "sntpInterval": 24, "ntpServer": "192.168.205.1", "enableStreamWatchDog": 1, "tz": 3, "bDST": 0, "bIPSelfAdapt": 1, "rebootDay": 0, "rebootHour": 1, "bRestriction": 1, "portUsed": "8099,554,23,8127,51994,55434,6666,8732,58434,3702,9100,9104,9106,57241,4001,6072,8899,1998,17", "osdText": ["", "", "", "", "", ""], "osdX": 0, "osdY": 0, "osdSize": 32, "lcmsServer": ""} settime <datetime> system <reboot/reset/softreset> Функция позволяет ребутить или сбрасывать устройство http://<camip>/cgi-bin/jvsweb.cgi?cmd=webipcinfo&action=system reboot webdevinfo list # get device info set { "type": "ipc", "hardware": "JVS-HI3518ES-7601", "firmware": "V2.2.4402", "manufacture": "JVS-HI3518ES-7601", "sn": "XXXXXXXXXX", "model": "ipc-module", "channelCnt": 1, "streamCnt": 3, "ystChannelNo": [1, 2, 3, ..... 0], "name": "HD IPC", "date": "2016-12-26 20:55:23", "bSntp": 1, "sntpInterval": 24, "ntpServer": "ntp.fudan.edu.cn", "tz": 3, "bDST": 0 } settime <datetime> settime 2012-06-07 13:58:00 system <reboot/reset/softreset> webimage Настройка параметров изображения list set: {"contrast": 135, "brightness": 135, "saturation": 135, "sharpen": 255, "exposureMax": 3, "exposureMin": 100000, "scene": 0, "daynightMode": 0, "dayStart": [{ "hour": 6, "minute": 0 }], "dayEnd": [{ "hour": 18, "minute": 0 }], "bEnableAWB": 1, "bEnableMI": 0, "bEnableST": 0, "bEnableNoC": 0, "bEnableWDynamic": 0, "bNightOptimization": 1, "bAutoLowFrameEn": 0} yst Информация о потоках для удалённого управления list set: {"strGroup": "B", "nID": XXXXXXXXX, "nPort": 9101, "nStatus": 2, "bActiving": 1, "nYSTPeriod": 10, "bTransmit": "\u0001", "eLANModel": 0, "bWebServer": 1, "nWebPort": 80, "nPictureType": 3, "nPictureTypeOld": 1} get_port # get control port get_video # get video streams Остановимся на данной команде. Эта команда описывает настройки видеопотоков для удалённого управления через OCX или телефон. Вряд ли что-то из этих данных вам будет полезно кроме двух команд. http://<camip>/cgi-bin/jvsweb.cgi?cmd=yst&action=get_port http://<camip>/cgi-bin/jvsweb.cgi?cmd=yst&action=get_video Первая покажет порт управления системой и параметры порта. Вторая покажет текущие видеопотоки имеющиеся в системе. Вывод второй команды обычно такой. rtsp://<camip>/live0.264 rtsp://<camip>/live1.264 ptz Управление камерой move: # range = step(255*x(y)), sign +/- = direction {"chnid":0,"x":[0.01..1],"y":[0.01..1]} x,y - moving speed 0 - stop move move_auto: # set move speed {"chnid":1,"s":0.5} preset: #preset control {"chnid":0,"type":n,"presetid":p,"name":name} type: 0="list" 1="Save Preset" 2="Delete Preset" 3="Apply Preset" param={"chnid":1,"type":1,"presetid":1,"name":"preset 1"} - Save Preset 1 with name "preset 1" lens: # lens and picture control {"type":n,"value":v} type: 0="aperture" 1="focus" 2="magnify" value: 0.01..1 patrol: {"status":"ok","data":[{"id":0,"presetid": 1,"name":"1111","staytime":10},{"id":1,"presetid": 2,"name":"2222","staytime":10}]} type: 0="list" 1="Save Patrol" 2="Delete Patrol" 3="Start Patrol" 4="Stop Patrol" mptz left right up down stop preset locatePreset aux # param=auxnum/-auxnum turn aux on/off dropon dropoff sensor zoom # Not working Команды ptz и mptz были основной причиной начала расковыривания прошивки. http://<camip>/cgi-bin/jvsweb.cgi?cmd=ptz&action=move&param=["chnid":1,"x":0,"y":-0.5] http://<camip>/cgi-bin/jvsweb.cgi?cmd=mptz&action=down Обе команды дают камере команду повернуться вниз. В первом случае мы указываем скорость с которой будет опускаться камера. Скорость рассчитывается как 255 умноженное на значение скорости. Таким образом при значении скорости равной 0.01 камера будет опускаться вниз со скоростью 2 точки на 1 тик. Во втором случае камера будет опускаться со скоростью 100 точек на 1 тик. Значение тика я пока не выяснил. Нужно замерить. Камера будет опускаться до тех пор пока не достигнет нулевой точки, либо пока не будет получена следующая команда. http://<camip>/cgi-bin/jvsweb.cgi?cmd=ptz&action=move&param=["chnid":1,"x":0,"y":0] http://<camip>/cgi-bin/jvsweb.cgi?cmd=mptz&action=stop preset и locatePreset служат для быстрого добавления и вызова точек позиционирования http://<camip>/cgi-bin/jvsweb.cgi?cmd=mptz&action=preset 1 http://<camip>/cgi-bin/jvsweb.cgi?cmd=mptz&action=locatePreset 1 stream Управление энкодером видеопотоков stream CMD CHANNELID stream set CHANNELID TYPE VALUE CMD: start start the stream stop stop the stream flush flush the stream restart restart the stream set set param debug if be 1, print the received stream package TYPE: width - resolution width height - resolution height framerate - framerate such as 30,25,20,15,10... nGOP - I frame between bitrate - bitrate with unit of Kbit Per Second multimedia Управление изображением imageget: {"chnid":1,"type":0} type: 0 contrast 1 brightness 2 saturation 3 sharpness imageset: {"chnid":1,"type":0} type: 0 contrast 1 brightness 2 saturation 3 sharpness Перед началом изменения параметров, рекомендуется сделать imageget для каждой настройки, после этого сделать изменения и сделать imageset webaudio Управление звуком list set: { "sampleRate": 8000, "bitWidth": 1, "encType": 0, "level": 2, "muted": 1, "micGain": 69 } webad Определение звука list set: { "bEnable": 1, "bEnableRecord": 1, "nStart": 0, "bOutClient": 1, "bOutEMail": 1, "bOutVMS": 1, "bBuzzing": 1, "ADThreshold": 80, "ADTimeInterval": 60, "ADPercentage": 30 } webled Управление светодиодами list set: 0 - turn off 1 - turn on В принципе это почти весь набор команд обеспечивающих взаимодействие с камерой. Остальные команды описывать смысла нет, т.к. они обеспечивают вывод отладочной информации в консоль. Дочитав данную статью, я думаю у вас возникло ощущение, что устройства, которые призваны обеспечивать нашу безопасность, должны иметь более высокий уровень собственной безопасности. Данная статья не призывает вас взламывать устройства указанных производителей, она всего-лишь показывает, что многие вещи могут быть не такими как они кажутся на первый взгляд. В новых прошивках для новых камер довольно сильно переписан модуль onvif, но основные проблемы в том же состоянии. На очереди у меня стоит камера TENVIS JPT3815W, посмотрим что есть у неё. Спасибо за уделенное время на чтение статьи, надеюсь она была для вас полезной. PS: если нужна информация о дешифровке прошивок Jovision, то могу выложить. © Aborche 2016
https://habrahabr.ru/post/318572/
habrahabr
Упрощать сложно — усложнять легко. GUI программа для создания deb-пакетов
['dpkg', 'deb', 'qt 5', 'qt', 'linux', 'debcreator']
Возможно, на меня снизойдет гнев эстетов linux, vim, mc. Но скажу сразу, пользовались — знаем. Собирать deb-пакет, так для новичка, так что не будем усложнять ему жизнь изучением vim и mc, а а...
Возможно, на меня снизойдет гнев эстетов linux, vim, mc. Но скажу сразу, пользовались — знаем. Собирать deb-пакет, так для новичка, так что не будем усложнять ему жизнь изучением vim и mc, а а просто дадим дальше кликать мышкой. Кому интересен вопрос упрощения создания бинарных deb-пакетов и не боится собрать с помощью qtcreator'a сам, добро пожаловать под кат С чего началось Вдохновленный статьей о создании deb-пакетов сел я собирать пакеты… После 10го пакета, признаться 4 открытых MC навели меня на мысль, что всё таки нужно gui инструмент. Конечно, тут же был установлен giftwrap, быстро заполнены первые страницы настройщика, и тут обнаруживается, что скрипты нужно опять таки тащить руками внутрь папки DEBIAN. Я пришел в легкое недоумение. Почему нельзя было просто сделать возможность выбрать файл откуда угодно? Ну не беда, скопируем. Так, нужно прописать папки в DEBIAN/dirs. Стоп, а куда писать? Ну ни чего, у меня же есть vim и mc. Опять vim+mc для changelog… Хватит. GiftWrap меня расстроил. Тогда мною было решено потратить вечерок и написать простую и при реализующую большие возможности чем GiftWrap утилиту. (Конечно же, лень делать это по старинке руками не повлияла на подобное решение). Подготовка под эпичную музыку В качестве среды разработки было решено использовать излюбленную мною среду QtCreator, и в качестве фрэймворка для гуи QtSdk 5.7. Для контроля версий был призван выбран git. Очевидно, после прочтения статьи , что трудностей в написании кода возникнуть не должно, однако я сразу же выделил для себя основные этапы: Создаём виджеты для редактирования файлов Собираем виджеты до кучи в мастера создания пакетов Собираем пакет, проверив предварительно наличие программ Всё тривиально и просто, но остался до сих пор 1 вопрос, ответ на который хотелось услышать от вас, дорогие Хабровчане и Хабровчанки. Как удобнее сделать сборщик: Мастер сборки, по мотивам windows installerа (далее, далее, далее, готово) Мастер сборки с табами(сверху, снизу, слева, справа) Но на момент создания программы я не стал ломать себе голову (главное окно всегда можно переделать) и выбрал первый путь. Программа на текущий момент использовалась только на нескольких машинах, использовалась небольшим количеством людей. Необходимость собирать source-пакеты отсутствовала поэтому и не была реализована. Находится она в исходниках на тут . Что получилось в итоге После запуска программы, мы можем наслаждаться видеть стартовое окошко, предлагающее нам ввести путь к sysroot нашего пакета. Сборку самого sysroot в программу включать было (ИМХО) глупо, т. к. midnight commander или тот же thunar справятся с этим отлично сами. Также если перейти в меню «Общее», и выбрать «Настройки», мы сможем: Задать путь для сохранения пакетов Кол-во всплывающих строк «Предыдущие каталоги» Задать для всех пакетов имя сборщика пакетов и e-mail Закончили настройки, выбрали папку — нажали продолжить — перешли к настоящим чудесам настройкам. Имя пакета, версия и т. п. Всё это нам хорошо известно из Статьи , а вот тот момент, что программа запишет введённые здесь изменения в файл сразу по нажатию кнопки «Далее» стоит отметить сейчас. Не смотря на возможность вернуться назад, файл после нажатия «Далее» уже будет изменён! Описывать, параметры я подробно не буду, они много где описаны, замечу только несколько удобных моментов в программе: в окне changelog'a, после примера, есть строчка где записаны имя, почта создателя пакета и время создания. Её удобно копировать и вставлять в конце свой записи в changelog. В окне скриптов, по умолчанию стоят имена скриптов: preinst, postinst, prerm, postrm . Если они уже лежат в каталоге sysroot/DEBIAN, то ничего не будет сделано, если же Вы захотите «притащить» их «снаружи», то выбранные файлы будут скопированы и переименованы, в зависимости от выбора поля. Окончание работы программы В конце после успешной сборки пакета, пользователю предлагается использовать lintian для проверки. Скажу честно, редко когда он полезен был, или пакет вообще не собирался, или если и писал lintian какие-либо ошибки, проблем с его установкой попросту не было… Но всё же, приняв решение проверить пакет, ничего плохого не случится. В текущем окне будет показан вывод lintian при проверке созданного deb-пакета. Label этот выделяемый, так что копируем warning или error и вперёд в поисковик искать как исправить эту проблему. Послесловие Я не претендую, что debCreator единственный хороший gui созбиратель пакетов. Также я не говорю, что в нём нету глюков и проблем. Однако, мне и людям, которые с ним уже работают, он сэкономил кучу времени, а ведь его ещё писать и писать… Жду от прочитавших советов по реализации, и предложений по модернизации, в комментах или в issues . TODO List Сюда будут вносится изменения, которые скоро будет реализованы: автоматическое заполнение confiles
https://habrahabr.ru/post/318594/
habrahabr
Серьезное проектирование серьезных сайтов. Часть 1. Аналитика
['Проектирование', 'аналитика', 'цели проекта', 'целевая аудитория', 'Empathy Map', 'персонажи', 'рынок', 'конкуренты', 'SWOT-анализ', 'зпр', 'Customer Development', 'Mind map', 'структура сайта']
Почти 4 года назад мы написали одну из самых популярных статей в рунете про проектирование больших проектов с таким же названием, как и эта: часть 1 и часть 2. Только на Хабре её прочитало более...
Почти 4 года назад мы написали одну из самых популярных статей в рунете про проектирование больших проектов с таким же названием, как и эта: часть 1 и часть 2 . Только на Хабре её прочитало более 170 тыс. человек, а вообще она публиковалась в самых разных изданиях мира. Более 1000 стартапов использовали наработки из этой статьи для проектирования, и это только те, о которых я слышал и которые нам писали. Но время не стоит на месте, а мы постоянно развиваемся. С тех пор наша технология проектирования значительно эволюционировала и стала еще лучше. В этой статье мы опишем нашу обновленную технологию проектирования и покажем много живых примеров для каждой стадии. Проектирование — это первый этап разработки любого большого проекта. Это основа его успешности. Когда мы строим небоскреб, нам нужно продумать все — до каждого болтика: внешний вид здания, количество этажей, локации внутри, используемые материалы. А еще нужно сделать его устойчивым к землетрясениям, позаботиться об экологии, сделать в нем офисы и магазины. Это все решается на этапе проектирования небоскреба. И проектирование в данном случае — это гарантия качества будущего строения, что оно не развалится и не похоронит под обломками людей. Этот этап позволяет понять властям города и владельцам, как именно будет выглядеть здание в итоге, увидеть предварительную проектную модель, провести точные расчеты. В статье будет много картинок. Хабр, к сожалению, не разрешает загружать большие картинки, поэтому их можно посмотреть в полной версии статьи на нашем сайте: http://seclgroup.ru/article_serious_design_of_the_serious_websites.html Некоторые утверждают, что проектирование и Agile противоречат друг другу. Но почему-то небоскребы не строятся по классическому Agile, когда все происходит одновременно. Сначала делается проект здания. Тяжелобольного в больнице не лечат по Agile, когда лечение и обследования идут одновременно. Сначала нужно понять, чем болен пациент. Неисправный автомобиль не чинят по Agile. Сначала нужно узнать, какая именно деталь поломалась. А когда мы уже прошли этот первый этап, тогда можно делать все одновременно, делать по Agile. Во всех 3-х примерах есть аналогичный проектированию этап. Все это часть правильного планирования, которое позволяет найти единственно правильный путь и решить поставленную задачу максимально эффективно. Не поймите меня неправильно, я не противник Agile, наоборот, мы всегда его применяем в разработке своих проектов. Но Agile — это не волшебная таблетка на все случаи жизни. Это методология со своими целями и правилами. Нельзя бездумно брать её и применять, как описано в теоретической книжке. Посмотрите на любую ИТ компанию, которая применяет Agile, и в частности Scrum. Кто из них применяет классический Scrum, по всем правилам? Я думаю, почти никто. У всех этот подход оптимизирован под реалии компании. У нас, кстати, тоже не классический Scrum, есть элементы XP, а несколько проектов идут по Kanban. Проектирование НЕ противоречит Agile, давайте отделять мух от котлет. Подавляющее большинство больших проектов делаются по Agile, и это чуть ли не единственный путь к успеху. Если брать теорию, то нужно садиться и делать все одновременно. На практике, если мы начнем все одновременно, включая проектирование и программирование, то нам придется многое переделывать. Более эффективное решение — спроектировать основу (этап аналитики, обычно 1-2 недели), чтобы увидеть весь проект, а потом садиться проектировать первые интерфейсы, пока программисты будут продумывать архитектуру, выбирать технологии, писать ядро системы. То есть первой итерацией по Agile у нас будет голое проектирование, аналитическая его часть, а уже со второй (через 1-2 недели) можно начинать программировать, а еще через 2 недели, когда будет первый спроектированный в Axure интерфейс, можно подключать дизайнеров и т.д. То есть проект ведем по Agile, но думаем головой вместо задницы. С таким подходом уже через месяц после старта проекта у нас будут видны границы проекта, выбраны технологии, архитектура и даже первая страница в дизайне, и что самое важное, все это не придется переделывать по 10 раз. Убедил? Думаю, не всех. В комментариях к каждой моей статье всегда находятся люди, которые утверждают, что это необоснованно дорого. Обычно это программисты, которые привыкли писать код, они не думают предпринимательскими масштабами. Представим, что мы решили работать без проектирования. Посадили программиста, он начал что-то делать. Посадили дизайнера, показали ему описание на несколько страниц, сказали «рисуй». Программист думает технически: какой язык выбрать, какую архитектуру заложить, как БД будет устроена. Дизайнер думает творчески: какой стиль выбрать, какие цвета, где какой блок расположить. В итоге у нас будет красивая картинка от дизайнера и правильный код от программиста, но работать на достижение конечной цели это не будет, придется корректировать логику, двигать блоки, добавлять функционал. И в таких случаях часто получается первые 90% проекта и вторые 90% проекта. Любое изменение в логике влечет за собой правки дизайна, верстки и программирования, а после это все тестируется и опять меняется / дорабатывается. Знакомая картина? Я думаю, большая половина читателей этой статьи её видела. Именно проектирование может защитить от бесконечных переделок, то есть это не лишний этап в нагрузку, это тоже самое, как проектирование при строительстве, обследование больного или диагностика неисправностей автомобиля. Другими словами, это — обязательный этап разработки любого большого сайта, и пора к этому привыкать. Глобально есть два подхода к проектированию: 1. Mobile first — когда мы начинаем проектировать с версии под мобильные устройства, а потом полнофункциональную версию. 2. Desktop first — когда мы начинаем проектировать полнофункциональную версию, а после делаем упрощенные для мобильных устройств. У обоих подходов есть свои плюсы и минусы, я предпочитаю второй вариант, упрощать всегда легче, особенно имея за плечами классную аналитику, которую я опишу ниже. Кроме того, второй вариант и более принят во всем мире, хотя Mobile first в последнее время активно развивается. Ниже в статье будет много примеров из нашей практики, и я покажу поэтапно, как именно проектируется большой проект и для чего нужен каждый этап. Исходные требования Для начала нужно собрать все требования по проекту. Проблема в том, что эти первые требования приходят в очень разном виде: от простого описание идеи на одну страничку до динамического прототипа. В любом случае, за 10+ лет работы я не видел ни одного правильного ТЗ. Чаще всего работу нужно начинать почти с нуля. Даже если и есть наработки, их все равно нужно проверить и еще раз пройтись по всем этапам, чтобы не была нарушена технология, в которой каждый новый этап связан с предыдущими. Проект — это всегда особое видение его создателя. Поэтому для начала нужно задать правильные вопросы. С одной стороны, это поможет понять, что именно хочет создатель проекта, с другой, даст понимание зрелости идеи в его голове. Как правило, каждая вторая идея еще не дозрела у самого создателя, а потому, за неё браться рано и местами даже опасно для команды. Ниже я разделил все вопросы на группы, которые нужно проработать, прежде, чем приступать к проектированию. Если в какой-то из групп ответов у создателя не будет — это верный сигнал недозрелой идеи. 1. Цель и основная идея. У любого начинания должна быть цель и критерии успеха. У инвесторов есть очень классный прием, они просят сформировать идею проекта в одном предложении. Если стартапер может это сделать, с ним говорят дальше, если не может — идея слишком сырая, и её нужно дорабатывать. 2. Целевая аудитория. Любой предприниматель или менеджер должен знать, кто именно будет пользовать проектом. Определение: «Все, от 18 до 60 лет» — нам точно не подходит. Портрет ЦА должен быть довольно четким, от этого зависит, что именно будет спроектировано. Нужно понимать, кто будет пользовать, кто платить, кто важен для продвижения проекта и т.д. В идеале подкрепить догадки исследованиями. 3. Рынок. У любого продукта есть свой рынок. Это может быть рынок ограниченный географией отдельной страны, языком, тематикой и т.д. От этого также зависит будущее проекта. Сегментаций при этом может быть несколько, например, страна и тематическая ниша в этой стране. В идеале надо узнать не только границы рынка, но и его особенности и правила, если такие имеются. Многое зависит от культуры: например, в России и Украине пользователи не привыкли платить за какие-то услуги в Интернете, чего нельзя сказать о США и других развитых странах. То есть при одной и той же идее и размере аудитории, мы можем получить совершенно разные особенности проекта и размер конечной прибыли от него. 4. Конкуренты. Их нужно знать намного глубже, чем просто название, и вообще наличие их на рынке. Чем они дышат, какие у них проблемы, какие планы. То есть нужен человек с рынка, который его знает досконально. Это очень сильно поможет спроектировать действительно сильное решение. Часто бывают прямые и косвенные конкуренты — знать нужно всех. Я очень люблю проекты, которые задумываются в профильных компаниях для своих же рынков. Некая оцифровка реального бизнеса. Такие проекты очень часто становятся очень успешными, потому что: а) они знают рынок; б) они имеют достаточно ресурсов; в) нишевых проектов в Интернете до сих пор очень мало. 5. Монетизация. Большая проблема владельцев продукта в том, что у них есть классная идея, но нет понимания, как с этого зарабатывать. Это же — одна из основных причин смерти стартапов. Вариант «подумаем об этом позже» абсолютно не подходит. Это — то, с чего нужно начинать думать. Реже бывают случаи, когда проект создается не для заработка, а для продажи большой компании, и инструменты монетизации там априори не нужны. Но это 1 случай из 100. Да и продаться, будучи прибыльными, все равно намного легче. При этом почти всегда новые проекты стартуют без инструментов монетизации, их дорабатывают потом, но планировать монетизацию нужно сразу. 6. Слабые и сильные стороны. Очень часто знание рынка и конкурентов является настолько сильным преимуществом, что его хватает на создание проекта. Сильные и слабые стороны обычно рождаются из таких вот знаний, либо из прошлых наработок компании или конкретного человека. 7. Сроки. Это то, на что стоит обратить особое внимание. Если идея инновационная, и делается что-то новое, чего нет нигде в мире или на конкретном рынке — сроки будут критическими, нужно сделать максимально быстро, чтобы занять нишу. Если делаем что-то стандартное, как, к примеру, интернет-магазин, то это делается для реального бизнеса, у которого есть четкое планирование. В любом случае, даже несмотря на то, что мы будем делать проект по Agile, и сроки у нас размытые, нам нужно узнать временные рамки и контрольные точки. Цели проекта Рис. 1. Цели проекта «Маркетплейс». Раньше мы делили цели на цели клиента и цели проекта. Сейчас мы ушли от этого и оставили только цели проекта, однако клиента все равно нужно спросить, куда он хочет прийти и зачем делается проект. Это связано с тем, что цели клиента, чаще всего, типичные. Нужно буквально проникнуться видением клиента, стать с ним на один уровень и посмотреть его глазами. Тогда только приходит правильное понимание целей и появляется возможность правильно управлять продуктом. С момента написания прошлой статьи мы разработали несколько собственных продуктов и разрабатываем их сейчас. В какой-то момент пришло понимание, что нам недостаточно Project Manager'ов, нам нужны Product Manager'ы. То есть люди, которые могут управлять продуктом, а не только ставить задачи по написанию кода и рисованию картинок. Тоже самое относится и к UX / UI Designer'ам или на русский манер, к проектировщикам. Нужны люди, которые смогут понять бизнес клиента. Я не зря об этом написал в блоке про цели, именно тут начинается работа, и нужны правильные люди, с абсолютно другим складом ума, которые не просто способны осознать, что вообще нужно сделать, но и добиться этого. Цели у проекта могут быть самые разные, все зависит от проекта. Обычно все это сводится к глобальным целям: деньги, пользователи, действия, внимание, доля рынка и т.д. Для достижения каждой глобальной цели нужно достичь много мелких, локальных целей. И тут обычно есть множество продуманных механик, как это делается. Но это все равно не конструктор. Даже если проектировщик и менеджер продукта знают много базовых механик достижения тех или иных целей, это всего лишь механики, а не сама реализация и достижение каких-то результатов. Кроме самих целей важно выяснить критерии успеха. Некий набор KPI, который покажет нам, добились ли мы целей или нет. Цели — это направление движения, некая отправная точка. От их правильной постановки зависит все проектирование, да и вообще весь проект. Нужно, не спеша, их продумать и контролировать по мере развития проекта. В итоге у нас получается первый документ со списком целей и критериев успеха. В нем стоит выделить приоритетные направления. Этап сделать невозможно без владельца продукта и его постоянного фитбека, впрочем, как и многие другие этапы. Целевая аудитория Чтобы сделать качественный продукт, нужно детально понимать, кто будет его пользователями. И понять это нужно с самого начала. Опрос владельца продукта даст нам не более, чем догадки, реальная картина обычно скрыта. Проводить свои полноценные маркетинговые исследования и опросы обычно нет ни времени, ни ресурсов. Поэтому исследовать целевую аудиторию можно несколькими простыми способами, которых будет достаточно для проектирования. Для начала, всю ЦА нужно разделить на группы по целям и основным признакам. Набор таких признаков в каждом проекте будет разный. Например, если мы делаем проект по фотографии, то нашей ЦА могут быть: профессиональные фотографы, фотографы-любители, заказчики услуг фотосъемки, модели и т.д. У каждого из них есть свои параметры, по которым мы можем их группировать. Это важно сделать, чтобы спроектировать полезный сайт для основных групп ЦА, который будет решать задачи каждой из них. В больших проектах обычно таких групп до 10, и они должны отражать цели для 98% пользователей будущего сайта. Одна из групп при этом будет основной, в неё войдет самый большой процент пользователей будущего проекта, на неё следует обратить особое внимание. При этом важно не забыть, что кроме внешних пользователей, у проекта есть еще и внутренние, например, контент-менеджеры, менеджеры по продажам, менеджер по поддержке и другие. Для этих пользователей не обязательно делать подробный портрет, но их цели все равно нужно учесть. Именно для этих пользователей будет разрабатываться админка. Огромный кусок работы, о котором большинство даже не задумывается, но который в некоторых проектах даже сложнее, чем внешний сайт. Далее, для каждой из этих групп нужно составить описание, некий портрет. Тут уже сложнее. Хорошо, если команда проекта досконально знает рынок и может довольно точно описать ЦА, но это редкость. Я бы рекомендовал составить список важных для проекта вопросов, и пойти с ним общаться к представителям разных групп. Это можно сделать на разных профессиональных ивентах или в социальных сетях. Причем сделать абсолютно бесплатно. В данном случае мы говорим о неком аналоге глубинного интервью, который позволяет понять мотивы человека и предугадать его поведение. Цель — понять нашу целевую аудиторию, чем она живет и как думает. В каждой из групп достаточно опросить по 20-30 человек, хотя, чем больше людей мы будем спрашивать, тем лучше. После таких интервью мы должны довольно хорошо понимать нашу ЦА. Всю информацию нужно систематизировать. В идеале вспомнить классику маркетинговых исследований, и для каждой группы составить описание в 4-х плоскостях: Социально-демографические характеристики: пол, возраст, образование, уровень дохода, род занятий, семья, дети и т.д. Это базовая информация, от неё мы будем отталкиваться. Поведение (потребности, ожидания и т.д.) человека с доходом в 300$ явно будет отличаться от поведения человека с доходом в 30000$, то есть в рамках одной группы параметров могут быть очень разные люди, и сделать проект одинаково интересным всем просто невозможно. Для этого мы и должны выделить основные группы ЦА, а после оптимизировать сайт под них. Психографические характеристики: стиль жизни, особенности личности, черты характера, жизненная позиция, система ценностей и т.д. Это менее очевидные, но даже более важные особенности будущей ЦА проекта. Система ценностей студентов будет явно отличаться от системы ценностей политиков или бизнесменов. Это кажется очевидным, однако никто точно не сможет сказать, чем именно отличается та или иная целевая группа, поэтому вопрос нужно исследовать и вникать. Поведенческие характеристики: повод для регистрации, искомые выгоды, частота посещаемости конкурентов, степень готовности к переходу на другой сайт, отношение к проекту (если он не новый), приверженность к существующим сайтам и т.д. Эту группу мы немного переделали от классических маркетинговых исследований в сторону Интернета, то есть нам тут интересно, как пользователь себя ведет именно в Интернете. В некоторых случаях, когда мы делаем проект, связанный с офф-лайном, нам также будет важно поведение пользователей и в реальном мире. Выяснить это будет сложнее всего, однако именно тут скрывается ключ к успеху проекта. 5-7 лет назад была мода на копирование Facebook, так вот все те, кто копировал, вообще не думали про поведение пользователей. Все воспринимали Facebook, как сайт с удобными инструментами взаимодействия, а на самом деле, люди пользовались и пользуются Facebook совершенно по другим мотивам. Зная хотя бы что-то о проектировании, очень многие компании могли бы не выбрасывать деньги на клоны Facebook, но нет, лавры Марка Цукерберга до сих пор не дают спать некоторым людям. Географические характеристики: страна, город, район. В новых проектах я часто слышу, что им будут пользоваться «все». На самом деле, у каждой страны не только свой язык, но и своя культура. Так что даже в интерет-проектах нам важно понимать, на какие страны мы ориентируемся. А если проект будет связан с офф-лайном, тогда эта группа приобретет особое значение. Пользователи из США явно будут отличаться от пользователей из Тайланда, причем отличаться почти во всём. Кстати, если кто-то еще не догадался: на этапе опросов ЦА вопросы в анкетах должны соответствовать 4-м группам, описанным выше. Они должны раскрывать каждую из этих групп. В конце этого этапа у нас будет документ с группами ЦА, и к каждой будет описание. Также, при исследовании ЦА появится много полезных идей, которые нужно будет выписать в отдельный документ. Персонажи и Empathy Map Рис. 2. Персонажи проекта «Маркетплейс». Целевая аудитория у нас разбита на группы, и каждая из них описана. На предыдущем этапе мы даже сделали опросы каждой из групп. Но этого еще недостаточно. Далее нам нужно заняться разработкой персонажей к каждой из групп ЦА. Персонаж — это некий типичный образ конкретной группы, которому нужно разработать целый портрет с описанием кто он, где живет, чем увлекается и т.д. Это поможет нам более глубоко понять нашу ЦА и оптимизировать проект под неё. Проектировщик должен будет поставить себя на место каждого персонажа и подумать о проекте с его точки зрения. Все это поможет сгенерировать идеи для проекта. В описании персонажа должно быть: ФИО Фото Возраст Страна и город Род занятий Семейное положение Поведенческие характеристики То есть во многом мы повторяем предыдущий этап, когда описывали каждую группу по заданным параметрам. Описание одного персонажа должно быть до 1000 знаков, время на эти работы тоже имеет ценность. Фото должно быть реальное, но при этом незнакомого человека, чтобы персонаж не воспринимался нами через призму знаний о ком-то. Самое важное после портрета — это задачи-проблемы-решения каждого такого пользователя. Именно тут мы генерируем основную часть идей для нашего проекта. Идеи из предыдущего этапа, в котором мы описали первую часть ЦА, мы можем добавить в задачи-проблемы-решения, чтобы понимать, как именно эти идеи появились и с чем связаны. После разработки персонажей можно приступать к картам эмпатий, их можно делать для каждого персонажа отдельно. Это позволяет еще глубже понять ЦА, а конкретно, посмотреть на проблему глазами пользователей. Иногда карта эмпатий применяется вместо персонажей, так как и персонажи, и карта эмпаний ставят нас на место пользователей и заставляют смотреть с их колокольни. Но, по сути, персонажи и карта эмпатий решают несколько разные задачи. Парсонажи показывают все задачи и пути их решения, в то время, как карта эмпатий поможет найти самое основное для пользователей, вскрыть их основные шаблоны поведения и расставить акценты в проектировании. Рис. 3. Карта эмпатий проекта «Маркетплейс». Суть карты эмпатий в том, чтобы разделить отношение пользователя на 4 блока: Думаю и чувствую. Говорю и делаю. Вижу. Слышу. Затем проанализировать их и сделать выводы в двух плоскостях: Проблемы и болевые точки. Ценности и достижения. Этот инструмент пригодится не только в проектировании, но и в маркетинге. На выходе вы получите документ с рядом персонажей и к каждому из них свою карту эмпатий. Также после этого этапа должно быть много идей для дальнейшего проектирования. Рынок и конкуренты Рис. 4. Сравнение конкурентов проекта «Маркетплейс». После того, как мы определились с целями и целевой аудиторией, можно переходить к изучению рынка и конкурентов. При оценке любого устойчивого бизнеса или стартапа всегда оценивается сам рынок, его объем, перспективы и т.д. Для этого нужно отслеживать тренды и исследования, чувствовать рынок. Обычно владелец продукта в курсе общих тенденций, иначе он начинал бы проект. Но тут важно изучить ситуацию на сегодня и найти прогнозы по росту рынка. Есть три ситуации на рынке: 1. Рынок падает. 2. Рынок стагнирует. 3. Рынок растет. Если рынок падает — на нем вообще ничего не стоит начинать, за очень редким исключением. Если он стагнирует, то есть стабильный, скорее всего, все основные свободные ниши уже заняты, и влезть туда будет сложно. Самая выгодная ситуация — это когда рынок растет. И чем быстрее он растет, тем больше шансов сорвать куш. Успешные проекты обычно появляются при росте рынка. Есть еще одна ситуация, четвертая, когда проект создает рынок. То есть владелец продукта придумал что-то совершенно новое, чего нет в мире. Эта самый сложный вариант и самый рискованный. Когда рынка нет, проект создается в полном непонимании, вслепую. Именно в такой рыночной ситуации скрываются единороги, проекты на миллиарды. Чтобы понять, где мы, нам нужно еще раз посмотреть на цели и вспомнить, какие именно потребности решает проект. У любого рынка есть границы. Опять же, сказать, что наш рынок — весь интернет, потому что у нас интернет-проект, это в корне неправильно: у рынка должны быть более четкие границы. И чем уже рынок, тем понятнее, что именно нужно спроектировать. Мы обычно описываем рынок по 3-м параметрам: 1. Продукты (потребительские свойства, группы продуктов, заменители, цены, комплект поставки и т.д.) 2. География (страны, города). 3. Время (сезонность, перманентный или временный). С первыми двумя группами более-менее понятно, нужно только вывести критерии для проекта и описать его. Параметр «время» бывает довольно редко и свойственен некоторым типам проектов, которые завязаны на сезонности. Например, сезонность может быть важна в туристических проектах, и от понимания этого феномена в проектировании мы сможем заложить определенные «сезонные» функции, типа сезонных предложений / рассылок / активностей. Часто онлайн рынок конкурирует с оффлайн рынком. Например, кредиты онлайн — это отдельный рынок со своими правилами и особенностями. Конкурирующим рынком будет кредиты оффлайн. В данном случае параметры рынка будут отличаться только по первой и по второй категории: по продуктам и географии. Продукт будет отличаться тем, что онлайн кредит получить быстрее, удобнее, другая процентная ставка и т.д. По географии: у нас нет привязки к отделению кредитной организации, поэтому получать такие кредиты может каждый в любой точке страны. При этом, чаще всего, сама страна будет иметь значение, но онлайн сервис можно значительно легче масштабировать. С первого взгляда и там, и там кредиты, разве что один кредит выдается наличными, а другой на пластиковую карту. Но если всмотреться в рынок, окажется, что все разное. И онлайн кредиты намного удобнее старых добрых оффлайн, потому сервисы по онлайн кредитованию растут как грибы. Говоря о рынках и стратегиях я всегда вспоминаю замечательную книжку «Стратегия голубого океана». Понимание рынка и нашего места на нем даст возможность расставить правильные акценты в проектировании и сделать такой продукт, который сможет конкурировать с другими. Пока многие не задумываются об этом, так как в интернете еще нет такой большой конкуренции, как в оффлайне. Но время идет, проектов становится больше, а свободных ниш все меньше. Поэтому, изучение рынка и конкуренции с каждым годом будет только усиливаться в проектировании. Зная рынок, мы можем исследовать конкурентов. Цель — быть лучшими. Особенно это важно, когда мы выходим на уже существующий рынок, на котором есть похожие проекты. И классного дизайна нам будет недостаточно, нам нужно быть на несколько порядков лучше, иначе конкурентную борьбу не выиграть. В идеале придумать уникальную «фишку», которая будет отличать нас от конкурентов, а прежде, нужно узнать каждую клеточку каждого конкурента. Для начала нужно сделать список конкурентов, разбить его на прямых и косвенных. Прямые — это проекты, которые решают ту же потребность, что и мы. Косвенные — это проекты-заменители, они часто решают часть потребностей, или те, на которых находится наша целевая аудитория, и мы с ними будем конкурировать за пользователей. Мы обычно спрашиваем признанных экспертов на рынке, гуглим по ключевым словам, ищем рейтинги, тематические каталоги и т.д. Если наш рынок ограничен географически, очень помогает изучение подобных проектов на западе и в соседних странах. Эти проекты не являются нашими конкурентами, но могут быть источником полезных идей. Например, мы сейчас делаем один государственный сайт. В целях изучить опыт подобных организаций мы посмотрели такие же сайты в соседних странах, а также в США и Великобритании, что позволило почерпнуть много полезных идей. Прямых конкурентов нужно проанализировать методом SWOT-анализа. Для каждого будет табличка с описанием: сильных сторон, слабых сторон, возможностей и угроз. Это чем-то напоминает Empathy Map, которую мы делали при анализе целевой аудитории, только для конкурентов. Сильные стороны и возможности у нас в проекте должны быть не хуже, чем у конкурентов. На слабых сторонах и угрозах мы можем сыграть, они должны быть значительно лучше, чем у конкурентов. Результаты этого анализа повлияют, как на проектирование, так и будут полезны в маркетинге. Он позволит понять, на что именно сделать акцент в проектировании, и поможет сгенерировать много полезных идей. Рис. 5. SWOT-анализ для проекта «Маркетплейс». Есть еще один замечательный способ — конкурентная разведка. Когда мы под видом клиента идем к конкурентам и получаем много интересной информации. Иногда без такой разведки вообще невозможно провести нормальное исследование. Когда мы исследовали основную информацию о конкурентах, мы все это можем собрать в красивый сводный анализ — большую таблицу, в которой выведем основные интересующие нас параметры и сравним всех конкурентов. Параметры формируются в зависимости от проекта, ведь сравнивать мы всегда будем очень разные проекты. Отдельно стоит сделать таблицу сравнения функционала прямых конкурентов. То есть выписать все типичные функции конкурентов в одну таблицу и галками проставить, у кого какая функция есть. Причем каждую функцию оценивать по баллам (от 1 до 10), так как качество реализации функции тоже может отличаться. В конце вывести общее количество баллов, чтобы понять, какой из конкурентов наиболее проработанный. Все расчеты нужно делать по методу взвешенных коэффициентов, так как важность всех функций для нас разная. Также можно применять принцип «разумного заимствования» и копировать некоторые функции у конкурентов, если они будут действительно востребованы в нашем проекте. Чаще всего это делается для крупных блоков базового функционала или для отдельных стандартных мелочей в интерфейсе, чтобы пользователь видел то, к чему уже привык, и лучше понимал новый проект. При этом уникальный функционал обычно не копируется, именно в этой части проект должен отличаться, ведь наша задача сделать не клон, а конкурента на порядок лучше уже работающего проекта. На этой стадии мы четко представляем, что хотим сделать, что нужно нашей целевой аудитории и что происходит на рынке, в том числе у конкурентов. То есть это самая базовая информация, на которой строятся все последующие решения. От качества этих этапов будет зависеть успех всего проекта. Если посмотреть на современные стартапы, то большинство из них не проводят подобных исследований и основываются на догадках основателей. Именно поэтому самой распространенной причиной смерти стартапов является невостребованность рынком (42%), о чем я писал ранее. То есть все это нам нужно не для красивых картинок, которые можно показать инвестору, а для гарантированного успеха всего начинания. В конце этого этапа у нас будет краткий документ с описание рынка и сравнением конкурентов. Обычно мы анализируем 5-7 прямых конкурентов и несколько западных аналогов. Кроме того, в нашем проекте прибавится новых идей, подсмотренных у конкурентов. Задачи-Проблемы-Решения Рис. 6. ЗПР для проекта «Маркетплейс». Один из самых важных этапов для генерации идей будущего проекта. При изучении целевой аудитории и рынка у нас уже есть много полезных идей, но тут их станет намного больше. У каждого человека есть свои потребности (задачи), при решении которых каждый из нас обычно сталкивается с какими-то сложностями (проблемами). Цель проектировщика придумать такие механики (решения), которые смогут решить задачи и проблемы пользователей. Например, у человека может быть задача купить новый аккумулятор для своего автомобиля, при этом проблемой может быть незнание, какой именно аккумулятор подойдет и какой из них качественный. Решениями в этом случае могут быть функции с рейтингом запчастей, отзывами пользователей, функция подбора запчастей по марке автомобиля и т.д. Таким образом, мы не просто придумаем функции для проекта, а сделаем его полезным именно для нашей узкой целевой аудитории. Этап ЗПР берет свое начало в персонажах и Empathy Map. К каждому персонажу мы должны создать таблицу с тремя колонками: Задачи-Проблемы-Решения. Вживаясь в роль наших персонажей, мы сможем представить, что именно они хотят и с какими проблемами сталкиваются. Именно по этой причине очень важно качество самих персонажей, чтобы они максимально отвечали реальности. Сама таблица получится у нас очень большой, ведь у нас будет около 8-10 персонажей, и у каждого из них может быть по 5-7 задач и проблем, которые могут повлечь за собой 20-30 идей для будущего проекта. Получится таблица с сотней идей. Все их реализовывать будет очень долго и затратно, поэтому тут нужно выбрать и разделить все на этапы. Для первого этапа нужно отобрать самое важное, функционал MVP. Но как выбрать самое важное? С ответом на этот вопрос нам поможет Empathy Map. Карта эмпатий для каждого персонажа позволит дополнить ЗПР и выявит самые важные функции для пользователей. Для этого нам нужно досконально изучить у всех персонажей «проблемы и болевые точки», а также «ценности и достижения». Сами по себе эти группы несут общую информацию и по ним генерировать конкретные функции порой бывает довольно сложно. Но зато, они нам могут подсказать, на каких именно функциях стоит сделать акцент. Например, в ценностях может значиться «стремление к самовыражению», особенно, если мы проектируем социальную сеть или сайт знакомств. На первый взгляд сгенерировать конкретные функции из этой особенности ЦА довольно сложно, но, с другой стороны, она нам показывает, что для нашей ЦА будут важны все функции, связанные с самовыражением. То есть проектируя подобный сайт, нам нужно выносить эти функции на более заметные и центровые места в интерфейсе, уделить особое внимание их детализации. Делая ЗПР, многие допускают ошибку и начинают вписывать общие задачи. Я видел интернет-магазины и корпоративные сайты, в которых пытались всунуть форумы или еще что-то очень общее. Все это мотивировалось тем, что: «люди в обычной жизни общаются, так почему они не будут делать это в нашем проекте!?». Подобные идеи не просто пустая трата ресурсов, это прямой вред проекту, размывание основной идеи. У любого проекта должна быть специализация, и чем она уже, тем проще его продвигать и доносить пользователям его ценность. Именно для этого мы и ограничили себя целевой аудиторией и рыночными границами, чтобы за них не выходить. Поэтому в ЗПР должны быть только те задачи, которые связанны с нашим проектом. Могу поспорить, что при правильном подходе их будет и так очень много, больше, чем есть ресурсов. В конце этого этапа у нас должна получиться большая таблица с 3-мя колонками, и все они будут привязаны к конкретными персонажам. Самой большой из них будет колонка с решениями. Это и будут основные функции нашего будущего проекта. Customer Development Три года назад мы отдельно не выделяли этот этап. У нас почти в любом проектировании разрабатывался документ «Монетизация» или подобный. В интерфейсах мы учитывали платежные инструменты. Да и вообще одна из основных наших специализация — это электронная коммерция, довольно широкое понятие, которое сводится к продажам-покупкам через Интернет всего, чего угодно, мы хорошо разбираемся в этих вопросах, но системно подходить к вопросам CustDev начали только недавно. На предыдущих этапах мы получили много информации о будущих потребителях и рынках. Мы знаем, чего они хотят, какие у них проблемы и знаем, как их решить. Самое время понять, за что можно брать с нашей ЦА деньги. В этом и есть суть Customer Development — создать настолько большую ценность, за которую готовы будут платить. Это безумно сложный, но и безумно важный этап. Именно тут лежит ответ на вопрос: станет ли стартап бизнесом и как быстро. Сделать популярный проект недостаточно, с него нужно научиться зарабатывать. Существует несколько популярных моделей монетизации: Реклама — показ рекламы пользователям, основные функции для них бесплатные. Например, контекстная реклама в Google. Подписка — платная подписка на премиум функционал или просто доступ. Например, платные приложения в App Store. Freemium — базовый функционал бесплатно, а остальное за деньги. Например, VIP анкета на сайтах знакомств. Платформа — проект выступает платформой, на которой люди (компании) друг другу что-то платят, а проект с этого берет процент. Например, фриланс сайты, которые берут процент от транзакций. Услуги — разовая или постоянная оплата за какие-то услуги. Например, за открытие какой-то информации или возможность выделится. Реальные товары — продажа товаров реального мира, классическая электронная коммерция. Например, любой интернет-магазин. Виртуальные товары — продажа виртуальных товаров. Например, продажа виртуальных товаров в играх. Многие модели могут пересекаться друг с другом. Например, Facebook и Google 80% своих доходов получают от рекламы, но у них также есть много разных продуктов, которые можно купить по подписке, есть целые платформы и т.д. Кроме популярных моделей есть и довольно уникальные. Например, можно собирать и продавать личную информацию пользователей для рекламных целей, что многие и делаю в США сегодня. В любом случае, не нужно бежать за модой, нужно предлагать нашим пользователям тот инструмент, за который они готовы платить. Для начала проектировщик должен понять, за что люди готовы платить. Для этого лучше всего использовать Empathy Map, которая нам показывает самое ценное для пользователей. Затем нужно продумать, как именно применяется та или иная модель монетизации. И третьим шагом, нужно сделать расчеты по выручке, при этом привязываясь к пользователям. Например, есть мы решили делать платформу и брать 3% ос всех транзакций, то нам нужно добиться оборота хотя бы в 1 млн. долл. в мес., чтобы проект заработал 30 тыс. долл. А еще у нас есть текущие затраты на поддержку такого сайта, команда разработки, которой нужно платить и т.д. Отдельно стоит задуматься над тем, сколько клиенты будут готовы платить за ту ценность, которую мы предлагаем. Для этого нам нужно понять, сколько сейчас они тратят денег и времени на решение своей потребности или сколько они сэкономят, воспользовавшись наши продуктом. Например, если у нас SaaS сервис, скажем CRM, то мы помогаем клиентам продавать больше, значит, зарабатываем для них больше денег. Как выяснить, насколько больше наши клиенты зарабатывают с нами? Для этого можно: 1. Сделать расчет. 2. Спросить клиентов. 3. Сделать сравнение конкурентов. У каждого из методов есть проблемы: 1. При расчете можно ошибиться, да и данных обычно недостаточно. 2. Клиенты не всегда говорят правду, да и платить хотят как можно меньше. 3. Конкуренты не всегда есть. Но в любом случае мы должны на чем-то основывать в ценообразовании, и это тоже часть правильного проектирования, в которой нам могут помочь профессиональные маркетологи. В конце этого этапа мы должны получить документ, в котором будут выбраны модели монетизации, будет описана их механика работы, сроки внедрения, а также расчеты эффективности и выход на точку безубыточности. Mind map Рис. 7. Mind Map для проекта «Маркетплейс». Итак, у нас куча идей. В любом большом проекте идей на этом этапе у нас должно быть за сотню, может даже несколько сотен. В такой массе идей можно просто потеряться. Кроме того, мы не видим иерархию идей, связей и что на что влияет. Далее нам нужно собрать все эти идеи в один большой Mind map, где будет видна вложенность и связи. Это первый шаг к визуализации. Основная часть идей у нас в большой таблице ЗПР. Берем колонку решения и по порядку вписываем все идеи в нашу Mind map, параллельно их группируя. Выписывать следует краткие, но понятные формулировки, весь текст в Mind map запихивать не нужно. При этом, если у есть идея какой-то функции, которая имеет разны параметры, мы их должны выписать, как продолжение карты ума. Например, если у нас есть функция «онлайн-оплата» и у неё есть варианты: кредитная карта, PayPal и наличными, то в карте ума так и показываем, ветка «Онлайн-оплата», вложенности — 3 варианта оплаты. Детализировать карту очень важно, местами вплоть до полей во всех формах. Проблема в том, что пока мы работаем с аналитикой, мы хорошо помним, что нужно сделать. Как только мы перейдем на работу с отдельными интерфейсами, все начнет забываться. И если мы не детализируем карту, нам придется проектировать интерфейсы не по карте (как правильно делать), а рыться в прошлых этапах аналитики и вспоминать, что мы придумали. Также, кроме ЗПР, нам нужно внести идеи в нашу карту и из других документов, которые у нас накопились. Абсолютно все идеи должны быть отражены в карте. Обычно делается одна большая карта, но проекты бывают настолько большими, что для удобства приходится делить карты на несколько. Обычно в карте есть 7-10 основных веток и все пишется в них, создавая длинные логические цепочки с вложенностями. В них мы сразу можем цифрами разделить функции на этапы внедрения и важность. Также мы должны показать стрелочками все связи. Например, функция регистрации часто связана с очень многими функциями в проекте, и, как минимум, после регистрации пользователю становятся доступны особые функции — все это нужно отразить на карте. Также допустимы и другие метки. Задачи могут быть самыми разными, и в этих сотнях идей, даже разбитых на логические связи, можно потеряться. В любом случае, проделывая эту процедуру, мы превратим хаос в систему и, прежде всего, сделаем это для себя в своей же голове. Мы делаем карты в специальной программе — Xmind, хотя есть много альтернативных программ и онлайн сервисов. Тут не принципиально. По сути, после создания этой карты мы уже можем подключать программистов, которые на её основе будут закладывать архитектуру и могут начинать разрабатывать ядро, поэтому важно визуализировать этапность. Все предыдущие этапы и сама карта не занимают много времени. Это нулевая итерация в проекте, после которой уже можно начинать программировать, пока проектировщик будет работать над первыми интерфейсами. Даже если проект большой, этап аналитики у нас в среднем занимает 40-60 часов. Небольшая цена, чтобы заложить правильную основу, и не переделывать позже. Дальше нужно будет проектировать интерфейсы. И делать это нужно будет на основе Mind map. Если карта детализирована настолько, что проектировщику не нужно возвращаться к прошлым этапам аналитики, значит карта сделана хорошо. В конце этого этапа у нас будет одна Mind map или несколько на разные части проекта, этапность внедрения фич и приоритеты. Структура сайта Рис. 8. Структура сайта для проекта «Маркетплейс». Сделав карту по функционалу, в теории можно приступать к интерфейсам. Но на первом же интерфейсе возникнет проблема — какую структуру и какое главное меню сделать? В нашей Mind map у нас 7-10 основных разделов, а еще есть множество важных второстепенных. Золотое правило юзабилити («Кошелек Миллера») гласит: в одном блоке не может быть более 5-7 элементов. Это же распространяется и на главное меню. Впрочем, есть и исключение, если все пункты меню несут одинаковую смысловую нагрузку, то можно и больше. Например, сайты СМИ или интернет-магазинов, где меню — это тематические разделы. Внутри каждого пункта меню статьи, просто разной тематике. Бывают и другие исключения, но это редкость. Для начала нужно понять, что не все функции нашей Mind map — это разделы. Даже основные. Разделы сайта должны быть простые, понятные, и каждый должен нести пользу нашим юзерам. Поэтому для структуры обычно делается отдельная Mind map, в которой мы отображаем только страницы и разделы будущего сайта. В идеале, не превышать 3-х уровневую вложенность, хотя современные сайты уже не так строго придерживаются этого правила. Все разделы и подразделы должны быть интуитивно понятными, по каждому названию человек должен сразу понимать, что его ждет по этой ссылке и какие подразделы там могут скрываться. Часто в больших проектах есть основное меню и несколько вспомогательных. Например, в интернет-магазинах основным меню будет каталог товаров, а вспомогательным информация об оплате, доставке, контакты, о магазине и т.д. Бывает, что отдельно нужно отобразить меню личного кабинета для разных ролей или другие скрытые от всех пользователей разделы. В конце этого этапы у нас будет полная структура сайта и понимание главного и второстепенного меню. Она ляжет в основу первого интерфейса. Это конец первой части статьи. То, что мы называем аналитической частью проектирования. В следующей статье вы узнаете, как превратить всю эту аналитику в интерфейсы и в частности в динамический прототип. P.S. На днях у нас стартовал курс по проектированию от авторов статьи: Проектирование серьезных сайтов . Еще можно записаться на курс со скидкой. Для этого пишите на [email protected] P.P.S. Чтобы получать наши новые статьи раньше других или просто не пропустить новые публикации — подписывайтесь на фан страницы SECL Group: Facebook , VK , и Twitter . Автор: Никита Семенов CEO Компания « SECL Group »
https://habrahabr.ru/company/SECL_GROUP/blog/318598/
habrahabr
8 JavaScript библиотек для визуализации данных в виде интерактивных карт
['интерактивная карта', 'визуализация данных', 'svg', 'charting', 'картограмма', 'highcharts', 'highmaps', 'amcharts', 'ammap', 'anychart', 'anymap', 'google charts', 'd3.js', 'd3', 'kartograph', 'kartograph.js', 'mapael', 'jvectormap']
Визуализация данных стала неотъемлемой частью жизни практически каждого веб-разработчика. Если построение графиков, диаграмм, карт и дашбордов до сих пор никогда не были вашей головной болью,...
Визуализация данных стала неотъемлемой частью жизни практически каждого веб-разработчика. Если построение графиков, диаграмм, карт и дашбордов до сих пор никогда не были вашей головной болью, просто немного подождите: наверняка и вы скоро вступите в наш «клуб». Данная статья дает общее, но вовлеченное представление о восьми самых интересных, на мой взгляд, JavaScript-библиотеках для построения интерактивных геовизуализаций. В целом, таких решений сейчас много, и выбрать оптимальное под тот или иной конкретный проект – задача порой непростая как минимум по времени. Этой публикацией я попытаюсь хотя бы немного упростить жизнь тем, кто только начинает разбираться в данной теме. Кстати, это слегка модифицированный перевод моей недавней статьи на Onextrapixel ( оригинал на английском ). На всякий случай сразу уточню: вообще, JavaScript-библиотеки для создания карт можно разделить на два типа. Одни просто позволяют отображать географическое положение одного или нескольких объектов. Для подобной задачи можно использовать карты типа Google Maps или OpenStreetMaps в качестве источника. В принципе, таких решений достаточно, и результат их работы примерно таков: Другой тип – и о нем я хочу сегодня поговорить – JavaScript-библиотеки, с помощью которых можно делать именно визуализацию данных посредством создания красивых интерактивных карт . Они показывают либо связи между величинами в разных географических регионах, либо перемещение каких-либо объектов относительно их местоположения, и т.п. – всё то, что крайне важно в плане анализа данных и business intelligence. JavaScript-библиотеки для интерактивных карт-визуализаций amMap (от amCharts) amMap – специальная JavaScript (HTML5) библиотека для построения карт, разработанная командой amCharts . Она не нуждается в каких-либо внешних зависимостях и позволяет довольно просто делать красивые choropleth, bubble, dot (point), connector и flow карты, поддерживая много полезных интерактивных фич. В частности, amMap дает возможность легко «погружаться» в тот или иной выбранный участок карты с помощью drill down или, например, использовать любые картинки в качестве маркеров – довольно любопытная вещь. Для начала работы с amMap нужно скачать ZIP-файл с бинарниками. Кстати, в нем уже лежит по 455 карт в каждом из поддерживаемых форматов (JavaScript/SVG). Документация у amMap не очень большая и сводится по большей части к набору вопросов и ответов. Описание API: есть . Зависимости: нет. Лицензия: бесплатно (брендированные карты) или платно (от $140). AnyMap (от AnyChart) AnyMap – одна из популярных JavaScript (HTML5) библиотек для визуализации данных, созданных компанией AnyChart . Как и в случае с amMap, для создания карты с ее помощью не требуется больших усилий, равно как и подключения каких-либо внешних ресурсов или сторонних библиотек (jQuery и т.д.). AnyMap также поддерживает все базовые типы серий, который только могут понадобиться: choropleth, bubble, dot, connector, flow. В число основных интерактивных фич AnyMap входят drill down для более плотного изучения отдельных районов, событийная модель для обработки событий (пользовательской интерактивности), цветовая шкала для автоматического раскрашивания карты по заданным настройкам. Забегая немного вперед, скажу, что, на мой взгляд, AnyMap больше похожа на D3, нежели на amMap или Highmaps. Она как бы сочетает в себе возможности «коробочных» решений и в то же время является хорошо расширяемой и контролируемой со стороны разработчика, позволяет полностью кастомизировать визаулизации путем добавления или изменения различных элементов и легко создать собственные карты. Бинарники AnyMap находятся в ZIP-файле и содержат множество примеров, а на CDN у AnyChart доступны сотни карт в самых разных форматах: GeoJSON, TopoJSON, SHP, SVG. Также стоит заметить, что у этой библиотеки богатая документация и обширное описание API, кстати, довольно легкое для понимания и – опять же – с большим количеством сэмплов. Описание API: есть . Зависимости: нет. Лицензия: бесплатно (брендированные карты) или платно (от $79). D3.js (от Mike Bostock) D3.js – мощная в плане возможных результатов библиотека для визуализации данных с открытым исходным кодом. В отличие от других упомянутых JavaScript-библиотек, D3 – это, скорее, фреймворк, который дает максимальную свободу творчества. Хотя создание интерактивных карт здесь не так очевидно, как, скажем, в решениях от amCharts, AnyChart или Highcharts. В частности, чтобы сделать такую замечательную интерактивную карту, как на иллюстрации, потребуется изучить достаточно большое количество материалов. Хотя, надо сказать, это стоит того, потому что в итоге можно сделать реально потрясающие, оригинальные визуализации. Фактически в D3 доступно множество фич, среди которых полная кастомизация поведения, событийная модель и т.д. В целом, я бы сказал, что это – идеальное решение для веб-приложений. Хотя, к сожалению, D3 не предоставляет собственных карт. Это значит – их придется самостоятельно искать в открытых источниках, но вряд ли сейчас это большая проблема. Документации как таковой у D3 нет, однако есть хорошо расписанное API и множество различных туториалов, примеров и прочих полезных материалов буквально по всему Интернету. Описание API: есть . Зависимости: нет. Лицензия: бесплатно. Google GeoCharts (от Google) У гиганта Google есть своя JavaScript-библиотека для визуализации данных – Google Charts . Она содержит возможности и для построения интерактивных карт-визуализаций, называющихся здесь geocharts, видимо, чтобы их не путали с обычными картами, которые нужны только для отображения местоположения объектов. Карта в Google Geocharts только одна, и это – карта мира. Однако можно выбрать регион, на который при рисовании будет сделан фокус с помощью зума. К сожалению, здешний API не поддерживает прокрутку (scrolling), изменение масштаба (zoom), перетаскивание (drag). Также Google не предлагает иных типов серий для карт, кроме choropleth и bubble. Однажды данные недостатки довольно сильно меня, мягко скажем, опечалили, но в этом был и положительный момент: в конечном счете мне пришлось начать искать и изучать всяческие другие библиотеки, и вот я сейчас делюсь результатами этого микроисследования с вами. Так или иначе, GeoCharts – отличное решение для тех людей и проектов, которым не нужны большие и сложные фичи, но кто ищет прежде всего скорость и стабильность вместо какой-то особенной красоты и кастомизации. Описание API: есть . Зависимости: нет. Лицензия: бесплатно. Highmaps (от Highsoft) Highmaps – «младшая сестра» Highcharts и Highstock, популярных библиотек разработки компании Highsoft . Ее ключевые преимущества – открытый код со всеми его плюсами, небольшой размер, высокая скорость отрисовки и широкий набор интерактивных возможностей, таких как drill down и т.п. Среди поддерживаемых в Highmaps серий – choropleth и bubble. Кроме того, с помощью этой библиотеки можно рисовать линии для обозначения дорог, рек и коннекторов. Хотя сделать, скажем, flow-карту здесь не так просто, как в тех же amMap и AnyMap. Также стоит отметить, что ни Highcharts, ни Highmaps не работают без jQuery, так что для их использования эта зависимость должна быть подключена (или, конечно, есть еще вариант поискать другую библиотеку для визуализации данных — ха-ха). Положительный момент – Highmaps имеет большое количество карт в форматах SVG и GeoJSON. Также у нее обильная документация , которая позволяет довольно быстро и успешно разобраться во всевозможных настройках. Описание API: есть . Зависимости: jQuery. Лицензия: бесплатно (брендированные карты) и платно (от $390). jQuery Mapael (от Vincent Broute) jQuery Mapael – еще одна очень достойная, хорошо сделанная библиотека с открытым исходным кодом, предназначенная для создания динамических векторных карт. Она основана на jQuery и Raphael JS, так что эти зависимости нужно иметь в виду при построении поддерживаемых ею choropleth, bubble или connector карт. Набор своих, готовых для использования карт лежит в репозитории Mapael. Документация и описание API соединены в одну статью но, честно говоря, начать работу с данной библиотекой достаточно легко и с помощью вот этого подробного туториала . Описание API: есть . Зависимости: jQuery и Raphael. Лицензия: бесплатно. jVectorMap (от Kirill Lebedev) Библиотека для интерактивных карт jVectorMap имеет открытый исходный код, как и ряд других перечисленных в статье. Она не будет работать без jQuery. Хотя кому-то может показаться, что такая внешняя зависимость делает данную (или любую другую) библиотеку не слишком легко-универсальной, это не должно стать большой проблемой в наше время, ведь jQuery с большим отрывом занимает первое место среди JavaScript-библиотек для сайтов и по популярности, и по доле рынка. К сожалению, выбор доступных типов серий здесь не слишком велик: в jVectorMap предлагаются только choropleth и marker карты, но в то же время – отдадим этой библиотеке должное – они сделаны весьма добротно. Кроме того, тут можно использовать в качестве маркеров любые картинки, а также имеются drill down и ряд других интерактивных фич. У jVectorMap довольно небольшое описание API и нет документации в привычном по крайней мере для меня виде. Однако имеется маленький, но все равно очень полезный туториал Getting Started . Свои карты используются, но только в формате GeoJSON. Описание API: есть . Зависимости: jQuery. Лицензия: бесплатно и платно (от $39). Kartograph (от Gregor Aisch) Kartograph – еще одно открытое решение со всеми вытекающими из этого преимуществами. Данную библиотеку характеризует обилие визуальных эффектов, таких как тени, размытие и т.д. Интересно также, что вдобавок к традиционным choropleth и bubble типам серий здесь еще есть 3D columns (или, как их иногда называют, вертикальные 3D bars). Готовой коллекции карт в Kartograph нет. Но библиотека работает с любыми картами в формате SVG. Также она предлагает утилиту Kartograph.py для создания карт. Хотя Kartograph имеет зависимости и не будет работать без Raphael JS (используется как движок для рисования) и jQuery, эта библиотека делает процесс создания карт действительно довольно понятным и беспроблемным, тогда как документация и описание API данной библиотеки, соединенные в одну статью, позволяют вполне легко и удобно заполучить нужные интерактивные карты для ваших проектов. Описание API: есть . Зависимости: jQuery и Raphael. Лицензия: бесплатно. Заключение Все перечисленные мною JavaScript-библиотеки для визуализации данных с помощью интерактивных карт – кросс-браузерные. (Ну, в XXI веке иначе, наверное, и быть уже не может.) Некоторые из них даже поддерживают старые браузеры, такие как Internet Explorer 6. (Хотя вот это, я надеюсь, очень скоро уже перестанет быть важным, в конце 2010-х.) Все бесплатные библиотеки, которые я упомянул, довольно-таки неплохо справляются с созданием интерактивных карт. Но зато они не обеспечивают такую широкую поддержку, как коммерческие, да и – положа руку на сердце – не так уж сильны в кастомизации (ну, кроме D3, конечно). Говоря о коммерческих библиотеках – кстати, обычно ими можно пользоваться бесплатно для некоммерческих и личных целей, – я не могу не отметить AnyMap и Highmaps за их обстоятельные документации и описания API, равно как и за большие пулы всяческих примеров/демо JavaScript-карт с добротной интерактивностью. Спасибо за внимание. Надеюсь, эта статья окажется для кого-то полезна с той целью, чтобы быстро ухватить основную суть топовых JavaScript-библиотек, предназначенных для визуализации данных посредством интерактивных карт. Пожалуйста, делитесь в комментариях собственными мыслями, выводами, пониманиями и, конечно, названиями ваших любимых библиотек, если вдруг я незаслуженно, на ваш взгляд, не затронул их в данной статье. Всем хорошего дня!
https://habrahabr.ru/post/318600/
habrahabr
Научная капча: как головоломки мешали людям
['капча', 'captcha', 'recaptcha', 'боты', 'логика', 'ИИ']
С тех пор как капча из поля для ввода размытых слов и цифр превратилась в точку, куда нужно просто кликнуть мышью, мы стали забывать о мучениях, вызванных необходимостью распознавать крайне...
С тех пор как капча из поля для ввода размытых слов и цифр превратилась в точку, куда нужно просто кликнуть мышью, мы стали забывать о мучениях, вызванных необходимостью распознавать крайне нечеткие символы. Капча — как много в этом слове для человека, которому приходилось встречаться с ней каждый день. В какой-то момент, не так уж давно, казалось, что спастись от ботов поможет только защита, с которой едва ли справится обычный человек. Это убеждение породило множество UX-монстров, о которых пойдет речь в статье. Современная капча старается быть незаметной, но она не исчезла совсем. Системы определяют человек перед ними или бот, изучая куки, IP-адрес, движение курсора и нажатия клавиш на страницах. Независимо от того, как реализуется технология капчи, все построено вокруг идеи создания задачи, трудной в решении для компьютеров и простой для людей, но не всегда на практике вопросы и ответы оказываются очевидны. Captcha — это автоматизированный публичный тест Тьюринга, который может пройти человек, но не компьютер. Изначально капча полагалась на способность человека определять и понимать визуальные / звуковые сигналы, которые ботам было крайне трудно разобрать. Такие механизмы были несовершенны: сами пользователи не всегда понимали, что от них требуется. Компьютеры, в свою очередь, учились распознавать объекты даже на сильно зашумленных изображениях. ReCAPTCHA: латинские буквы и цифры переменной длины, искажения, шумы, переменный цвет фона — на момент появления вызывала тонны страданий пользователей. Сегодня вы увидите (или вспомните) лишь несколько примеров, с которыми раньше не могли справиться даже люди (в некоторых случаях, боты справлялись с капчей лучше людей). Видеокапча Канадский стартап NuCaptcha демонстрировал видеокапчу: бегущие по искривленной линии символы, из которых человеку предлагалось распознать последние три. Исследовательская группа из Стенфордского университета быстро создала алгоритм для взлома этой видеотехнологии. Они также обходили защиту обычной капчи и проекта audioCAPTCHA, направленного на работу со слабовидящими или слепыми пользователями. Игровая капча Стартап Are You a Human с помощью технологии PlayThru предлагает сыграть в мини-игру, в которой человеку необходимо выбрать нужный объект из ряда присутствующих и поместить его в определенное место. Хотя такой способ казался пользователю более понятным (и логичным), его также периодически подвергают попыткам взлома . Эта капча неэффективна, потому что не имеет достаточного количества элементов, чтобы предотвратить возможность перебора вариантов. Кроме того, высока вероятность получить правильный ответ, просто случайно угадав нужную последовательность действий. Каждый раз, когда капча пытается сделать что-то «приятное» и увлекательное для пользователя, возникает дыра в безопасности. Художественная капча Сайт треш-графики geee.net не мог обойтись без капчи, которая одним своим видом пугала бы посетителей. Пользователей просят нарисовать то, что они видят на картинке. Художественную капчу нельзя считать полноценным инструментом защиты — это шутка, призванная привлечь внимание, но юмора в ней не больше, чем правды. Капчу при должном старании пройти можно. Маткапча Пережив бурный расцвет, математическая капча быстро сошла в ноль, поскольку ответить на вопрос, сколько будет «3 + 3» для ботов не составляет никакого труда. Хитрость здесь в том, чтобы найти головоломку, которая оказалась бы трудна для ботов, но решаема для людей. Капчу, как на примере выше, можно решить, имея под рукой учебник по математическому анализу или доступ к WolframAlpha, но сколько людей готовы тратить свое личное время на поиски ответа? Metal CAPTCHA Вместо ряда букв и цифр Metal CAPTCHA просит пользователей расшифровать логотипы метал-групп. Если вы не знакомы с этим жанром музыки, вам будет трудно, но всегда можно воспользоваться поиском по изображениям. К сожалению, сейчас проект закрылся (по понятным причинам). Программерская капча Codecha — программерская капча, для решения которой требуется написать тело функции, решающей поставленную задачу на одном из выбранных языков программирования. Защищает не только от ботов (частично), но и от всех людей, не знакомых с программированием (полностью). Нечитабельная капча Пример китайской капчи с сайта 12306.com, на которой нужно отметить картинку (или картинки) с изображением агата. Сложность в том, что картинка имеет низкое качество и размер — на иллюстрации выше можете оценить в оригинальном виде. Радиотехническая капча Капча с ныне умершего радиотехнического форума flyback.org.ru использовалась при регистрации нового пользователя. В капче предлагается решить задачу на определение энергии, накопленной в конденсаторе. Описание задачи: трансформатор имеет коэффициент трансформации Ом, Ом и Ом. Все элементы схемы идеальны, падение напряжения на диоде равно нулю. Входное напряжение: синусоидальное 50 Гц, с действующим значением 58 В. Определите, сколько Дж энергии будет накоплено в конденсаторе ? С такой задачей вряд ли справятся нанятые за копейки индусы, с ходу разгадывающие любые символы на картинках стандартных капчей. Она также отпугнет всех пользователей, не обладающих достаточным уровнем знаний. Передвижная капча They Make Apps создали специальный слайдер, в котором курсор нужно расположить в конце линии, чтобы зарегистрироваться на сайте. Графическая капча MotionCAPTCHA представляет собой плагин, который предлагает пользователю повторить (нарисовать) фигуру из различных картинок. Интерактивная капча Интерактивная капча . Четыре разных ползунка должны быть установлены в правильное положение для публикации комментария в блоге — цвет ползунка нужно выбрать соответственно заданному полю. Геометрическая капча Эта геометрическая капча примерно на одном уровне с математической — одинаково сложные задачи для человека и в равной степени неэффективные перед ботами. Если вы отвечаете случайным образом, у вас 15-процентная вероятность (1 шанс из 6) дать правильный ответ, что, конечно, не позволяет обеспечить хороший уровень безопасности. Для того чтобы ответить на вопрос капчи, у вас есть только 30 секунд. Полиязычная капча Капча с сайта sveit.com (ныне заброшен) была основана на смешении сразу нескольких языков. Скрытый код А вот капча hidden-3d.com живее всех живых. Вам всего лишь нужно найти скрытый код в изображении. Трехмерное изображение 3D капча. На самом деле ничего сложного , если вы знаете программирование. Логические загадки Логическая загадка, а не капча. Пример взят из подборки , и на каком сайте использовался данный вид капчи, сейчас определить трудно. Считывание точек Это не капча для слепых, как можно было подумать, а первая в мире капча, сделанная по системе Брайля. Ныне заброшена и нигде, к счастью, не используется. Нотная капча Музыкальная капча для сайта музыкантов. На сервере генерируется картинка из (псевдо)случайно выбранных четырех картинок нот и пауз. Имена картинок — цифры от 0 до 13 — соответствуют номеру позиции ноты на нотном стане, начиная от нижней добавочной. Ключ тоже случайный — басовый или скрипичный. Капча, которую мы потеряли Поскольку находятся способы взломать каждое новое поколение капч, алгоритмы машинного обучения дают компьютерам все больше и больше возможностей постигать окружающий мир. В какой-то момент капчи стали использоваться для обучения ИИ, который начинает действовать на тех же принципах, на которых работает наш мозг. Эволюция капчи — это свидетельство прогресса ИИ. Первые надежные головоломки, которые использовались для защиты от ботов десять лет назад, теперь могут быть решены автоматически с помощью компьютеров в 99,8 % случаев. В то время как компьютеры становятся все лучше и лучше в решении головоломок, люди могут доказать свою человечность, выполняя другие типы задач. Кроме того, появилось много сервисов для разгадывания капч, которые обслуживают тысячи живых пользователей, готовых за небольшие деньги разгадать любую поддающуюся их пониманию капчу. В свое время в Mail.Ru Group пришли к тому же выводу: так появился сервис интеллектуальной капчи , не требующий от человека прохождения проверки. У нас более 100 млн пользователей, причем большая часть из них авторизована. А это значит, что с запросом на наши домены передаются сессионные куки, по которым мы определяем пользователя, а затем достаем его профиль, статистику, спам-рейтинг и т.д. Вся эта информация подается на вход алгоритма-классификатора, и на выходе мы получаем предположение о том, кем является пользователь — человеком или спам-ботом.
https://geektimes.ru/company/mailru/blog/284126/
habrahabr
Система перевода (локализации) текста в Unreal engine
['Unreal engine', 'перевод текста', 'локализация', 'localization']
Здравствуйте, меня зовут Дмитрий. Я занимаюсь созданием компьютерных игр на Unreal Engine в качестве хобби. Пару дней назад я написал статью о редакторе квестов и диалогов. Ну раз вы написали...
Здравствуйте, меня зовут Дмитрий. Я занимаюсь созданием компьютерных игр на Unreal Engine в качестве хобби. Пару дней назад я написал статью о редакторе квестов и диалогов. Ну раз вы написали диалоги для игры то наверно вы захотите их перевести на другие языки. В этой статье я опишу как работает модуль предназначены для локализации текста в Unreal engine. Итак сначала надо включить его Editor Preferens → Experemental → Localization Dasbord. К сожалению модуль до сих пор является экспериментальным. После этого надо перезагрузить Unreal engin. Как только вы это сделаете в меню Windows появится пункт Localization Dasbord. Заходим в него и видим вот что. Здесь надо добавить новую культуру (Add new culture) и выбрать Native язык, это язык на котором написан ваш текст в моем случае это английски у вас наверно будет Русский. Теперь надо определить откуда Unreal engine будет извлекать текст. Во первых нужно сказать что Unreal engine будет извлекать текст из всех переменных тип которых FText (собственно это главное отличие этого типа от FString). Если у вас есть переменная FText но вы не хотите чтобы Unreal engine переводил этот текст, то это можно отключить: Включив переключатель Gather from text files мы сможем извлечь текст из с++ файлов. По умолчанию текст будет извлекаться из ".h", ".cpp", ".ini" Естественно переменные в этих файлах должны быть определены как FText в с++ это делается так: /* Top of File */ #define LOCTEXT_NAMESPACE "Your Namespace" ... FText TestHUDText = LOCTEXT( "Your Key", "Your Text" ) ... #undef LOCTEXT_NAMESPACE /* Bottom of File */ или так FText TestHUDText = NSLOCTEXT( "Your Namespace", "Your Key", "Your Text" ) Включив переключатель Gather from Packages, Unreal engine будет извлекать текст из ассетов. По умолчанию стоит ".uasset" и ".umap". У меня все выглядело так: Теперь можно нажать кнопку «Gather text» и Unreal engine создаст файлы локализации. Переводить можно или прямо в Unreal engine или импортировать файл перевода и использовать редактор ".po" файлов. Я использовал Poedit. Важно: После того как вы завершите перевод не забудьте нажать кнопку «Compile Text». А то перевод не появится в игре. Для переключения текста в игре можно использовать функцию: void AHUD_StoryGraph::ChangeLocalization(FString target) { FInternationalization::Get().SetCurrentCulture(target); } В качестве target нужно подставлять сокращения en — Английски, ru — Русский и так далее. Важно: Чтобы увидеть перевод, игру надо запускать в Standalon Game режиме, если запустить во вьпорте то перевод вы не уведите. При упаковке игры нужно зайти в Project setting → Packing и выбрать Include prerequisites, выбрать языки которые вы включите в игру и изменить параметр Intarnacialization support с English only на All. Собственно все, теперь вы сможете локализовать вашу игру на все языки мира. Вот пример
https://habrahabr.ru/post/318602/
habrahabr
В системах управления электроподстанциями Siemens обнаружены серьезные уязвимости
['siemens', 'электроподстанции', 'информационная безопасность']
Специалисты компании Positive Technologies Илья Карпов и Дмитрий Скляров выявили уязвимости в программном обеспечении Siemens SICAM PAS (Power Automation System), предназначенном для построения...
Специалисты компании Positive Technologies Илья Карпов и Дмитрий Скляров выявили уязвимости в программном обеспечении Siemens SICAM PAS (Power Automation System), предназначенном для построения АСУ ТП в энергетике. Данное ПО используется на подстанциях различных классов напряжения в России, странах Европы и на других континентах. В чем проблема Уязвимости связаны с ненадежным хранением паролей и разглашением чувствительной информации. Наибольшую опасность представляет ошибка безопасности CVE-2016-8567, получившая оценку 9,8 по 10-балльной шкале CVSSv3, что соответствует высокому уровню опасности. Злоумышленники могут удаленно получить привилегированный доступ к базе данных SICAM PAS, используя стандартную возможность дистанционного конфигурирования через TCP-порт 2638 и жестко закодированные пароли в заводских учетных записях. Вторая обнаруженная Positive Technologies уязвимость CVE-2016-8566 с оценкой 7,8 позволяет узнать учетные записи пользователей и восстановить к ним пароли (после получения доступа к базе данных SICAM PAS). Причина — в слабых алгоритмах хеширования паролей. По словам руководителя отдела исследований и аудита промышленных систем управления Positive Technologies Ильи Карпова, критический уровень опасности этих уязвимостей обусловлен возможностью удаленно переконфигурировать SICAM PAS на энергетическом объекте, блокировать работу системы диспетчеризации или вызвать различные аварии, включая системные. Как защититься Производитель подтвердил наличие брешей и выпустил рекомендации по их устранению. Для устранения этих уязвимостей производитель рекомендует обновить SICAM PAS до версии 8.0. Необходимо также заблокировать доступ к портам 19235/TCP и 19234/TCP с помощью, например, брандмауэра Windows, что позволит до выпуска дополнительных патчей закрыть две другие описанные в бюллетене безопасности бреши. Это не первая совместная работа двух компаний в 2016 году. Летом Siemens сообщил о двух уязвимостях CVE-2016-5848 и CVE-2016-5849, обнаруженных также Ильей Карповым и Дмитрием Скляровым. Данные уязвимости получили низкий уровень опасности, так как ими нельзя воспользоваться удаленно (оценка 2,5 по шкале CVSSv3). Для их устранения надо обновить SICAM PAS до версии 8.08. В октябре 2016 года Siemens опубликовал информацию также о двух уязвимостях (CVE-2016-7959 и CVE-2016-7960) в интегрированной среде разработки программного обеспечения SIMATIC STEP 7 (TIA Portal), найденных руководителем отдела анализа приложений Positive Technologies Дмитрием Скляровым. В частности, злоумышленник, имея локальный доступ к проектам SIMATIC STEP 7 и TIA Portal, может разобрать алгоритм скрытия хешей паролей и узнать используемые пароли в проекте для ПЛК Simatic S7. За последние четыре года эксперты Positive Technologies обнаружили и помогли устранить более 200 уязвимостей нулевого дня в АСУ ТП и SCADA-системах Emerson, Honeywell, Schneider Electric, Siemens, Yokogawa и других компаний. В 2016 году Positive Technologies представила PT ISIM — систему управления инцидентами кибербезопасности АСУ ТП, которая выявляет хакерские атаки и помогает в расследовании инцидентов на критически важных объектах.
https://habrahabr.ru/company/pt/blog/318606/
habrahabr
Обзор актуальных 3D-материалов
['3d-печать', '3d-принтер', '3d печать', '3d-принтеры', '3d принтеры', '3d']
Материал в 3D-печати, как и в любой созидательной деятельности, одна из важнейших вещей. От материала зависят не только механические и химические свойства будущего изделия, но и его...
Материал в 3D-печати, как и в любой созидательной деятельности, одна из важнейших вещей. От материала зависят не только механические и химические свойства будущего изделия, но и его эстетическая ценность. Всем, кто занимается 3D-печатью, давно известны такие материалы, как ABS и PLA. Это самые распространенные и используемые, самые известные филаменты с хорошо изученными свойствами. Но далеко не все — есть материалы, которые большинству печатников известны лишь по названиям, а некоторые о них и вовсе не знают. Между тем, у них тоже много полезных свойств, о которых стоит знать, чтобы применить их в случае необходимости. Перед тем, как перейти к основной теме статьи, хотелось бы сказать пару слов в защиту PLA. Многие ошибочно считают, что ABS прочнее и лучше PLA, но это не совсем так. Проведенные недавно испытания пластиков показали, что PLA бьет ABS по всем показателям прочности. Единственное, в чём ABS лучше, это долговечность — PLA биоразлагаемый, а изделия из ABS будут загрязнять планету еще сотни лет после того, как перестанут быть нужны. Вот, теперь вернемся к нашим экзотикам. Цены приведены ориентировочные и их лучше уточнять при покупке. NYLON NYLON отличается высокой прочностью и износостойкостью — именно эти свойства позволили ему давно и прочно занять свои позиции как в производстве волокон для одежды, так и среди промышленных пластиков. Они же привели его и в 3D-печать. Из этого материала печатается широкий спектр всевозможных изделий, от игрушек и предметов быта, до деталей техники, одежды и медицинских ортезов. Примеры филамента с нейлоном:: Taulman 3D Nylon Bridge за 2580 рублей (0,45 кг), Nylon M1 Print Product за 1300 (0,75 кг), Nylon Super Natural U3print за 2500 (0,45 кг). PP Полипропилен, как и нейлон, также давно хорошо известен. Сложно перечислить хотя бы малую часть вещей, которые из него делают. Чем же характерен PP? — это нетоксичный, износостойкий материал, хорошо переносящий контакт с агрессивными средами и имеющий неплохую прочность. Кроме того — он достаточно недорог и очень распространен, что увеличивает его доступность. Из минусов: становится хрупким при температурах ниже минус пяти по цельсию. Плохо переносит прямой солнечный свет. Примеры: PP полипропилен FL-33 стоит 4300 за 1 кг, PP пластик Print Product белый — 1500 рублей за 0,75 кг. FLEX Относительно новый, все еще набирающий популярность промышленный эластомер. Отличается высокими механическими характеристиками. Обладает хорошей износостойкостью и эластичностью. Применяется для изготовления декоративных изделий, защитных покрытий, подошв, и т.д. Хорошее сцепление с поверхностями. Упругость. Износостойкость Долговечность. Применение при температурах от -60 до +80 °С Неплохая спекаемость. Есть и минусы: устойчивость к распространенным реагентам достаточно низкая — применять в контакте с бензином, ацетоном и уксусной кислотой не рекомендуется. На рынке представлены разными производителями выпускающими материалы в различной цветовой гамме и немного отличающихся механических свойств. Например, материал компании REC отличается проверенной экологичностью — он разработан так, чтобы не выделять при печати токсичных газов. Его стоимость 2176 рублей за полкило. Филамент FL-33 характерен своими оригинальными цветовыми решениями. Он стоит 4500. TiTi FLEX SOFT от Print Product , за 1550 рублей (0,5 кг), характерен своей особой мягкостью, а Flex 1,75 от этой же фирмы, за 2300 (0,75 кг), помимо своих выдающихся механических свойств интересен ещё и прозрачностью — из него можно напечатать много красивых объектов с интересными оптическими свойствами. FLEX применяется для печати упругих объектов. Например, можно напечатать небьющийся стаканчик-подставку для карандашей, любой формы — оригинальный подарок коллеге. HIPS HIPS — материал не обладающий какими-то выдающимися механическими свойствами, но он совершенно незаменим при печати двумя и более экструдерам, как материал для создания растворимых поддержек и спаек. Именно благодаря ему существует возможность создавать сколь угодно сложные объекты, особенно такие, где один предмет находится внутри другого. Также широко используется в прототипировании, поскольку хорошо сохраняет при печати заданные размеры — не ползет и не коробится. Качественная передача заданных размеров Растворимость Возможность применения в изделиях контактирующих с пищей Нетоксичность. Выбор материалов типа HIPS тоже достаточно широк: это HIPS FL-33 за 2090 рублей (1 кг), HIPS PrinProduct за 1220 (0,75 кг), HIPS SEM за 1300 (1 кг), HIPS Bestfilament за 1450 (1 кг), HIPS REC за 1606 (0,75 кг) и HIPS ESUN за 2600 (1 кг). GLASSFIL Glassfil — прозрачный термопластик с уникальными свойствами: он пропускает ультрафиолет и рентген, но отражает инфракрасное излучение. От ультрафиолета не разрушается, также устойчив и к влажности, и к бактериальному воздействию. Способен выдерживать низкие и высокие температуры без повреждений. Экологически чист и обладает диэлектрическими свойствами. Также к плюсам относятся: прозрачность или частичная прозрачность материала, устойчивость к ударным нагрузкам и хорошая обрабатываемость. Может применяться для создания изделий предназначенных для медицины, сельского хозяйства, для печати всевозможных бытовых предметов. Примеры материалов такого типа: GLASSFIL Print Product за 1500 рублей (0,75 кг), Ninjaflex за 3500 (1 кг), Zortax Z-Glass за 5700. CERAMIC Материал интересен тем, что содержит натуральные керамические частицы. При печати создается эффект керамической или каменной поверхности. Применяется для печати изделий имитирующих керамику или камень. Примеры такого материала: Print Product CERAMIC стоимостью 1500 рублей (0,75), Filamentarno Pro Ceramo и Pro Ceramo-tex по 2200 за 0,75 кг. Пластик Filamentarno интересен еще и тем, что может использоваться при печати посуды и игрушек — он не содержит токсичных веществ и не имеет запаха, как и все пластики этой фирмы. А Pro Ceramo-tex вспенивается при печати, давая совершенно неотличимую от настоящей необработанной керамики структуру. Похожими на керамику свойствами готовых изделий обладает Laybrick , за 2500 за четверть килограмма, отличающийся тем, что его фактура зависит от температуры и скорости печати — он может быть как шершавым и фактурным, так и глянцевым. Другая его особенность — отсутствие необходимости в подогреве стола, а единственный недостаток — необходимость выждать некоторое время, прежде чем удалять готовую модель, ведь застывает он не сразу (время ожидания, как и фактура изделий из Laybrick, зависит от температурного режима печати). PVA Пластик PVA — создан, чтоб быть растворенным. Как и HIPS, этот материал лучше всего подходит для поддержек и промежуточных структур, которые необходимы во время печати, но должны быть удалены после. Его преимущество перед HIPS — PVA растворяется обычной водой. Это самый подходящий вариант, когда вам надо напечатать сложную деталь, а под рукой нет лимонена. Диаметр нити, мм 1,75 Температура печати 180 — 220 °C Растворяется водой Примеры PVA:: Esun PVA за 2945 (0,5 кг), PVA U3print за 2800 (0,45 кг) и PVA REC за 3800 рублей (0,5 кг). PVD PVD — синтетический полимер с хорошими пластическими и термическими свойствами. По сути — специальным образом обработанный полиэтилен. Легкий, прочный, износостойкий. Не пропускает воду, но легко проницаем для газов. Широко используется при изготовлении упаковочного материала. Вы легко можете распечатать, например, мини-теплицу для комнатного цветка или контейнер для бутербродов, так как он нетоксичен в быту и может контактировать с пищевыми продуктами. Диаметр нити, мм 1,75 Рабочая температура 230°-260° Скорость печати: от 10 мм/с до 70 мм/с Цвет натуральный Пример материала: Print Product PVD , 1550 рублей за 0,75 кг. PETG Материал PETG достаточно прочен. Материал, как правило, прозрачный или полупрозрачный, даже при добавлении красящего пигмента. Имеет красивый глянцевый вид. Из других преимуществ: не имеет запаха, не впитывает влагу, удобен в печати — низкая усадка. Минусы — требователен к температурному режиму печати. Примеры такого материала: PETG Natural U3Print за 1000 рублей (0,45 кг), PETG FL-33 прозрачный за 3990 (1 кг), PETG пластик ESUN за 2300 (1 кг). POM Высокая прочность Температура печати около 210° — 250° (может слегка варьироваться от производителя к производителю) Скорость печати от 10 мм/с до 70 мм/с Не имеет запаха Нетоксичен Полиоксиметилен. Прочностные характеристики материала таковы, что изделия из него применяются в инженерии для замены металлических деталей. Также он биологически нейтрален и может быть использован в медицине и пищевой промышленности. Примеры филамента: FL-33 инженерный POM за 3610 рублей за килограмм, POM Натуральный за 2800 за 0,75 кг. PC PC — поликарбонат. Изделия из PC обладают высокой прочностью к ударным нагрузкам и выдерживают кратковременный нагрев до 153 градусов, а нормально функционировать могут в диапазоне от -100 до +115 градусов цельсия. Печатается при температуре 230 — 280 градусов цельсия Застывает при 130 градусах Температура стола желательно 100 градусов Примеры филамента с PC: PC поликарбонат SEM за 1700 рублей и PC поликарбонат FL-33 за 4180 — прозрачные, и PC поликарбонат FL-33 черный — с добавлением красителя, 4180 за 1 кг. WOOD Керамика в нашем обзоре уже была, теперь очередь не менее интересного материала — дерева. Именно дерево содержится в данном филаменте и дарит ему свою фактуру и цвет, тактильные характеристики и тепло. Даже запах. Как и любая древесина, изделия из этого материала весьма гигроскопичны, то есть — впитывают много влаги. Применяется для создания оригинальных изделий имитирующих дерево и обладающих, во многом, его свойствами. Диаметр нити, мм 1,75 Рабочая температура 190°-220° Скорость печати от 10 мм/с до 70 мм/с Примеры материалов: COOL WOOD за 3500 рублей (0,75 кг), Colorfabb WoodFill за 4800 (0,75 кг), Laywood Fl-33 светлое дерево за 4703 (1 кг) и Laywoo-d3 за 2500 (0,25 кг). ANTISTATIC ABS Antistatic — почти обычный ABS, но тоже с сюрпризом, как и остальные материалы в обзоре. Как можно догадаться из названия, в состав этого филамента включены антистатические вещества, помогающие избавиться от статики, свойственной большинству материалов для 3D-печати. Применяется для создания деталей и корпусов электроники, где статические разряды совершенно неуместны, упаковки для хранения микросхем и других чувствительных компонентов, ковриков для точной измерительной аппаратуры и т.д. Также находит применение в индустрии моды, при печати тканей. Диаметр нити, мм 1,75 Температура платформы 100 °C Температура экструдера 210 — 240 °C Пример материала: ABS ANTISTATIC за 1600 рублей (0,75 кг). GLOW Материал накапливает свет, а в темноте постепенно отдает его. Время свечения изделий из такого филамента — до 14 часов. Может применяться для изготовления игрушек, оригинальных сувениров, приборных панелей и циферблатов, корпусов и кнопок выключателей, а также многого другого. Температура экструдера зависит от конкретного филамента Технология печати FDM Цвета разные Примеры таких пластиков: PLA Lumi за 1990 рублей (0,75 кг), ABS FL-33 за 1995 (1 кг), ABS пластик ESUN светящийся за 2200 (1 кг) и PLA MakerBot светящийся в темноте за 5900 (1 кг). METALLIC Материалы содержащие в себе частицы металла и имитирующие созданные из него вещи. Внешне, по весу и на ощупь получается очень похоже. Изделия из этих материалов легко обрабатываются и полируются, принимая вид настоящих металлических вещей. Примеры таких материалов: Bronze ESUN за 2300 рублей (0,5 кг), Colorfabb Bronzefill за 3900 (0,75 кг), Bestfilament Bronze . COLORFUL Если вам надоели однообразные, как в детском наборе фломастеров, цвета филаментов, то пора переходить на взрослую палитру. Для удобства можно выбрать одного производителя, обладающего таким ассортиментом, чтоб не перенастраивать каждый раз печать и иметь стабильный результат. Например, среди продукции компании Filamentarno есть множество красивых пластиков разных оттенков. Ещё одно преимущество продукции этой компании перед многими другими (и в этом Filamentarno единомышленники компании REC) — безопасность всех материалов, все они могут безвредно контактировать с пищей, а значит — пригодны для изготовления пищевой посуды и детских игрушек. Примеры пластиков: Бутылочно-зеленый , Бутылочно-оливковый , Бутылочно-коричневый , Желтый , Оранжевый , Красный . Это не все, там их десятки. Пластики этой линейки стоят по 1200 рублей за 0,75 кг. Это далеко не полный перечень актуальных современных материалов, лишь малая их часть, но — нельзя объять необъятное. Однако у нас запланированы обзоры и по другим сегментам этой области. Следите за обновлениями. Хотите больше интересных новостей из мира 3D-технологий? Подписывайтесь на нас в соц. сетях:
https://geektimes.ru/company/top3dshop/blog/284132/
habrahabr
Российские ритейлеры пожаловались на Visa и MasterCard в ФАС
['Ритейлеры', 'РАТЭК', 'Visa', 'MasterCard', 'платежные системы', 'эквайринг', 'комиссия', 'бизнес', 'платежи', 'безналичные платежи']
Крупнейшие российские ритейлеры в лице Ассоциации торговых компаний и товаропроизводителей электробытовой и компьютерной техники (РАТЭК) пожаловались на платежные системы Visa и MasterCard в...
Крупнейшие российские ритейлеры в лице Ассоциации торговых компаний и товаропроизводителей электробытовой и компьютерной техники (РАТЭК) пожаловались на платежные системы Visa и MasterCard в Федеральную антимонопольную службу, сообщает ТАСС . Причиной жалобы стала высокая, по мнению ритейлеров, стоимость эквайринга , а именно завышенная ставка межбанковской комиссии. К жалобе присоединились такие организации как «Опора России», АКОРТ и АКИТ. Комиссия платежных систем за безналичные платежи по пластиковым картам составляет от 1,4% для самых крупных организаций до 2% для всех остальных. Для платежей, проводимых в сети Интернет, комиссия повышается до 1,6-3,5% за операцию. При этом на безналичные операции посредством пластиковых карт приходится 29% всех платежей, совершаемых в РФ. Ритейлеры утверждают, что позиция платежных систем Visa и MasterCard сдерживает повсеместное внедрение безналичных платежей и, соответственно, обеление денежных потоков. Минимальную комиссию в 1,4-1,6% могут получить только компании с многомиллиардными оборотами, остальные же работают по ставке 2-3,5%. По мнению РАТЭК, от подобной политики Visa и MasterCard страдают, в первую очередь, интернет-магазины и малый бизнес, для которых комиссия платежных систем выше. При этом тарифы на обслуживание могут отличаться для одной и той же банковской карты в зависимости от типа реализуемой продукции. «При оплате простой дебетовой картой с чипом Masterсard продовольственных товаров межбанковская комиссия составляет 1,3%, при оплате бензина — 1,2%, при оплате услуг турагентств 1%. Самые высокие тарифы установлены для ритейлеров, реализующих непродовольственные товары. Так, при оплате одежды, бытовой техники или электроники межбанковская комиссия составляет 1,6%», — указывается в жалобе РАТЭК. Как аргумент приводится подход к ценообразованию за эквайринг в странах Европы и в Австралии. Там ставка комиссии составляет 0,2% при обслуживании дебетовых карт и 0,3% для кредитных. В конце ноября сообщалось, что ФАС проверит ценообразование на эквайринг со стороны Visa и MasterCard, как доминирующих на рынке организаций. Причиной для этого стало заявление организации «Опора России», которая указала на неприемлемо высокую ставку на эквайринг для малого бизнеса в размере 2,5%. В РАТЭК входят такие российские ритейлеры как «М.Видео», «Эльдорадо» и Медиа-Маркт-Сатурн, а также крупные технологические компании в лице Google, Samsung, Apple и Intel. Всего членами РАТЭК является около 60 организаций.
https://geektimes.ru/post/284138/
habrahabr
JetBrains Night в Москве. Видео. Применение ReSharper в командах .NET-разработчиков
['настройка', 'ReSharper', 'C#', '.NET']
29 сентября в Москве прошла мини-конференция JetBrains Night: 7 часов разработчики из JetBrains рассказывали о том, что компания делает, зачем, и что будет делать дальше, а потом отвечали на...
29 сентября в Москве прошла мини-конференция JetBrains Night: 7 часов разработчики из JetBrains рассказывали о том, что компания делает, зачем, и что будет делать дальше, а потом отвечали на вопросы, обсуждали общие проблемы и слушали, как разработчики из других компаний рассказывают им о том, что они делают и почему им удобно или пока еще не очень удобно делать это с помощью того, что делает JetBrains. На Хабре мы публикуем видео всех докладов, чтобы можно было в комментариях обсудить то, что не успели обсудить на JetBrains Night, особенно с теми, кто не смог приехать лично. Предыдущие доклады можно посмотреть в прошлых публикациях , а сегодня мы публикуем видео доклада Размика Сейсяна об использовании ReSharper для того, чтобы разрабатывать на C# в командах. Итак, лучшие практики настройки Resharper для команд:
https://habrahabr.ru/company/JetBrains/blog/318608/
habrahabr
Видео-курс «Основы HTML» — в помощь преподавателю информатики
['html', 'html-вёрска', 'html5', 'html-разметка', 'html-тэги']
Мы сняли видео-курс «Основы HTML». Он простой и увлекательный, включает раздел теории и довольно прикольной практики (про это ниже). Перед тем, как объяснять тонкости языка разметки гипертекста,...
Мы сняли видео-курс «Основы HTML» . Он простой и увлекательный, включает раздел теории и довольно прикольной практики (про это ниже). Перед тем, как объяснять тонкости языка разметки гипертекста, новичкам нужно сначала объяснить, что такое гипертекст и чем он отличается от обычного текста. В общем-то, гипертекст как идею придумали в 1960х, а сегодня даже трёхлетние дети не задумываюсь клацают по ссылкам на iPad. Смело можно сказать, что гипертекст — это будущее сегодня. Вот одно из первых видео курса по HTML: Курс состоит из 2 больших разделов — в первом рассказывается, что такое теги и какие они вообще бывают: форматирование текста, картинки, таблицы и формы. А также, что такое «валидность» документа, как это проверить и главное зачем. Даже на HTML-entities отведено одно занятие. Во второй половине курса идёт практика: Создание подстраниц; Просмотр пароля под звёздочками; Вставки HTML-кода видео с YouTube себе на сайт; Вставка Mailchimp-форм для сбора контактов будущих клиентов. Курс активно используют учителя информатики, чтобы сэкономить время на объяснениях — тогда на уроках\парах можно сосредоточиться на практических занятиях.
https://habrahabr.ru/company/yasno_tv/blog/318610/
habrahabr
Интермодуляционные искажения в усилителях звуковой частоты и ООС — осторожно, опасные связи
['УНЧ', 'Интермодуляционные искажения', 'УМЗЧ', 'ООС', 'эффект клиппирования УНЧ']
На аудиофильских сайтах принято пугать посетителей интермодуляционными искажениями, однако поскольку большинство публикаций на эту тему широко использую технологию копипаста, понять почему эти...
На аудиофильских сайтах принято пугать посетителей интермодуляционными искажениями, однако поскольку большинство публикаций на эту тему широко использую технологию копипаста, понять почему эти искажения возникают и чем так страшны очень сложно. Сегодня я постараюсь в меру своих способностей и объёма статьи отразить именно природу этих стрРрашных ИМИ. Тема искажений сигнала в УМЗЧ была поднята в моей предыдущей статье , но в прошлый раз мы лишь слегка коснулись линейных и нелинейных искажений. Сегодня попробуем разобраться в наиболее неприятных на слух, трудноуловимых для анализа и сложноустранимых для проектировщиков УНЧ интермодуляционных искажениях. Причинах их возникновения и взаимосвязи с обратной связью сорри за каламбур . Краткое содержание статьи: Операционный усилитель как белый треугольник Обратная связь просто и сердито — панацея от всех бед? Что русскому хорошо, то немцу — смерть или немного радиотехники ИМИ (IMD) — интермодуляционные искажения Тёмная сторона обратной связи Экскурсия в реальный мир. Общая отрицательная обратная связь в усилителе мощности звуковой частоты Динамические интермодуляционные искажения TIM. Перегрузочная способность и эффект “клиппирования” усилителя Методики измерения интермодуляционных искажений С наступающим Новым Годом! Операционный усилитель как белый треугольник Прежде чем говорить об обратной связи, сделаем небольшой экскурс в операционные усилители ОУ , поскольку сегодня транзисторные усилительные тракты без них практически не обходятся. Они могут присутствовать как в виде отдельных микросхем, так и входить в состав более сложных чипов — например интегральных усилителей низкой частоты — УНЧ . Рассмотрим усилитель в виде чёрного ящика вернее белого треугольника, как их принято обозначать в схемотехнике , пока не вдаваясь в подробности его устройства. Назначение выводов операционного усилителя Неинвертирующий вход: Инвертирующий вход: Плюс источника питания: Минус источника питания: Если увеличить входное напряжение на неинвертирующем входе, то напряжение на выходе вырастет, если на инвертирующем, то наоборот уменьшится. Обычно входное напряжение, которое необходимо усилить, подают между двумя входами и тогда выходное напряжение можно выразить следующим образом: Где — коэффициент усиления с разомкнутой петлёй обратной связи Поскольку наша цель не усиление постоянных напряжений, а звуковых колебаний давайте для примера рассмотрим зависимость недорогого ОУ LM324 от частоты входных синусоидальных колебаний. На данном графике по вертикали отложено усиление, а по горизонтали частота в логарифмическом масштабе. Результаты работы инженеров не слишком впечатляют и применить подобный усилитель в реальности вряд ли получится. Во первых, он показывает хорошую линейность лишь за пределами частотного диапазона воспринимаемого ухом — ниже 10 Гц, во вторых, его коэффициент усиления слишком большой — 10 000 раз на постоянном токе! Так что же делать, должен же быть выход! Да, он есть. Взять часть выходного сигнала и подать его на инвертирующий вход — ввести обратную связь. Обратная связь — просто и сердито! Панацея от всех бед? В данной статье не будем касаться основ теории операционных усилителей, при желании в интернете можно найти много информации на эту тему, например в цикле статей Игоря Петрова KriegeR Ввести обратную связь в схему усилителя не просто, а очень просто. Давайте чтобы далеко не ходить рассмотрим как это можно сделать на примере из моей прошлой статьи про маленькие хитрости трассировки схем на Операционных усилителях . Обратная связь в данной схеме подаётся на инвертирующий вход ОУ через резистор R2, точнее делитель напряжения из R2 и R1. Нетрудно доказать что в данная схема будет иметь коэффициент усиления по напряжению равный двум, причём он будет неизменен при усилении гармонических сигналов в очень широком частотном диапазоне. С увеличением частоты сигнала коэффициент усиления ОУ без ОС падает но остаётся многократно больше двух и это падение компенсируется автоматическим уменьшением уровня сигнала обратной связи. В результате коэффициент усиления схемы в целом остаётся неизменным. Но и это ещё не всё. Данная схема имеет очень высокое входное сопротивление, а значит практически не оказывает влияние на источник сигнала. Она также имеет весьма низкое выходное сопротивление, а значит по идее, должна сохранять форму сигнала даже при работе на достаточно низкоомную нагрузку, причём с комплексным сопротивлением — индуктивную и ёмкостную. Неужели мы вот так просто получили ИДЕАЛЬНЫЙ УСИЛИТЕЛЬ? К сожалению нет, как любая монета имеет орла и решку, так и обратная связь свою тёмную сторону. Что русскому хорошо, то немцу — смерть или немного радиотехники В радиотехнике хорошо известен эффект взаимодействия сигналов двух различных частот, поданных на нелинейный элемент, называемый интермодуляцией . В результате получается сложный сигнал с комбинациями частот (гармоник), зависящих от частоты исходных сигналов f1 и f2 согласно следующей формуле: Полученные частоты по амплитуде меньше родительских гармоник и как правило их уровень быстро убывает с увеличением целочисленных коэффициентов m и n. Наибольшую амплитуду будут иметь гармоники, называемые гармониками второго порядка с частотами: и частотами гармоник третьего порядка : В радиотехнике этот эффект широко используют для преобразования частот. Благодаря ему работают современные приёмники. Преобразование частоты происходит в смесителях, построенных на основе нелинейных элементов в качестве которых часто используют p-n переход диода, ну или транзистора. На смеситель одновременно поступает принимаемый полезный сигнал и сигнал от генератора — гетеродина. На выходе мы получаем широкий спектр сигналов: Но благодаря узкополосному фильтру ФПЧ выделяем нужный нам сигнал с промежуточной частотой f пр =f г -f с и усиливаем его в усилителе ПЧ. Затем происходит детектирование с помощью следующего нелинейного элемента, обычно диода и на выходе после фильтра низких частот на рисунке не изображён мы получаем сигнал звуковой частоты. ИМИ (IMD) — интермодуляционные искажения Однако, если для приёмников эффект интермодуляции жизненно необходим, в усилителях низкой частоты он вызывает возникновение нелинейных искажений, которые так и называют интермодуляционными. Ведь звуковой сигнал одновременно содержит гармоники большого количества частот, сильно отличающихся по амплитуде, а транзисторы, из которых состоит усилитель, как и диоды являются нелинейными элементами. Искажения, которые появляются благодаря описанному выше механизму, в англоязычных источниках именуют intermodulation distortion сокращённо IMD , кстати российское сокращение для них ИМИ . Данный тип искажений гораздо неприятнее на слух, чем банальное амплитудное ограничение сигнала, источник их появления в каждом конкретном случае гораздо сложнее обнаружить, а главное устранить. Борются с данным эффектом применяя более совершенные транзисторы, работающие в линейном режиме и с помощью местной в пределах одного каскада усиления или глубокой общей обратной связи — мастере на все руки! Однако всё хорошо в меру — если частоты паразитных гармоник сигнала лежат в области быстрого спада АЧХ усилителя, то обратная связь может не успеть компенсировать искажение сигнала и даже сама послужить источником дополнительных искажений. Пора нам наконец заняться исследованием тёмной стороны обратной связи Тёмная сторона обратной связи Для того, чтобы её обнаружить соберём усилитель по представленной выше схеме на ОУ LM324, но с немного другими номиналами резисторов обратной связи так, чтобы получить единичное усиление. А теперь подадим на его вход прямоугольный импульс малой амплитуды, каких нибудь 100 милливольт. Tо, что мы получили на выходе выглядит совсем не похоже на входной сигнал. Что же случилось и почему нам не помогла обратная связь? Как всегда виновата физика, её мир гораздо сложнее чем наши математические модели, основанные на грубых приближениях. Дело в том, что наш усилитель — весьма сложное устройство. Он содержит массу паразитных ёмкостей, расположенных как внутри интегральных транзисторов, его составляющих, так и в межкаскадных связях. Природа паразитных ёмкостей очень разная, например обусловленная временем рассасывания неосновных носителей заряда в полупроводнике. Сами транзисторы, на которых построен наш ОУ, являются усилительными приборами с большой нелинейностью. Более того, свою ёмкость имеют и элементы печатной платы, особенно если при трассировке не учитывались рекомендации, изложенные в моей предыдущей статье . В момент прихода отрицательного фронта сигнала обратная связь обнаруживает что напряжение на входе не соответствует выходному. Она резко увеличивает потенциал инвертирующего входа относительно неинвертирующего, чтобы как можно быстрее передать скачок напряжения на входе усилителя, но не успевает этого сделать поскольку ей необходимо сначала зарядить паразитные ёмкости всего тракта усиления и мы получаем завал фронта сигнала на выходе. Далее, когда входной сигнал так же резко перестаёт меняться обратная связь вынуждена эти ёмкости разряжать. Как следствие мы получаем выброс на выходе, в дальнейшем переходящий в затухающий колебательный процесс. В особо печальных случаях этот колебательный процесс может затянуться на достаточно долгое время — усилитель перейдёт в состояние самовозбуждения. В итоге в сигнале на выходе усилителя появляются новые гармоники не присутствующие на входе — нелинейные искажения. Экскурсия в реальный мир. Общая отрицательная обратная связь в усилителе мощности звуковой частоты Нелинейность, присущая транзисторным каскадам, вынуждает разработчиков использовать сильную отрицательную обратную связь как простейшее решение для подгонки параметров усилителя под соответствия требованиям по низкому уровню гармонических и интермодуляционных искажений разумеется измеренных по стандартным методикам . В результате промышленные усилители мощности, имеющие глубину ООС в 60 и даже 100 дБ, на сегодняшний день не являются редкостью. Изобразим реальную схему несложного транзисторного усилителя мощности. Можно сказать что он является трёхкаскадным. Первый усилительный каскад на ОУ А1, второй на транзисторах T1-T2 и третий также транзисторный Т3 -Т4. При этом усилитель охвачен цепью общей обратной связи она выделена красным контуром , которая подаётся через резистор R6 на неинвертирующий вход ОУ. Ключевое слово здесь общей — обратная связь тут подаётся не с выхода ОУ на его вход, а с выхода всего усилителя. В результате ОУ благодаря своему огромному усилению должен помогать справляться с разными родами нелинейностями и помехами транзисторным усилительным каскадам. Перечислим ниже основные из них: транзисторы в подобном включении могут работают в весьма нелинейном режиме при переходе сигнала через ноль и для слабых сигналов; на выходе усилитель нагружен на комплексную нагрузку — акустическую систему. На схеме показан её эквивалент — сопротивление R15 и индуктивность L1; Транзисторы работают в тяжёлом тепловом режиме и температура их корпуса существенно зависит от выходной мощности, а от температуры сильно зависят их параметры; Ёмкости монтажа и различного рода наводки могут иметь приличное значение и ошибки трассировки легко могут привести к возникновению положительной обратной связи и самовозбуждению усилителя; Значительно возрастает роль помех, наводимых по питанию; И ОУ помогает, но как дурак молящейся богу из известного афоризма порой уж слишком усердно. Появляются проблемы с перегрузочной способностью отдельных каскадов, транзисторы которых попадают в режим ограничения сигнала. Они выходят из линейного разумеется сравнительно линейного режима в режимы отсечки или насыщения. Выходят очень быстро, а возвращаются в него гораздо медленней, что обусловлено неторопливым процессом рассасывания неосновных источников заряда в полупроводниковых переходах. Рассмотрим подробнее данный процесс и его последствия. Динамические интермодуляционные искажения TIM. Перегрузочная способность и эффект “клиппирования” усилителя Перегрузочная способность усилителя это параметр, который описывает на сколько децибел номинальное выходное напряжение или мощность отличается от максимальной, когда начинаются ограничения выходного сигнала по питанию — clipping У транзисторных усилителей перегрузочная способность невелика, особенно у оконечных и предоконечных каскадов. Номинальная мощность от максимальной часто отличается всего процентов на 40, это меньше чем 3 дБ. Представим что наш усилитель состоит из идеального предусилителя корректора и УМЗЧ охваченного обратной связью с коэффициентом B. Важно отметить, что сигнал V 1 может содержать составляющие очень высокой частоты. Предусилитель C действует как фильтр НЧ, выдавая входной сигнал V 2 для усилителя A, содержащий только составляющие, попадающие в звуковую полосу частот. Напряжение на входе усилителя мощности V 2 имеет время нарастания, определяемое предусилителем, на графике видно что оно сглажено. Тем не менее, в напряжении V 3 , действующем на выходе сумматора, присутствует выброс, вызванный стремлением обратной связи компенсировать малое быстродействие усилителя мощности A с амплитудой V max Выброс в сигнале V 3 может в сотни и даже тысячи раз превосходить по амплитуде номинальный уровень входного сигнала. Он может в значительной степени превысить динамический диапазон усилителя. Во время такой перегрузки усиление других сигналов, присутствующих на входе уменьшается, вызывая мгновенный всплеск интермодуляционных искажений. Этот всплеск называется динамическими интермодуляционными искажениями TID , потому что приводит к влиянию одного сигнала на амплитуду другого интермодуляция , и зависит от временной и амплитудной характеристик входного сигнала сильнее, чем просто от амплитудной характеристики, как в случае простых интермодуляционных искажений. В показанной схеме наибольший коэффициент усиления по напряжению имеет ОУ, тем не менее он имеет неплохую перегрузочную способность — сохраняет небольшие нелинейные искажения при размахе напряжения на выходе близком к напряжению питания. Гораздо хуже дело обстоит с каскадом на транзисторах T1 и T2 — это усилители тока, которые достаточно просто вывести из нормального режима работы, а для его восстановления может потребоваться сравнительно большое время. Выбросы напряжения обратной связи усиленные ОУ и поданные на вход этих транзисторов могут иметь очень большие значения. Они приводят к перегрузке второго каскада усиления. Т1 и Т2 могут войти в режим насыщения, потерять свои усилительные свойства, причём оставаться в нём некоторое время даже после пропадания резкого фронта входного сигнала, пока не рассосётся заряд на разного рода паразитных ёмкостях. Паразитные ёмкости и возможные элементы коррекции АЧХ тут показаны с помощью элементов R и С. Выше показан график крайне неприятного эффекта, который называют “клиппированием” усилителя и он является порождением обратной связи. На выходе А1 мы получаем в результате эффект ограничения по амплитуде, а на выходе усилителя искажённый сигнал. Методики измерения интермодуляционных искажений и методы борьбы с ними Согласно стандартной методике для измерения интермодуляционных искажений на вход изме­ряемого объекта одновременно подаются два сигнала: низкой f 1 и высокой f 2 частот. К сожалению, в различных странах пользу­ются различными измерительными частотами. Разные стандарты предусматривают разные частоты — 100 и 5000 Гц, 50 и 1000 Гц… Наиболее употребительным является использование частот 400 и 4000 Гц, утвержденных в стандарте DIN 45403, ГОСТ 16122-88 и МЭК 60268-5. Амплитуда сигнала частотой f 1 на 12 дБ в 4 раза больше, чем амплитуда сигнала частотой f 2 . В зависимости от нелинейности характеристики, в рабочей точке симметрично относительно частоты f 2 образуются разностные и сум­марные комбинационные колебания f 2 ± f 1 , и f 2 ± 2f 1 более высоких порядков. Возникающие комбинационные колебания второго поряд­ка с частотами f 2 ± f 1 характеризуют квадратичные, а третьего по­рядка с частотами f 2 ± 2f 1 — кубические искажения объекта изме­рения. Также широко используется пара частот 19 и 20 КГц c равным уровнем сигнала, удобная прежде всего тем, что основной гармоникой, которая попадает в звуковой диапазон, в данном случае является сигнал с частотой 1КГц, уровень которого легко измерить. Для подачи измерительных сигналов применяют не только генераторы, но и специально записанные в студии измерительные CD диски и даже виниловые пластинки. Лет 30 назад для измерения коэффициента интермодуляцнонных искажений требовались сложные и дорогие приборы, доступные только в лабораториях и студиях, вот например состав измерительного стенда для усилителя звукоснимателя: Проигрыватель виниловых пластинок; Измерительная пластинка; Звукосниматель; Корректирующий усилитель; Полосовой фильтр; Линейный детектор; Фильтр низких частот. Ну и конечно V — вольтметр, умеющий измерять действующее значение синусоидальных колебаний! Сегодня гораздо лучшее качество измерений может обеспечить даже простенькая 16 битная компьютерная музыкальная карта с ценой до 30 долларов в комплекте со специальной измерительной программой и несложными цепями согласования. Описанные стандарты очень удобны для производителей звуковоспроизводящей аппаратуры без особого труда можно получить красивые маленькие цифры в паспортных данных , но не слишком хорошо отражают реальное качество усилительного тракта. Результатом конечно является развитие субьективизма — когда два усилителя или даже недешёвых аудиокарты , имеющих формально практически одинаковые параметры, на сложном музыкальном сигнале «звучат» совершенно по разному — без прослушивания перед покупкой не обойтись. Любители энтузиасты качественного звука и отдельные фирмы производители аппаратуры высокого класса пытаются продвигать свои методики измерений, основанные на менее оторванных от реальности приближениях. Существуют мультичастотные методики, методики исследующие взаимодействие гармонической частоты и единичного импульса, на основе шумовых сигналов и другие. Однако в этот раз обсудить их подробно мы уже не успеем. На методах борьбы с интермодуляционными искажениями мы остановимся также очень кратко: Подгонка схемотехники с целью получения хороших результатов для стандартных методик измерения; Частотно — зависимая обратная связь и цепи частотной коррекции цепочки R5,C3 и R14,C8 на картинке в этой статье ; Применение цепочек местной обратной связи, охватывающей один — два каскада усиления; Введение транзисторов в линейный режим. На нашей картинке усилителя за это отвечают диоды D1,D2 и подстроечный резистор R8. Однако эта мера чревата увеличением энергопотребления, особенно выходных каскадов; Использование качественных и соответственно дорогих компонентов; Ну и наконец, самый радикальный — использование ламп вместо транзисторов, как более линейных элементов. Впрочем, это отдельная большая и неоднозначная тема, достойная отдельной статьи... Пожалуй, это последняя моя статья в этом году, пользуясь случаем хочу поздравить всех моих читателей с Новым Годом и пожелать счастья и удачи в наступающем!
https://geektimes.ru/post/284056/
habrahabr
Десять вакансий в IT, на которые труднее всего найти людей
['работа', 'вакансии']
Головокружительная гонка за технологическими инновациями в эру цифровых преобразований делает сложными для компаний поиски талантливых людей с нужной смесью прекрасного опыта и умений. Но, по...
Головокружительная гонка за технологическими инновациями в эру цифровых преобразований делает сложными для компаний поиски талантливых людей с нужной смесью прекрасного опыта и умений. Но, по словам директора фирмы Burning Glass , изучающей рынок труда, Мэтта Сигельмана [Matt Sigelman], ещё сложнее найти человека, личные качества и лидерские навыки которого соответствуют его техническим навыкам. «В IT, большинство людей уровня среднего и высшего менеджмента добились своего места из-за своих технических навыков, а не из-за личных качеств или управленческого таланта. Это значит, что некоторые вакансии очень сложно заполнить, поскольку они требуют технической смекалки, особого опыта и навыков руководителя. Если вы требуете, чтобы кандидат сидел разом на двух стульях – технология и управление – вы усложняете задачу заполнения вакансий, поскольку количество потенциальных кандидатов сразу уменьшается», говорит Сигельман. На основе исследования компании Burning Glass 40 000 вакансий, размещённых на сайтах с августа 2015 до сентября 2016, был построен список самых труднозаполняемых вакансий, и приведено среднее количество дней, требуемое на поиски нужного сотрудника. 1. Технический менеджер/директор Время на заполнение: 107 дней Технический менеджер отвечает за управление и за технические процессы в IT-отделе, а также за управление персоналом и за интервью с кандидатами. 2. SAP-менеджер Время на заполнение: 64 дня Отвечает за реализацию и интеграцию SAP-решений в организации. У него, кроме прочего, должен быть опыт работы и с ПО SAP Solution Manager, чтобы быть уверенным в эффективной и рациональной работе SAP-решений в организации. 3. Системный аналитик Время на заполнение: 63 дня Специализируется на анализе, разработке и внедрении информационных систем и IT-решений у бизнес-клиентов. Настраивает новые компьютерные системы, как железо, так и ПО, а также может внедрять новые приложения для увеличения продуктивности. 4. Java-архитектор Время на заполнение: 63 дня Определяет, интегрирует, обновляет и поддерживает инфраструктуру и приложения в компании, необходимые для поддержки приложений на базе Java. Это включает всё, от ПО для интернет-магазинов до программ управления финансами и веб-приложений. 5. Разработчик Salesforce CRM Время на заполнение: 54 дня По словам Сигельмана, платформа Salesforce CRM становится скрепой сегодняшнего цифрового бизнеса, и такие вакансии требуют хорошего знания основ бизнеса, стоящих за этой системой, и опыта в её интегрировании и использовании. «Во многих индустриях есть большой спрос на опыт работы с Salesforce, что говорит об универсальности платформы», говорит Сигельман. 6. Архитектор баз данных Время на заполнение: 54 дня Занимается разработкой, созданием, внедрением и управлением архитектуры данных организации. От него требуется оценка источников данных компании, как внутренних, так и внешних, и разработка, создание и управление инфраструктурой данных, хранящей и анализирующей эти данные. 7. Консультант по кибербезопасности Время на заполнение: 53 дня Анализирует работу с безопасностью в организации, возможные вектора атаки, и затем даёт советы и наставления директорам о том, как лучше защитить себя от угроз. Это может включать железо, ПО, сетевую безопасность и безопасность приложений. 8. Разработчик встроенного ПО Время на заполнение: 52 дня С увеличением популярности интернета вещей, разработчики встроенных решений требуются всё чаще, и их не хватает. По словам Сигельмана, «В производстве, здравоохранении и в работе с клиентами разработчики встроенного ПО играют критическую роль. Они помогают изменять существующие системы для работы с новыми приложениями, или создавать новые приложения с нуля». 9. Менеджер данных Время на заполнение: 51 день Помогает компании организовать, хранить и анализировать данные, концентрируясь на безопасности и приватности. Должен обладать обширными знаниями в управлении сложными данными, а также рабочими навыками по архитектуре данных и передовым опытом в обеспечении безопасности данных. 10. Инженер по системной интеграции Время на заполнение: 51 день Специалист по объединению различных вычислительных систем или приложений для их беспроблемной совместной работы. Должен владеть знаниями об основах ПО, сетей, безопасности и управлении бизнес-процессами.
https://habrahabr.ru/post/318612/
habrahabr
Мнения: правда ли, что аппараты для ультразвукового исследования неоправданно дорогие?
['узи', 'ультразвук', 'ультразвуковое исследование']
В первой части статьи приведён пост с сайта Medium, где по поводу УЗИ высказывает своё мнение разработчик ПО и блогер Грэхем Дженсон [Graham Jenson]. Во второй части с этим мнением спорит автор...
В первой части статьи приведён пост с сайта Medium , где по поводу УЗИ высказывает своё мнение разработчик ПО и блогер Грэхем Дженсон [Graham Jenson]. Во второй части с этим мнением спорит автор блога «Ложь, наглая ложь и реклама стартапов» [Lies, Damn Lies, and Startup PR] инженер Пол Рейнольдс [Paul Reynolds], имеющий большой опыт разработки и создания этих устройств. Он написал опровергающий пост , а потом в ещё одном посте ответил на вопросы, возникшие у его читателей. Почему аппараты для УЗИ такие дорогие (Грэхем Дженсон) Назовите технологию, более полезную, дающую больше знаний, более интересную и более дорогую, чем аппарат для ультразвукового исследования. Он может заглядывать внутрь живых существ без мощных магнитов и рентгена, а сделан он, по сути, из динамика и микрофона, выдающего на экран результаты. Почему УЗИ нет в каждом классе биологии в каждой школе, чтобы там можно было посмотреть, как работают мускулы и бьётся сердце? Почему УЗИ нет под рукой у докторов наряду со стетоскопом и градусником? Почему я не могу купить себе такой аппарат, просто чтобы следить за тем, как заживают мои травмы? Наверно, потому что недорогими считаются аппараты стоимостью £20 000 ($30 000) . После того, как я отдал за визит к доктору со своей повреждённой ногой $200, и меня обследовали на аппарате для УЗИ размером со шкаф и выглядевшим, как телевизор 50-х годов, я заинтересовался, за какие деньги можно купить такой аппарат себе. Найдя «дешёвый» аппарат за $8 000, я не смог связать стоимость с технологией, простотой и полезностью такого инструмента. Поэтому я провёл небольшое исследование. Измерительный преобразователь Измерительный преобразователь [transducer] – это керамика с двумя кусочками металла по бокам. Если сжать преобразователь, он выдаёт электрический ток. Если пустить ток по контактам, он двигает преобразователь. Для УЗИ требуется чуть больше десятка преобразователей, работающих на мегагерцовой частоте. Для достижения необходимого разрешения из них нужно собрать массив. Для таких целей чаще всего используют цирконат-титанат свинца, или ЦТС . При подаче тока на преобразователь он расширяется, обратный ток заставляет его сжиматься, а если делать так периодически, то вы получите волну, длина которой будет примерно в два раза больше его толщины. Поскольку скорость звука в керамике составляет 3200 м/с , а у волны в 5 МГц длина составит 0,64 мм , поэтому толщина ЦТС должна быть в районе 0,32 мм. Это довольно мало. Изготовление преобразователей с требуемой точностью – вот, по-видимому, причина высокой стоимости УЗИ, поскольку к каждому преобразователю предъявляются строгие требования, а для УЗИ их требуется много. Они стоят дорого, и так как их требуется 20 штук, они быстро увеличивают стоимость аппарата. Самые дешёвые ЦТС-преобразователи мегагерцового диапазона, найденные мною, стоят по $12 за штуку . Значит, УЗИ с 20 преобразователями должен стоить более $200, а массив 40х40 ЦТС для получения трёхмерных изображений должен стоить уже $19 200. Чтобы уменьшить их стоимость, можно попробовать сделать преобразователь самостоятельно. Можно ли это сделать своими руками? Вот несколько ресурсов, посвящённых этому вопросу: • Человек сам делает преобразователи из титаната бария . • Люди пробуют распечатывать интегральные схемы в домашних условиях . • Диссертация на тему создания ЦТС-плёнов . • Способ сделать «недорогой ЦТС-массив высокой плотности». • Описание изготовления гибкого ЦТС-массива . • Массив из 64 элементов на 35 МГц для получения изображений высокого разрешения . Один из способов производства ЦТС-массива – использование метода нарезки и заполнения . Можно изготавливать отдельные преобразователи, опуская ЦТС в этанол и затем распыляя это на металл. После испарения этанола на металле останется тонкая плёнка ЦТС. Но это потребует специального оборудования, и для постройки массива наверно будет проще найти лабораторию или производителя с опытом – но это уже не так интересно. Железо и софт Компьютер, способный работать с мегагерцовым преобразователем сегодня стоит мало – к примеру, GPIO-контакты на Raspberry Pi могут это делать. Экраны очень дешёвые, и вообще можно делать вывод на телефон или домашний экран. Также я не думаю, что расчёты, ведущиеся в аппарате, или его дисплей могут быть очень дорогими. ПО бывает дорогим, но это оттого, что каждый аппарат УЗИ использует своё, специальное закрытое ПО. Если бы существовала стандартная аппаратная платформа, для которой можно было бы делать ПО, со стандартами и API, это бы сильно снизило стоимость аппаратов. Существуют попытки создания открытой архитектуры УЗИ , но не знаю, насколько они вошли в массы. Возможно, большая часть стоимости аппаратной и программной части УЗИ проистекает из необходимости получения медицинских сертификатов. Пользователь jes с Hacker News писал : Некоторые спецификации, коим необходимо соответствовать, это ISO 13485, ISO 14971, IEC 60601 3-я редакция, IEC 62304, и возможно ещё десяток таких, про которые я забыл, типа RoHS, WEE, излучения и проч. Если вы измеряете длину бедра зародыша и высчитываете из неё примерный внутриутробный возраст плода, вы не хотели бы ошибиться в этом. Создание любого медицинского устройства может быть очень дорогим, но ведь у него могут быть и другие области использования: образование, получение изображений, спортивные тренировки, развлечения. Уловка 22 состоит в том, что в этих областях УЗИ использоваться не будет из-за дороговизны устройств, а дешевле они не станут, пока рынок для них не вырастет за пределы здравоохранения. Кто делает что-то с проблемой дорогого УЗИ Университет Ньюкасла работает над УЗИ стоимостью в $40–50 , и эта работа привлекла внимание СМИ . Они уменьшили стоимость аппарата, используя один подвижный преобразователь для формирования изображения. Компания Butterfly Network Inc пытается создать устройство для УЗИ на едином чипе, которое будет стоить не дороже стетоскопа. Они получили $100 млн в инвестициях , и, надеюсь, смогут создать удивительную технологию, благодаря которой каждый сможет заказать себе УЗИ. Проект Lumify от Phillips – ручное устройство для УЗИ, подключающееся к смартфону/планшету. Выглядит круто. Но пока его могут купить не все . echOpen и его ответвление Murgen – открытые проекты, разрабатывающие аппарат для УЗИ и набор для разработки. Такие проекты реально могут помочь удешевлению УЗИ, дав доступ к технологии программистам и инженерам. Больше ссылок для самостоятельного изучения: • Basic principle of medical ultrasonic probes • Phased Array Ultrasonics • Pocket Ultrasound • How does medical ultrasound imaging work? • How to use an ultrasound machine • Mobile Ultrasound Device with video • Principles of Ultrasound Ответный пост, часть 1: «Почему УЗИ такое НЕдорогое», или «Вам всегда легко, когда работу выполняет кто-то ещё» (Пол Рейнольдс) Недавно на Hackernews появилась ссылка на пост с Medium, обсуждавший дороговизну аппаратов для УЗИ. Я работаю в этой индустрии более 20 лет, и УЗИ – моя основная область знаний. К сожалению, упомянутый пост относится к категории тех, что написаны специалистом в другой области. Такие специалисты часто становятся жертвами иллюзии, что их знания в своей области распространяются на другие, они не ценят сложность и трудности работы других, и в результате упускают множество тонких (и не очень) моментов невероятно сложной технологической области. Посылка в статье звучит как «почему дешёвая УЗИ-система стоит $30 000, если я могу купить недорогих запчастей и очень легко её собрать? Это же не сложно, я за пару часов всё выяснил!». И хотя УЗИ премиум-класса могут стоить и за $150 000 (что составляет малую долю от стоимости систем КТ и МРТ), есть причина, по которой УЗИ – самая распространённая система для получения изображений в мире. Поэтому позвольте мне опровергнуть заявления о её простоте и чрезмерной стоимости. Какие у меня знания для того, чтобы комментировать статьи в этой области? Моя докторская диссертация была посвящена моделированию, разработке, постройке и тестированию УЗИ. 13 лет я руководил консалтинговой группой, производившей промышленное ПО для УЗИ, а также участвовавшей во множестве проектов разработки и постройки УЗИ-устройств для различных областей, включая и медицину. Я главный помощник редактора в журнале IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control (Труды по ультразвуку, сегнетоэлектрике и регулировке частоты), лидирующем журнале в этой области, и также был председателем комитета IEEE Ultrasound Technical Program Committee for Transducers (Комитет по технической программе для ультразвуковых датчиков). Я работал у крупнейших поставщиков УЗИ-оборудования в мире, а также и в небольших компаниях. Я создавал и выпускал коммерческое ПО и поддерживал его годами. Существует не так уж много людей, имеющих такой опыт и способных оценить технические подробности оборудования и ПО. Все мои мысли относятся к общим вещам, не привязаны к конкретной компании, поэтому никаких патентованных или проприетарных сведений я не разглашаю. Интересующимся этим вопросом очень рекомендую книжку Тома Забо [Tom Szabo] " Diagnostic Ultrasound Imaging: Inside Out ", где популярно описан широкий спектр вопросов по этой теме. Сначала одним параграфом опровергнем аргумент о стоимости УЗИ, пользуясь базовыми экономическими принципами. Если вы можете построить эффективный УЗИ-аппарат, который люди захотят купить, меньший по стоимости чем те, что доступны на рынке, и при этом у вас нет опыта в этой области – то почему кто-то более опытный не построил уже такой аппарат? Почему ни одна из крупных компаний не обрушила цены, чтобы захватить рынок? Если существует картельный сговор компаний по поддержанию цен, почему правительство ещё их не засудило (поверьте человеку, работавшему в компаниях – они параноидально относятся к соблюдению правил, не берут откатов и стараются не делать ничего, что выглядит противозаконным). Позже я опишу правила Управления по контролю за продуктами и лекарствами (FDA), но пока скажу, что хотя [преобразователи] добавляют стоимости продукту, это не основные траты, и, конечно же, не нужно использовать такие аппараты без соблюдения техники безопасности. Я занимался созданием оборудования и ПО, и хотя ПО делать тоже трудно, оборудование делать труднее. Если вы сделаете ошибку при разработке оборудования, вы не сможете перекомпилировать программу и через час получить новый продукт, ваши переделки и пересборки занимают недели или даже месяцы. Отправленное клиенту оборудование должно работать, его нельзя исправить в поле апдейтом, его нельзя поставлять с пользовательским соглашением, где прописан отказ от гарантий или объявить, что он поставляется «как есть». Его нужно поддерживать там, где он работает, иногда десятилетиями. ПО можно разработать на ноутбуке, сидя в небольшой комнате, но инструменты разработке оборудования могут быть большими и дорогими, и их обслуживание также стоит денег. При разработке ПО у вас не возникает проблем с поставщиками, меняющими материалы, формулы, цены, или даже уходящими из бизнеса и оставляющими вас без запчастей. Чтобы обезопасить себя от этих рисков, вам требуются специально обученные люди, также стоящие денег. Засим перейдём к технической части. Ультразвуковая система состоит из трёх главных компонент: акустический преобразователь (трансдьюсер или просто датчик), система и ПО. Датчик – это то, что вы держите в руке, он контактирует с пациентом и передаёт/получает ультразвук. Для каждой системы существует несколько вариантов датчиков, у каждого есть своя область применения, и поэтому система должна уметь поддерживать широкий спектр таких датчиков. Датчик соединяется кабелем с системой, у которой есть вся необходимая электроника, которая принимает сигналы, преобразовывает их в картинку, даёт врачу возможность менять настройки работы, и т.п. Система работает под управлением ПО и выводит картинку на экран, хотя в наше время границы между оборудованием и ПО немного размыты. В больницах такое оборудование обычно перевозят на тележках, хотя встречаются и более компактные (и ограниченные) системы. Рассмотрим передатчик. Картинки взяты из неплохих презентаций ( 1 , 2 ). На первой изображены линзы (часть, соприкасающаяся с пациентом). Она фокусирует ультразвук и ослабляет его так, чтобы избежать ревербераций на уровне кожи, которые могли бы затуманить картинку – но при этом без излишнего ослабления, чтобы не терять сигнал. Она должна обеспечивать хороший контакт с пациентом, должна быть достаточно толстой, чтобы служить изолятором, и достаточно прочной, чтобы её можно было очищать, дезинфицировать, иногда ронять, и подвергать другим воздействиям много лет. Толщина должна быть одинаковой по всей поверхности, отклонение на несколько процентов длины волны уже будут искажать изображение. При этом длина волны ультразвука составляет порядка 100 микрон. Но ведь это же просто сделать, не так ли? Затем идёт согласующий слой, передающий ультразвук с пьезоэлектрики высокого акустического импеданса на корпус с малым импедансом. Сегодня существуют схемы с несколькими слоями, каждый из которых должен быть определённую толщину, плотность, жёсткость и величину ослабления сигнала. Иногда они должны быть токопроводящие, иногда – изолирующие. Также они должны поддаваться механической обработке и иметь постоянную толщину, как и линзы. Затем идёт пьезоэлектрически активный материал, преобразующий электричество в колебания и наоборот. У него также должна быть определённая толщина, не меняющаяся по поверхности, с точностью до микронов. Используемый материал имеет значение – у дешёвых вариантов разная толщина и они плохо работают, а те, что строго следуют спецификациям и хорошо работают, стоят дорого. Он не должен терять пьезоэлектрические свойства при рабочих температурах и выдерживать сильные электромагнитные поля. Пьезокерамика вроде PZT использовалась с незапамятных времён, но сегодня для создания современных режимов генерации изображения может использоваться пьезоэлектрика на едином кристалле – с ней тяжелее работать, она более дорогая, но и показатели работы у неё лучше. Поливинилиденфторид, напыляемые материалы и дешёвые PZT, из которых делают зуммеры, в данном случае неприменимы. Затем идёт задник, материал, поглощающий нужное количество акустической энергии, чтобы аппарат получал короткий импульс, идущий с передней части датчика и используемый для построения картинки, но при этом поглощающий её не так много, чтобы слишком ослабить сигнал. Его обычно нужно делать из диэлектрика, и его вес не должен быть обузой для врача. После этого все части нужно скрепить вместе. Линия скрепления должна быть не очень толстой, чтобы не мешать проходу звука, но и не очень тонкой, чтобы все слои крепко держались вместе. Это должны быть связи толщиной в микроны, не меняющейся по всей их площади. Просто, верно? Займёмся акустическим стеком. Его можно разбить на несколько элементов, участвующих в создании изображения. Да, их требуется много разных – в большинстве датчиков от 100 до 200 элементов. Устройство с 20 элементами, о котором говорилось в предыдущей статье, бесполезно для любых серьёзных применений. При этом все эти слои и пьезоэлектрические элементы необходимо изолировать друг от друга электрически и механически, не слишком толстой и не слишком тонкой изоляцией. Затем нужна гибкая схема, передающая сигналы от и до каждого элемента, и она должна соответствовать этим элементам с точностью до 100 микрон (да, и размер каждого элемента не более двух человеческих волос), а потом схему нужно соединить с кабелями, уходящими из системы. Все 100-200 проводов идут по кабелю длиной пару метров, и он должен быть достаточно лёгким и тонким, чтобы врач мог пользоваться им по восемь часов в день, не перенапрягая мышцы. Представляете, какими тонкими получаются отдельные провода? Позвоните продавцам кабелей и попросите у них кабель малого диаметра с 200 контактами, проводящий сигнал без помех, и вы узнаете его цену. Всё это необходимо разместить в корпусе, достаточно эргономичном для врача, достаточно большом для того, чтобы разместить в нём акустическое оборудование, достаточно маленьким, чтобы быть не очень тяжёлым, и достаточно гладким, чтобы не навредить пациенту. А кроме всего прочего, он ещё не должен перегреваться, чтобы не пострадали ни врач, ни пациент. Просто! Н-да. И это я описал самую простую версию. Я не углублялся в многослойные датчики, искривлённую подложку, экзотические материалы, устройства с электроникой в ручке, размерности каждой секции, необходимые для работы с акустикой, спектральные ответы, температурные характеристики, соответствующий электрический импеданс, и все остальные сложности, с которыми приходится иметь дело, создавая и продавая такие устройства в реальности. А, я ещё забыл об универсальности, надёжности и стоимости. Эти устройства должны работать годами, должны быть совместимыми между собой, чтобы система могла генерить с их помощью картинки так, что пользователь не замечал бы разницы, и должна стоить достаточно недорого, чтобы и пользователь смог их купить, и производитель получил бы прибыль. Вы когда-нибудь создавали прототип? 2 прототипа? 4? 100? 10 000? И чтобы все они были одинаковыми? Да, решив продавать и поддерживать продукты, вы попадаете в другой мир. А, ещё я забыл тестирование на предмет соответствия аппаратов вашим внутренним спецификациям, правилам FDA и других регуляторов, с тем, чтобы они вас не ударили током и не сожгли, и выдавали верные медицинские данные, чтобы вам не поставили неправильный диагноз и выписали правильное лечение. И это я ещё не добрался до системы и ПО. Один только датчик требует работы людей, разбирающихся в акустике, создании изображений, клинических требованиях, материалах, дизайне оборудования, электронике, обработке данных, безопасности, правилах работы, пользовательском опыте, надёжности, тестировании, ведении бизнеса, и много чего ещё, всего не перечислишь. Ну и ещё нужно поддерживать сотрудников, офис, HR-отдел и админа. Всё это требует огромных знаний и усилий – таких, будто от них зависят человеческие жизни. У меня есть большой опыт в разработке и постройке подобных штук. Мог бы я создать компанию, которая бы производила их, и делала бы это хорошо? Да. Мог бы я сделать их значительно дешевле, чем это получается у других? Нет. Соберём всё это вместе и получим невероятно сложный электромеханический продукт, с компонентами микронного масштаба, с требованиями к долговременной работе в течении многих лет, воспроизводимый без возможности воспользоваться экономией на масштабе (о миллионах устройств речи нет), на основании показаний которого выносятся решения, влияющие на человеческую жизнь. И это только датчик. Поэтому, на самом деле нужно спрашивать, «почему аппараты для УЗИ такие недорогие»? Ответный пост, часть 2: ответы на вопросы по первому посту Сначала пройдёмся по технической части вопросов. Когда в тексте я упоминаю конференцию, я имею в виду симпозиум международного ультразвукового сообщества IEEE UFFC . 1) А что, если в датчик поместить больше электроники и использовать GPU для формирования пучка? Датчики действительно двигаются в этом направлении. После того, как Philips представила в 2003 году первый настоящий двумерный массив, работающий посредством подмассива, формирующего пучок электроники в датчике, в этой области наметились подвижки. Важно понимать, что разработка электроники (обычно это ASIC, специализированная интегральная схема), используемой только в одном датчике, это огромные инвестиции денег, человеко-часов и времени. А ещё нужно интегрировать всё это в акустическом стеке и сделать так, чтобы всё слаженно работало. Такого рода продукт достаточно большая команда разрабатывает несколько лет, и хотя развитие электроники делает эту задачу более лёгкой для 2016 года, чем для 2003, это всё ещё очень большая задача. У всех больших компаний уже есть свои двумерные массивы, но им приходится предлагать серьёзные преимущества использования двумерных массивов вместо одномерных, поскольку первые, как нетрудно догадаться, стоят гораздо больше. Кроме того, замените одномерный массив двумерным, и вы сразу получите новые трудности в обработке данных – объёмы вместо плоскостей, тысячи отдельных сигналов вместо 200. Требуется ещё больше вычислительной мощности, и хотя с годами объёмы доступной мощности растут, растут и запросы. В какой-то момент доступные вычислительные объёмы экономически перегонят спрос, но пока этого не произошло. А что насчёт обычных, одномерных массивов? Конечно, туда тоже можно запихнуть больше электроники, но помните, что в одной системе осуществляется поддержка 10-20 типов датчиков (сердечные, абдоминальные, сосудистые, акушерские, и др.), и что более логично – делать единую систему, в которой имеется общее оборудование, способное обслуживать многие датчики, или же копировать одну и ту же электронику для каждого датчика, чтобы упростить систему? Экономически сейчас имеет смысл собрать все общие компоненты в системе, но если электроника подешевеет и станет лучше, тогда уравнение поменяется. Сейчас такой вариант рассматривается. Вот тут есть спецификации открытой платформы Verasonics, неплохого оборудования для тех, кто хочет учиться, тестировать и разрабатывать ультразвуковое оборудование, хотя у коммерческих премиум-систем спецификации часто повыше. Дискретизация до 62.5 МГц, 14 бит, 256 каналов – это до 224 Гбит/с, или примерно один Blu-ray диск в секунду. Thunderbolt 3 поддерживает до 40 Гбит/с, так что сравните и почувствуйте разницу. Как бы ни была хороша современная электроника, запросы топовых УЗИ-устройств всё ещё выше. Со временем это поменяется. Также отметим, что эта система поддерживает напряжение с размахом сигнала до 190 В, что означает невозможность использования чипов, произведённых по техпроцессам минимальных величин. Это значит, более крупная электроника и более высокая стоимость – и это вряд ли изменится в ближайшее время, фундаментальная физика накладывает свои ограничения (возможно, до появления новых материалов). В последние годы было достигнуто улучшение при помощи пьезоэлектрики на едином кристалле , но сейчас ничего такого на горизонте не видно. Ещё есть вопрос нагрева. Электроника нагревается. Несколько ватт в небольшом ручном датчике могут серьёзно поднять температуру и обжечь пациента либо врача. Существуют строгие правила по максимальному нагреву датчиков, и качество работы всегда ограничено этими правилами – датчик работает хуже, чем мог бы, для безопасности. Если на каждом канале электроника выдаёт 50 мВт, то 200 каналов выдадут 10 Вт, и это слишком много. Но если электроника выдаёт всего 5 мВт, тогда в сумме будет 1 Вт, и это уже будет интереснее. Если бы можно было обходиться таким низким потреблением, тогда аргументация из плоскости практичности перешла бы в плоскость размеров и экономики. Теперь о формировании пучка. Для начала интересующиеся могут посмотреть отличную презентацию по этому вопросу. Она из 2005 года, некоторые вопросы уже устарели, но основы не изменились. Остальным расскажу, что формирование пучка принимает сырые данные и строит из них картинку. Для этого нужно получить большой поток данных (те самые 224 Гбит/с), провести кучу математических операций, зависящих от режима изображения, и вывести результат на экран. Презентация заканчивается прогнозом развития «аналоговая электроника идёт в датчик, а цифровая – в ПО». Именно это сейчас и происходит. GPU стали достаточно мощными для того, чтобы брать на себя работу специализированных формирователей пучка, и в ближайшие годы их скорость, скорее всего, возрастёт. Их ещё не скоро можно будет встретить в больницах, поскольку текущие системы живут не меньше десятка лет, но они уже приближаются. С точки зрения электроники процесс идёт, но некоторые пиковые запросы УЗИ показывают, что она ещё не дошла, или только доходит до нужной кондиции. В то же время растут запросы на устройства с двумерными массивами преобразователей. Лет через 20 экосистема УЗИ поменяется, стоимость и быстродействие электроники будет передвигать нагрузку между системой и датчиком. 2) Что насчёт микропроизводства или 3D-печати? Ещё один прекрасный вопрос, и исследования в этом направлении идут последние лет 20. Исследование использования микроэлектромеханических систем (МЭМС) в УЗИ финансируется компаниями более 20 лет. К примеру, в начале 1990-х cMUT (ёмкостные ультразвуковые МЭМС-преобразователи) были объявлены «следующим этапом» ультразвука, а сегодня, в 2016-м, кроме узких областей применения, такие устройства только начинают выходить на рынок. И это происходит не из-за недостатка усилий, просто технология не сработала так, как ожидалось. Возникло множество проблем, часть из которых были решены, но сейчас они пока не могут соревноваться с пьезоэлектроникой и стандартным производством по цене и качеству. Над ними ещё нужно работать, и если их можно улучшить, повысить надёжность и понизить стоимость, они проникнут во многие области применения. pMUT (пьезоэлектронные ультразвуковые МЭМС-преобразователи) также изучают, но с ними возникает ещё больше сложностей, чем с cMUT. Такие материалы имеют в основе свинец, а люди очень не любят свинец на производстве полупроводников. Более приемлемые материалы, оксид цинка и нитрид алюминия, не показывают таких хороших результатов, поэтому их применение пока ограничено тонкоплёночными акустическими резонаторами (FBAR). Есть некие многообещающие примеры с добавлением скандия к нитриду алюминия, что повышает производительность, а также методы производства улучшенных пьезоэлементов, но пока ещё у них полно проблем. 3D-печать? Очень сложно напечатать активные материалы и другие специализированные компоненты, входящие в состав преобразователя, но и этим тоже занимаются. GE углубилась в вопрос больше других , и она вместе с другими компаниями уже делает на эту тему презентации. Так что это ещё в зародыше, но новые методы производства наступают, и они помогут улучшить быстродействие, надёжность и цены. 3) Я могу купить в магазине запчасти за $x, почему же система стоит дороже, чем $x? Потому, что для сборки надёжной и подтверждённой платформы, на основе использования которой можно будет принимать медицинские решения, требуется множество усилий и человеко-часов. Это так для любого продукта, и даже без соблюдения условий регуляторов. Если вы сделаете что-то некачественное, вы продадите один экземпляр, и бизнес не пойдёт, а слухи распространяются быстро. В такой наполненной конкурентами области, как УЗИ, вы быстро потеряете престиж и уйдёте со сцены. Каждый датчик обязан поддерживать несколько режимов генерации изображений – б-режим, гармонический, допплеровский, и т.п. – и для каждого из них нужно время, чтобы запрограммировать и утвердить. Затем его надо будет поддерживать, удовлетворять запросы клиентов, платить вашим сотрудникам, чтобы они не ушли разрабатывать новейшее мобильное приложение для соцсетей, и создавать новое поколение улучшенных систем. По сути, это стандартные затраты и проблемы любого долговременного предприятия. А, ещё и прибыль, поддерживающая компании на плаву, обеспечивающая изготовление новых продуктов и появление продвинутых технологий. По сути – инновации грядут, но это не так просто, как вам кажется, это не микрофон или смартфон, который через пару лет можно выкинуть. Если вы хотите обучаться и участвовать в нашей индустрии, то добро пожаловать – в ней всегда найдётся место для тех, кто помогает улучшать ультразвуковые технологии. Можете отправить сообщение мне, так как у меня большие связи, и я могу связать вас с нужными людьми. 4) Вы не сделали прейскурант на все компоненты, чтобы доказать, что цена не завышена. Во-первых, такая статья выглядела бы больше как список цен, а я пытался понятно описать, что входит в процесс создания такой системы, и что это не так просто, как вам кажется. Цены из статьи на Medium были основаны на неких заявлениях по поводу простоты ультразвуковой технологии, и я хотел объяснить, почему задача создания таких аппаратов на самом деле сложная и многогранная, требующая различных компромиссов. Для профессионала это звучит как «Я могу построить миникар [детский гоночный автомобиль без мотора – прим. перев.] за $100, и если поставить в него мотор, то он превратится в машину! С чего это автопроизводители дерут по $50 000 за автомобили?!». Во-вторых, мне приходится осторожно упоминать цены и возможности техники. Я работал на разных производителей УЗ-оборудования, и мне надо заботиться о том, чтобы не разболтать коммерческую тайну, поэтому я действую аккуратно и проверяю, чтобы всё, о чём я пишу, было достоянием общественности. И последнее, рынок высококонкурентный, и тот факт, что низких цен на оборудование нет, говорит о том, что там есть за что платить, и что цены адекватные. Если вы считаете, что рынок не конкурентный, не знаю, как я могу вас убедить. Попробую в следующем пункте. 5) Производители оборудования организовали картельный сговор и держат высокие цены Меня такие заявления удивляют. Я работаю в этой области более 20 лет и ни разу не видел ни намёка на то, что нечто подобное присутствует в области УЗ. Всё указывает на сильную конкуренцию. На рынке объёмом около $6 млрд с несколькими крупными игроками международного масштаба (вот список крупнейших игроков, вот список игроков поменьше, вот исследование , где упоминается 25 компаний), и регулируется таким образом, чтобы убедиться в отсутствии ценовых сговоров, картелей, и других нерыночных проявлений. В рейтингах компании постоянно меняют свои места, каждая ищет какое-нибудь легальное преимущество в технологиях или стоимости. Медицинское применение УЗ также очень сильно регулируется, и многие страны, особенно США и в странах Европы, очень жёстко обрушатся на компанию, уличённую в нерыночном поведении. В каждой из компаний, где я работал, я ощущал серьёзное давление с целью повышения качества и надёжности и одновременного понижения цен. Если вы изучите сегодняшние системы и сравните их со старыми, то вы заметите как серьёзные улучшения у топовых моделей, цена на которые осталась примерно на том же уровне, так и появление аппаратов по сравнительно низким ценам, возможности которых превосходят вчерашние системы. Если кто-нибудь запустит компанию, производящую качественные УЗ-системы в большом количестве по небольшой цене, то даю гарантию, что это предприятие будет куплено одним из крупных игроков, который инкорпорирует его и воспользуется преимуществами технологии. Так что, если вы правда верите в заговор и в то, что УЗ-системы очень просто сделать, то запускайте свою компанию и пользуйтесь той лёгкой прибылью, которую упускают все остальные. Ещё лучше – лично я помогу вам. Серьёзно, пишите мне, рассказывайте, что мы делаем не так, и я либо найму вас, либо найду вам работу в индустрии, или организую совместную компанию, чтобы заработать миллионы. А если вы уверены в наличии заговора, я дам вам контакты различных регуляторов в разных странах, которые с удовольствием ознакомятся с имеющимися у вас доказательствами, которые могут быть использованы в суде. Мало в каких областях компании работают на рынке с такой большой конкуренцией, разворачивающейся среди множества больших игроков. Это не тот вариант, в котором " Intel владеет 99% рынка серверов и конкуренты не заставляют его снижать цены ", это больше похоже на автомобильную индустрию, в которой соревнуется множество участников. 6) Инженеры не понимают, что делают, и проходят мимо очевидных вещей, которые могли бы сделать продукт быстрее, лучше и дешевле. В индустрии работают тысячи людей — инженеры, исследователи и вспомогательный персонал. Они умные, образованные, опытные и способные. Если бы они захотели, то многие из них смогли бы легко заняться изготовлением всяких приложений, социальных сетей или что там ещё в моде, и делать больше денег при меньшем стрессе. Но они не уходят, ибо любят свою работу, делают всё для улучшения технологии, для её ускорения и удешевления, а также знают, что их работа помогает людям и меняет мир к лучшему. Они не могут пропустить очевидные улучшения технологии или методов, это не в их характере. Учитывая высокую конкуренцию в индустрии, если бы менеджеры в какой-то компании приказали инженерам не использовать имеющиеся преимущества, они бы сразу уволились и перешли в другую компанию, или запустили бы свою. Существует множество профессиональных организаций, посвящённых исключительно ультразвуку, в основном для медицинского применения. Одна из них — IEEE UFFC , в которую достаточно сильно вовлечён и я. IEEE – некоммерческая организация, занимающаяся исключительно технологией, она не поддерживает никакие коммерческие компании или чьи-либо интересы. Она выпускает журналы со статьями, прошедшими экспертную оценку, рассказывающими о переднем крае разработки преобразователей, материалов, электроники, систем, создания изображений. Каждый год она устраивает конференции, на которых пара сотен людей обсуждает и обучается передовому опыту и технологиям. В этом году я видел презентации 3D-печати преобразователей, новых материалов, быстрого создания изображений посредством GPU, микропроизводства, передовой электроники для датчиков. На исследования по этим темам компании тратят горы ресурсов, аспиранты защищают по ним докторские работы, и постепенно эти новинки включаются в конечные продукты, когда технология взрослеет и становится экономически эффективной и надёжной. 7) Вся стоимость уходит на соответствие правилам, без FDA эти машины стоили бы меньше в разы! Это сложно опровергнуть, не приводя внутренние цифры из разных компаний, и я этого делать не буду. Я знаю, что в стоимость заложено соответствие правилам, но она не входит в список самых затратных статей. Для соответствия правилам и ограничениям требуются инженерные тесты и создание документации, но ничего такого, чего хорошая команда инженеров, заинтересованная в производстве безопасного устройства, не делала бы сама. А наличие чётких правил, единых для всех, позволяет конкурентам играть в равных условиях. Да, вы можете пойти на AliBaba и купить там ветеринарный УЗИ-аппарат, который не подстраивали ни под какие стандарты. Удачи вам в получении качественного, или хотя бы просто полезного изображения, а также желаю вам, чтобы этот аппарат был безопасный, надёжный, и у него была какая-то поддержка. И вообще, чтобы он делал малую долю того, что доступно топовым УЗИ-системам. Есть причины, по которым УЗИ – самый популярный способ получения изображений в медицине, и он безопасен в частности именно из-за правил и ограничений от FDA и прочих. 8) Что за тупица не сумеет сделать датчик без острых краёв! УЗИ не похоже на МРТ или КТ в том смысле, что результат зависит и от пациента, и от доктора – все изображения отличаются друг от друга, и для их получения требуется опыт. Акустическое окно, в котором можно получить клинически полезные изображения, иногда требует размещения датчика в определённом месте и некоторого надавливания, что может быть неприятно для пациента. Если тот начинает двигаться из-за неприятных ощущений, это затрудняет получение хорошего изображения. У некоторых датчиков размер уменьшен специально, чтобы они могли добираться до труднодоступных мест, но попытка добиться максимальной акустической площади, требуемой для получения хорошей картинки, может привести к появлению не очень скруглённых углов. Они, конечно, не такие острые, чтобы резать пациентов, но могут привести к определённому дискомфорту, если будут разработаны неправильно. К тому же, создать кабель с 200 жилами и минимальной интерференцией легко, а создать его гибким, удобным для использования врачом и недорогим, трудно. 9) Телефоны дешёвые, а в них куча всяких технологий – почему УЗ-техника не такая дешёвая? Каждый год продаётся несколько миллионов телефонов, это примерно на 4 порядка больше, чем УЗ-систем. В среднем телефоны живут от 18 до 24 месяцев, а УЗ-аппараты – десять и более лет. От качества телефонов не зависят жизни людей. Для УЗ-систем не существует экономии на масштабе. Возможно, это напоминает спор о том, что появилось раньше, курица или яйцо, и что «гениальное мобильное приложение» ещё не вышло, потому, что УЗ-система слишком дорогая, но если существует спрос, то придут и технологии. У вас есть такое приложение? Как некоторые упоминали, есть слухи о том, что в Butterfly Labs работают как раз над таким, но, несмотря на все мои связи в индустрии, я не слышал ничего о том, что они делают вот уже несколько лет. Надеюсь, они выдадут что-нибудь потрясающее, но до тех пор не надо применять экономию на масштабе с рынка смартфонов к рынку УЗ-аппаратов.
https://geektimes.ru/post/284144/
habrahabr
DIY дискотечная лазерная установка из указки и ардуинки
['diy', 'лазерное шоу', 'музыка', 'новый год']
Для танцевальной новогодней вечеринки решил сделать простую лазерную установку, которая бы в такт музыке что-нибудь демонстрировала. Под рукой была лазерная указка с набором сменных вращающихся...
Для танцевальной новогодней вечеринки решил сделать простую лазерную установку, которая бы в такт музыке что-нибудь демонстрировала. Под рукой была лазерная указка с набором сменных вращающихся колпачков, которые позволяли получать симпатичные эффекты на потолке. Добавив пару сервоприводов и arduino mini pro — получил искомое. Схема очень простая (один ключ, управляющий лазерной указкой; пара кремниевых диодов, для понижения напряжения для указки; резистор для электретного микрофона и готовый модуль DC-DC преобразователя напряжения от аккумулятора в пять вольт), выполнил на отрезке макетной платы. Микрофон при таком простейшем включении — имеет довольно низкую чувствительность, так что устройство нужно ставить достаточно близко к колонкам. Надо заметить, что несмотря на наличие ключа для управления лазерной указкой — он у меня фактически не используется (всегда включен), так что можно просто выкинуть. Ну или добавить какое-нибудь моргание, если хочется. Теоретически, гораздо лучше было бы использовать двигатель с редуктором для вращения колпачка (чтобы избежать заметного дрожания), но с сервоприводом получилось проще (напечатал пару шестеренок на принтере и все). Сервоприводы — Turnigy TGY-R5180MG (180 градусов, для вращения колпачка) и какая-то старая 9 граммовая серва (для вращения самого устройства). Подставка — треножник от вентилятора, которые hobbyking продавала как-то за копейки. Видео работы: Скетч: #include <Servo.h> // yaw servo - PWM #define SERVO_YAW 5 // roll servo - PWM #define SERVO_ROLL 6 // Laser pin - PWM or DO #define LASER 9 // Microphone input - A0 #define MIC A0 // Yaw servo period (in ms) #define YAW_PERIOD 40 // Roll servo period (in ms) #define ROLL_PERIOD 100 // MIN value for yaw servo #define MIN_YAW 40 // MAX value for yaw servo #define MAX_YAW 130 // MIN value for roll servo #define MIN_ROLL 10 // MAX value for roll servo #define MAX_ROLL 150 Servo yaw_servo; Servo roll_servo; // Current position and direction for servos int16_t roll_pos = MIN_ROLL; int8_t roll_dir = 1; int16_t yaw_pos = MIN_YAW; int8_t yaw_dir = 1; // Sound peak detected boolean flag_sound = false; // Internal sound volume average stuff int16_t arr_vol[32]; int8_t arr_pos = 0; unsigned long last_sound = 0; // Detect sound volume peaks void check_sound() { int16_t volume = analogRead(MIC); int i; int32_t sum; int16_t average; // Calculate average from last reads arr_vol[arr_pos] = volume; arr_pos++; if (arr_pos > (sizeof(arr_vol) / sizeof(arr_vol[0]))) arr_pos = 0; sum = 0; for (i = 0; i < (sizeof(arr_vol) / sizeof(arr_vol[0])); i++) sum += arr_vol[i]; average = sum / (sizeof(arr_vol) / sizeof(arr_vol[0])); if (flag_sound && ((millis() - last_sound) > 200)) flag_sound = false; if ((millis() - last_sound) < 300) return; if (volume > (average + 4)) { flag_sound = true; last_sound = millis(); } } // void check_sound() unsigned long last_yaw = 0; // Rotate yaw servo void rotate_yaw() { if ((millis() - last_yaw) < YAW_PERIOD) return; last_yaw = millis(); yaw_pos += yaw_dir; // Change rotate direction when reached limit if ((yaw_pos >= MAX_YAW) || (yaw_pos <= MIN_YAW)) yaw_dir = -yaw_dir; yaw_servo.write(yaw_pos); } // void rotate_yaw() unsigned long last_roll = 0; // Rotate roll servo void rotate_roll() { if ((millis() - last_roll) < ROLL_PERIOD) return; last_roll = millis(); roll_pos += roll_dir; // Rotate faster when we detect sound peaks if (flag_sound) { roll_pos += (8 * roll_dir); if (roll_pos < MIN_ROLL) roll_pos = MIN_ROLL; if (roll_pos > MAX_ROLL) roll_pos = MAX_ROLL; } // Change rotate direction when reached limit if ((roll_pos >= MAX_ROLL) || (roll_pos <= MIN_ROLL)) roll_dir = -roll_dir; roll_servo.write(roll_pos); } // void rotate_roll() void setup() { // put your setup code here, to run once: pinMode(LASER, OUTPUT); digitalWrite(LASER, HIGH); yaw_servo.attach(SERVO_YAW); yaw_servo.write(yaw_pos); roll_servo.attach(SERVO_ROLL); roll_servo.write(roll_pos); Serial.begin(115200); delay(300); } // void setup() void loop() { // put your main code here, to run repeatedly: check_sound(); rotate_yaw(); rotate_roll(); delay(10); } // void loop() Спасибо за внимание!
https://geektimes.ru/post/284146/
habrahabr
Проект по возрождению заброшенных страниц Википедии был заброшен
['Википедия', 'правки', 'сироты', 'заброшенные страницы']
Оставленный посёлок Кадыкчан в Магаданской области в своём время был местом дислокации одного из колымских ГУЛАГов. Местную шахту закрыли в 1996 году, людей выселили, дома законсервировали,...
Оставленный посёлок Кадыкчан в Магаданской области в своём время был местом дислокации одного из колымских ГУЛАГов. Местную шахту закрыли в 1996 году, людей выселили, дома законсервировали, частный сектор сожгли. Жители оставили машины в гаражах, одежду, вещи, детские игрушки. В 2014 году в большом посёлке жил только один пожилой мужчина с двумя собаками Есть что-то притягивающее в заброшенных городах-призраках. Совсем недавно здесь жили и работали тысячи людей, по улицам бегали дети, у подъезда дымили «жигули». А сейчас только ветер шумит в оконных проёмах и на заросших травой детских площадках. Своей печальной красотой впечатляют заброшенные сооружения — целые города или просто олимпийские стадионы . К сожалению, грустная судьба забвения постигает не только человеческие поселения, но и страницы Википедии. Многие страницы крупнейшей в мире энциклопедии настолько давно не редактировались, что их можно считать заброшенными. Группа редакторов поставила целью искать такие несчастные страницы и помогать им — возвращать к жизни, отдавать «на усыновление» заинтересованному редактору, объединять информацию с другими статьями, или отпускать утомлённый дух на свободу, рекомендуя такие страницы к удалению. Для этого в 2006 году редакторы-энтузиасты организовали проект Wikipedia:WikiProject Abandoned Articles («Википроект заброшенных страниц»). Символ проекта WikiProject Abandoned Articles. Картина: «Сироты», Томас Кеннингтон, 1885 Для начала своей работы энтузиасты составили список статей с самыми старыми датами редактирования, руководствуясь списком особо древних статей Википедии . Нужно заметить, что большинство статей в списке древних страниц нельзя назвать брошенными или устаревшими. Обычно это просто справочные страницы для конкретных статей, с двумя ссылками на две другие страницы. Более точные сведения о действительно заброшенных страницах приводятся в разделе Wikipedia:Database reports/Forgotten articles . Вот там уже конкретные информационные материалы, которые не редактировались много лет. Например, информацию о министре энергетики Бурунди никто не редактировал с 8 февраля 2008 года, а информацию о деревне Lukovitsy в Тульской области — с 15 февраля 2009 года. В русскоязычном разделе статья о деревне Луковицы заботливо поддерживается, упомянут даже факт подтопления деревни в 2012 году рекой Упка. А вот в англоязычном разделе деревня Lukovitsy выглядит совершенно заброшенной. Вот такие страницы считаются «сиротами»: никто за ними не следит, не обновляет информацию. Все о них забыли, словно этих людей и поселений вообще не существует. В большинстве случаев заброшенные статьи помечены как заготовки (стабы). Так в Википедии называют статью, находящуюся на начальной стадии написания и имеющую недостаточный объём. Чаще всего из нескольких предложений. Ещё один список заброшенных статей — Wikipedia:Dusty_articles . Он составляется вручную на основе автоматических списков. Там обращают на себя внимание забытые статьи о Коммунистической молодёжи Дании (крыло Датской коммунистической партии) и струнном фоне (отсылка к квантовым полям в пространстве-времени, что соответствует классическим решениям струнной теории). Эти статьи тоже никто не редактировал с 2008 года. «Википроект заброшенных страниц» ставил перед собой благую цель. К сожалению, он и сам повторил судьбу тех, кого пытался спасти от забвения. В данный момент Wikipedia:WikiProject Abandoned Articles значится в качестве малоактивного проекта , а из перечисленных на странице участников никто не отвечает . В вики-сообществе «малоактивный проект» — это эвфемизм для заброшенного проекта, словно город-призрак, он существует, но там никто или почти никто не живёт. Следующий по шкале деградации статус — неактивный проект, это уже официально мёртвый город, как украинская Припять (кстати, в этом городе парк развлечений работал даже на следующий день после взрыва реактора ЧАЭС, во время эвакуации). Парк развлечений работал в Припяти даже после аварии на ЧАЭС. Фото: Timm Suess Почему проект по возрождению заброшенных страниц Википедии был заброшен — неизвестно. Возможно, со временем список заброшенных статей становился всё менее значительным. В 2007 году, когда проект был активен, Википедия представляла собой совершенно другое место. Сообщество было меньше, а об этой энциклопедии тоже знали немногие. Большинство считало её несерьёзным проектом, в котором публикуется недостоверная информация. В те времена можно было относительно легко найти заброшенную страницу великого художника или другую важную тему. Спасать такие страницы явно было интереснее, чем деревню Луковицы и Коммунистическую молодёжь Дании. Сейчас Википедия редактируется со скоростью 10 правок в секунду . Каждый день добавляется 800 новых статей . Если на дне такого кипящего котла скопился осадок из заброшенных страниц — то он мало кому нужен. Практически всё лишнее удалили, даже Древнерусское государство наконец-то удалили переименовали обратно в Киевскую Русь . Среди заброшенных страниц — только очень незначительные статьи, куда и так почти никто не заходит. Хотя, возможно, всё-таки найдутся добрые люди, которые помогут этим «сиротам».
https://geektimes.ru/post/284142/
habrahabr
IBM и BMW вместе работают над созданием умного автомобиля
['ibm', 'bmw', 'watson', 'когнитивная система', 'автомобили']
За последние несколько лет тема искусственного интеллекта в автомобилях (пускай и слабой его формы) стала очень популярной. Речь идет об автономных машинах, которые могут ехать по дороге,...
За последние несколько лет тема искусственного интеллекта в автомобилях (пускай и слабой его формы) стала очень популярной. Речь идет об автономных машинах, которые могут ехать по дороге, парковаться или выполнять иные маневры без участия или с минимальным участием водителя. Собственные модели таких авто разрабатывают Google, Mercedes, Uber, Tesla и даже частные лица, ( хакер Geohot тому пример). Сейчас работу над созданием своей компьютерной системы управления начала и компания BMW. Правда, руководство приняло решение не делать все с нуля, а разработать свою автономную систему управления на основе уже существующего решения — а именно когнитивной системы IBM Watson. Система уже работает в качестве врача, научного сотрудника, юриста, повара — почему бы и не попробовать себя в качестве водителя? IBM и BMW теперь работают над единым проектом, который позволит «опробовать когнитивную систему Watson в роли помощника водителя, создав интуитивную систему поддержки водителей». Эта система сможет, например, исправлять некоторые ошибки при движении на дороге. Кстати, несколько месяцев назад BMW заявила о новой миссии, которая получила название «Strategy Number One». Это новое направление работы компании, куда входит автопилот, мобильность, обмен информацией между отдельными автомобилями. Сотрудничество с IBM — один из путей реализации нового проекта. «Watson изменяет способ взаимодействия людей с окружающим миром, помогая дома, на работе и в дороге», — говорится в заявлении IBM. «Новое партнерство поможет разработать систему, которая позволит водителям использовать преимущества IBM Watson в таких сферах, как машинное обучение и общение». По мнению партнеров, уже через 10 лет вождение автомобиля будет значительно отличаться от текущей практики. Четыре новых автомобиля BMW i8 уже оснащены системой связи с Watson. Изначально работа с сервисом будет заключаться в общении. Водитель задает IBM Watson вопросы и получает ответы на них. Сейчас помощь, предоставляемая когнитивной системой, заключается в помощи при эксплуатации автомобиля — водители получают быстрые исчерпывающие ответы на вопросы о принципах работы того либо иного агрегата или органа управления. В дальнейшем функции IBM Watson в авто будут расширены, чтобы реализовать новые возможности. Например, когнитивный помощник будет диагностировать проблемы во время езды, анализируя информацию с датчиков, установленные в автомобиле. Кроме того, езда на авто будет более эффективной в плане использования топлива — система станет автоматически регулировать режимы работы машин для того, чтобы оптимизировать расход. Когнитивная система станет анализировать поведение, предпочтения и привычки водителей, упрощая последним жизнь, делая процесс дороги более комфортным, и, конечно же, безопасным. Когнитивная система будет анализировать и погодные данные, которые предоставляются компанией WeatherCo., работающей в составе IBM. После обработки информации сервис спланирует оптимальный путь и предупредит о возможных проблемах на дороге. К слову, участникам новой команды проекта даже не придется далеко ездить в командировки. Штаб-квартира BMW в Мюнхене находится рядом с офисом IBM Watson IoT. Сейчас частичка будущего разрабатывается именно в этом месте.
https://habrahabr.ru/company/ibm/blog/318614/
habrahabr
IBM помогает бороться с торговлей людьми
['Stop the Traffik', 'права человека', 'IBM', 'разработка']
В День прав человека Марк Уэйкфилд, представитель британского подразделения IBM рассказал о том, как компания планирует бороться с торговлей людьми. Собственный сервис корпорация делать не...
В День прав человека Марк Уэйкфилд, представитель британского подразделения IBM рассказал о том, как компания планирует бороться с торговлей людьми. Собственный сервис корпорация делать не планирует, вместо этого свои ресурсы IBM предоставляет уже существующему сервису Stop the Traffik . Собственно, это не сервис, а организация, которая много лет занимается борьбой с торговлей людьми. Компания IBM решила заняться вопросом торговлей людьми потому, что компания любого размера не может оставаться равнодушной к нарушению прав человека. Это включает в себя не только торговлю людей, но и, например, право человека на образование или доступ к пресной воде. Но торговля людьми — это одно из вопиющих нарушений прав человека, поэтому такую проблему необходимо решить как можно быстрее. Хуже всего то, что торговля людьми становится все более распространенным способом заработка для «черного» бизнеса. Эксперты оценивают незаконные прибыли от подобной деятельности в $150 млрд ежегодно. Бороться с этим нарушением не так просто, поскольку преступники, которые этим занимаются, хорошо научились скрываться. Именно поэтому государственные органы различных стран знакомы лишь с верхушкой айсберга — остальное остается закрытым от посторонних взглядов. Правоохранители предполагают, что ежегодно жертвами торговцев людьми становятся более миллиона человек. Но это только те жертвы, которых можно отследить при помощи прямых или косвенных методов. Благодаря инструментам, предоставленным компанией IBM, организация Stop the Traffik сможет отслеживать гораздо больше потоков нелегальной торговли и связей между преступниками. Когнитивные сервисы корпорации IBM способны обрабатывать огромное количество информации за единицу времени, обнаруживая связи между отдельными элементами базы данных, которые не может обнаружить человек, пусть и квалифицированный специалист. Благодаря данным, полученным при помощи IBM, сотрудники получат возможность работать более эффективно, кооперируя свои усилия с правоохранительными органами. Участники проекта надеются на то, что все приложенные партнерами усилия помогут в борьбе с торговлей людьми. Возможно, это даст возможность нарушить отлаженные преступниками процессы и связи. Для того, чтобы иметь возможность своевременно реагировать на похищения, организация Stop the Traffik выпустила специальное приложение. Оно позволяет пользователям сообщать о фактах предполагаемого похищения людей. Приложение, названное STOP APP, доступно на сайте Stop the Traffik.Таким образом, случайному свидетелю похищения или даже участнику преступной группы, решившего «завязать» со своим прошлым, можно не обращаться в правоохранительные органы, а рассказать обо всем увиденном и услышанном в приложении. Компания IBM кроме вычислительных ресурсов предоставила сотрудникам названной выше организации пять лицензий i2 . Компания также тренирует добровольцев, которые решили помочь в борьбе с торговлей людьми, оказывая поддержку путем разработки сервисов и программ. Информация, поступающая с приложения STOP APP, отправляется на обработку и хранение в SoftLayer Cloud. Доступ ко всем этим инструментам поможет Stop the Traffik отслеживать связи между преступниками разных стран и регионов, визуализируя все связи с использованием программ и сервисов. Вероятно, через некоторое время будет создана карта таких связей, которая обеспечит надежную и эффективную работу правоохранителей разных стран. Объединяя информацию, поступающую от пользователей приложения, с информацией, предоставляемой финансовыми организациями, правоохранительными органами и другими участниками борьбы с торговлей людьми, Stop the Traffik тоже сможет работать более эффективно. Сегодня помочь предотвратить беду может любой из читателей — достаточно просто скачать приложение STOP APP и начать с ним работу.
https://geektimes.ru/company/ibm/blog/284150/
habrahabr
Полиция хочет допросить Алексу из колонки Amazon Echo по делу об убийстве
['Алекса', 'Amazon Echo', 'аудиозапись', 'распознавание речи', 'убийство', 'расследование', 'IoT', 'улики']
Умный динамик Amazon Echo — 24-сантиметровая цилиндрическая колонка с микрофонной решёткой. Прибор устанавливается в квартире, управляется голосом и реагирует на женское имя Алекса (сайт вашей...
Умный динамик Amazon Echo — 24-сантиметровая цилиндрическая колонка с микрофонной решёткой. Прибор устанавливается в квартире, управляется голосом и реагирует на женское имя Алекса ( сайт вашей Алексы открывается по личному паролю). Очень полезная вещь: активированная голосовой командой Алекса записывает речь пользователя, распознаёт её (в облаке), хранит записи разговоров (их можно удалить через приложение), выполняет команды — читает книги, играет музыку, устанавливает будильник. Или просто разговаривает с хозяином. Во втором сезоне хакерского сериала Mr. Robot такая колонка была единственной подругой спецагента киберподразделения ФБР Доминик ДиПьеро, так что вы знаете, о чём речь. Об уникальных способностях Алексы узнала и американская полиция, которая теперь требует у корпорации Amazon запись разговоров в квартире, где произошло убийство. Согласно сообщению местного телеканала, драматические события произошли в городе Бентонвиль, штат Арканзас, 22 ноября 2015 года. Жертва преступления 47-летний Виктор Коллинс (Victor Collins) был найден мёртвым в джакузи на заднем дворе дома, который принадлежит 31-летнему Джеймсу Бейтсу (James Bates), как оказалось, большому любителю компьютерной техники. Сам Джеймс Бейтс задержан по подозрению в убийстве первой степени, а полиция пытается собрать улики против него. Подробности преступления Согласно заключению криминалистов, смерть наступила от удушения с сопутствующим утоплением (это дополнительная причина смерти). Сам Бейтс позвонил в службу 911 в 9:30 утра. Согласно показаниям обвиняемого, предыдущим вечером он пригласил к себе домой жертву и ещё двоих друзей, чтобы вместе посмотреть игру футбольной команды Razorback. Во время просмотра друзья распивали пиво и водку. Затем трое друзей решили принять джакузи, где продолжили употреблять спиртные напитки до 1:00 ночи. Затем Бейтс якобы пошёл спать, а утром нашёл труп в джакузи. В течение следующих нескольких дней следователи собрали большой массив цифровых данных, которые прояснили картину. Они выяснили, кому и какие текстовые сообщения отправлял обвиняемый, кому он звонил и в какое время. Попытки звонков зарегистрированы после 1:00, что ставит под сомнение правдивость его показаний. На руках Бейтса нашли царапины: он объяснил, что его поцарапал домашний кот. Это ещё одна улика. Были и другие косвенные улики. Например, показания умных счётчиков воды и электричества показали пики потребления между 1 и 3 часами, когда Бейтс якобы спал. Счётчики показали, что так много воды не использовалось в джакузи с октября 2013 года. Их третий товарищ имеет алиби благодаря своей жене и соседу, который видел, как пьяный мужчина возвращается домой в 12:30. Кроме косвенных улик, для обвинения Бейтса необходимы прямые улики, то есть свидетельские показания. И полиция нашла-таки, где искать эти свидетельские показания. Оказалось, что в доме Бейтса установлен «жучок» — колонка Amazon Echo по имени Алекса, оснащённая качественным микрофоном и функцией распознавания речи. Алекса на допросе Как стало известно изданию The Information , полиция предъявила компании Amazon ордер на изъятие информации, которую собрала умная колонка в квартире убийцы. Ордер касается аудиозаписей и другой информации, которую отправила Алекса на сервер компании. Однако Amazon не позволила полиции «допрашивать» Алексу. Компания опубликовала официальное заявление : «Amazon не разглашает пользовательскую информацию без корректного и обязывающего юридического требования, направленного нам. Разумеется, Amazon возражает против слишком широких или другим образом несоответствующих запросов». Этот юридический ответ можно интерпретировать так: «Допрашивать Алексу мы не дадим, но можем передать ей некоторые вопросы и она может на них ответить, если вопросы покажутся нам подходящими». Собственно, компания Amazon так и сделала. Она действительно передала полиции некоторую приватную информацию о Бейтсе, в том числе данные его учётной записи и список покупок. В то же время отказались сообщать о факте, обращалась ли Алекса к серверу Amazon в вечер убийства, и какие записи были сделаны. Представители полиции прокомментировали, что они имеют возможность разобрать само устройство, но не ясно, какая информация может там храниться. Колонка Echo отправляет информацию на сервер, поэтому полиция обратилась в компанию с ордером, чтобы получить любую возможную информацию. Вряд ли убийца спрашивал у Алексы совета по убийству, но полиция решила проверить эту версию (кстати, если в реальности спросить Алексу, как избавиться от трупа, она отвечает «Позвони в полицию» , но сама ничего не сообщает полиции). В этом расследовании были сбор данных с умных счётчиков воды и электричества, а также изучение умной колонки Amazon Echo — всё это показывает, как будут работать цифровые детективы будущего. Как и в деле Бейтса, полиция будет точно знать, когда вы открывали воду и сколько литров воды использовали, какая температура была в каждой комнате. И это только базовые возможности умных счётчиков и термостата. Распространение интеллектуальной компьютерной техники открывает новые возможности перед следователями. Возможно, в будущем улики с цифровых устройств «умного дома» и Интернета вещей позволит в малейших деталях восстановить события, которые происходили в любом доме. Адвокат Бейтса выразил озабоченность, что «полиция использует технологии, которые должны повысить наше качество жизни, против нас», но вряд ли правозащитники имеют тут право голоса.
https://geektimes.ru/post/284152/
habrahabr
Опыт построения Infrastructure-as-Code в VMware. Часть 1.1: Динамическая инвентаризация
['ansible', 'devops', 'vmware', 'infrastructure as code']
Приветствую, дорогой читатель! В предыдущей серии я рассказывал об опыте, сыне ошибок трудных, и обещал продолжить с модификацией Powershell скрипта. К сожалению, проект по этому направлению...
Приветствую, дорогой читатель! В предыдущей серии я рассказывал об опыте, сыне ошибок трудных, и обещал продолжить с модификацией Powershell скрипта. К сожалению, проект по этому направлению заморожен до следующего года, и чтобы не томить тебя ожиданиями, я решил поделиться своим «исследованием» в области динамической инвентаризации Vmware, что является промежуточной фазой для нашего проекта. Если твой парк виртуалок часто изменяется, то я настоятельно рекомендую ознакомиться с материалом. Первым делом, что я сделал, когда обнаружил этот коммент, это побежал к нашим инфраструктурщикам с вопросом «оно мне надо, велосипед пилить?». Ребята пояснили, что Vcloud это: Дорого. Окупается, когда у тебя распределенные датацентры на разных континентах. Овер9000 изменений в инфраструктуре и столько же виртуалок. Да и вообще, мы в AWS переезжаем, зачем нам. Зарядившись мотивацией («нам никто не поможет, кроме нас самих»), я полез в дебри изучения динамики. Не пойми меня неправильно, дорогой читатель, статичный инвентарь в Ansible штука очень удобная, да и вооружившись echo и sed в него тоже можно «писать динамически», но зачем? Ищем нужный скрипт На данный момент на Github в разделе contrib представлены следующие реализации динамического инвентаря: тот и этот . На просторах интернета еще нашелся такой вариант. Я его отбросил сразу — он тупо выгребает список всех машинок (без внутренностей), работает долго, логин и пароль для соединения с варей надо хардкодить. Иными словами — здорово чтобы поиграть, но не более. vmware.py тоже отпал, поскольку работает долго даже с кэшем (на моей машинке 30 минут без кэша, и 8 с кэшем), да и «глубина» погружения во внутренности виртуалки тоже не нравится. Так что мой выбор пал vmware_inventory.py — он очень гибок, с кэшем работает 2 секунды и дает мне возможность группировать по параметрам машинки. В первую очередь, большой и длинный INI файлик — конфигурация для работы с варей. vmware_inventory.ini # Ansible VMware external inventory script settings [vmware] # The resolvable hostname or ip address of the vsphere server=virtualcenter.example.com # The port for the vsphere API #port=443 # The username with access to the vsphere API username=example\vmware_reader # The password for the vsphere API password=supersecurepassword # Verify the server's SSL certificate validate_certs = False # Specify the number of seconds to use the inventory cache before it is # considered stale. If not defined, defaults to 0 seconds. cache_max_age = 86400 # Specify the directory used for storing the inventory cache. If not defined, # caching will be disabled. cache_path = ~/.cache/ansible # Max object level refers to the level of recursion the script will delve into # the objects returned from pyvomi to find serializable facts. The default # level of 0 is sufficient for most tasks and will be the most performant. # Beware that the recursion can exceed python's limit (causing traceback), # cause sluggish script performance and return huge blobs of facts. # If you do not know what you are doing, leave this set to 1. max_object_level=2 # Lower the keynames for facts to make addressing them easier. lower_var_keys=True # Host alias for objects in the inventory. VMWare allows duplicate VM names # so they can not be considered unique. Use this setting to alter the alias # returned for the hosts. Any atributes for the guest can be used to build # this alias. The default combines the config name and the config uuid and # expects that the ansible_host will be set by the host_pattern. alias_pattern={{ config.name }} # Host pattern is the value set for ansible_host and ansible_ssh_host, which # needs to be a hostname or ipaddress the ansible controlhost can reach. #host_pattern={{ guest.ipaddress }} # Host filters are a comma separated list of jinja patterns to remove # non-matching hosts from the final result. # EXAMPLES: # host_filters={{ config.guestid == 'rhel7_64Guest' }} # host_filters={{ config.cpuhotremoveenabled != False }},{{ runtime.maxmemoryusage >= 512 }} # host_filters={{ config.cpuhotremoveenabled != False }},{{ runtime.maxmemoryusage >= 512 }} # The default is only gueststate of 'running' host_filters={{ guest.gueststate == "running" }} # Groupby patterns enable the user to create groups via any possible jinja # expression. The resulting value will the groupname and the host will be added # to that group. Be careful to not make expressions that simply return True/False # because those values will become the literal group name. The patterns can be # comma delimited to create as many groups as necessary groupby_patterns={{ guest.guestid }},{{ 'templates' if config.template else 'guests'}} # The script attempts to recurse into virtualmachine objects and serialize # all available data. The serialization is comprehensive but slow. If the # vcenter environment is large and the desired properties are known, create # a 'properties' section in this config and make an arbitrary list of # key=value settings where the value is a path to a specific property. If # If this feature is enabled, be sure to fetch every property that is used # in the jinja expressions defined above. For performance tuning, reduce # the number of properties to the smallest amount possible and limit the # use of properties that are not direct attributes of vim.VirtualMachine #[properties] prop01=name prop04=config.instanceUuid prop05=config.hardware.numCPU prop06=config.template prop07=config.name prop08=guest.hostName prop09=guest.ipAddress prop11=guest.guestState prop12=runtime.maxMemoryUsage В первую очередь я рекомендую завести отдельного юзера для работы с варей. По сути нам нужен обычный пользователь, который может читать данные машинок, ресурспулов, папок и датасторов. Никаких прав на включение/выключение, создание/удаление виртуалок у него нет и не должно быть . Least privilege principle! Допольнительно подчеркиваю: Срок жизни кэша (cache_max_age) в секундах. Я выставил на сутки, но каждый раз когда будет создаваться машинка, кэш будет обновляться (запуск скрипта с опцией --refresh-cache). Также обновление будет раз в сутки ночью (точно также) Глубину рекурсии (max_object_level). Двойка здесь самый оптимальный вариант, чтобы получить ЕЩЕ больше метаданных о машинке. Больше метаданных — больше игр с группировками и фильтрацией. Но — больше json и больше времени работы скрипта. Паттерн машинки (alias_pattern) — по умолчанию идет {{ config.name + '_' + config.uuid }}, что делает название машинки нечитабельным, так что я убрал config.uuid Паттерны группировки (groupby_patterns) — вот это самая прелесть в скрипте. Позволяет группировать машины на основе метаданных. Группировать можно по всему от слова «совсем». Ресурспул, кастомный вар в нотах, сетка, location, даже название датастора. По умолчанию группируется по гестам (читай — по установленной ОС) Всякие очевидные вещи типа валидации сертификатов описывать не буду, но если попал в беду со скриптом — пиши в комментариях. Пробуем запустить. $ time ./vmware_inventory.py > fact_from_vm_py.json real 27m59.970s user 8m33.334s sys 0m7.841s Повторюсь, читатель, будь осторожен обновлением кэша, а то плейбуки будут медленнее черепашки! С кэшем весь инвентарь подгружается за секунду, и основное время работы скрипта занимает сканирование вари. Я не буду приводить весь выхлоп скрипта, приведу один единичный хост: Данных очень много "edin_host": { "resourcepool": { "_moId": "resgroup-14510", "name": "example-BI" }, "customvalue": [], "permission": [], "storage": { "timestamp": { "hour": 7, "min": {}, "max": {}, "month": 12, "second": 20, "microsecond": 859999, "year": 2016, "tzinfo": {}, "resolution": {}, "day": 22, "minute": 45 }, "perdatastoreusage": [] }, "configissue": [], "parentvapp": null, "tag": [], "recenttask": [], "resourceconfig": { "changeversion": null, "lastmodified": null, "memoryallocation": { "overheadlimit": 63, "reservation": 0, "limit": -1, "shares": {}, "expandablereservation": false }, "cpuallocation": { "overheadlimit": null, "reservation": 0, "limit": -1, "shares": {}, "expandablereservation": false }, "entity": { "resourcepool": { "_moId": "resgroup-14510", "name": "example-BI" }, "alarmactionsenabled": true, "configissue": [], "tag": [], "resourceconfig": {}, "datastore": [], "triggeredalarmstate": [], "layout": {}, "guest": {}, "effectiverole": [], "storage": {}, "layoutex": {}, "config": {}, "customvalue": [], "permission": [], "parentvapp": null, "recenttask": [], "availablefield": [], "overallstatus": "green", "network": [], "guestheartbeatstatus": "green", "name": "edin_host", "rootsnapshot": [], "configstatus": "green", "value": [], "summary": {}, "capability": {}, "snapshot": null, "runtime": {} } }, "availablefield": [ { "fieldinstanceprivileges": null, "fielddefprivileges": null, "name": "Service", "key": 101 }, { "fieldinstanceprivileges": null, "fielddefprivileges": null, "name": "Group", "key": 301 }, { "fieldinstanceprivileges": null, "fielddefprivileges": null, "name": "Role", "key": 103 }, { "fieldinstanceprivileges": null, "fielddefprivileges": null, "name": "Owner", "key": 104 }, { "fieldinstanceprivileges": null, "fielddefprivileges": null, "name": "Environment", "key": 102 } ], "datastore": [ { "_moId": "datastore-57683", "name": "mydatastore" } ], "summary": { "customvalue": [], "guest": { "toolsstatus": "toolsOk", "toolsversionstatus": "guestToolsUnmanaged", "hostname": "edin_host.example.com", "toolsrunningstatus": "guestToolsRunning", "guestid": "centos64Guest", "ipaddress": "192.168.1.1", "toolsversionstatus2": "guestToolsUnmanaged", "guestfullname": "CentOS 4/5/6/7 (64-bit)" }, "config": { "memoryreservation": 0, "product": null, "instanceuuid": "502c6c2d-8b58-a01c-4ce0-a18e0a65ac3a", "name": "edin_host", "numethernetcards": 1, "numcpu": 1, "installbootrequired": false, "guestid": "centos64Guest", "memorysizemb": 2048, "vmpathname": "[mydatastore] edin_host/edin_host.vmx", "template": false, "ftinfo": null, "uuid": "422c78f0-7401-3dbc-2790-9708af08bd03", "cpureservation": 0, "annotation": null, "numvirtualdisks": 2, "guestfullname": "CentOS 4/5/6/7 (64-bit)" }, "storage": { "timestamp": {}, "uncommitted": 1064, "unshared": 85899345920, "committed": 88272314106 }, "vm": { "resourcepool": { "_moId": "resgroup-14510", "name": "example-BI" }, "alarmactionsenabled": true, "configissue": [], "tag": [], "resourceconfig": {}, "datastore": [], "triggeredalarmstate": [], "layout": {}, "guest": {}, "effectiverole": [], "storage": {}, "layoutex": {}, "config": {}, "customvalue": [], "permission": [], "parentvapp": null, "recenttask": [], "availablefield": [], "overallstatus": "green", "network": [], "guestheartbeatstatus": "green", "name": "edin_host", "rootsnapshot": [], "configstatus": "green", "value": [], "summary": {}, "capability": {}, "snapshot": null, "runtime": {} }, "quickstats": { "ftsecondarylatency": -1, "privatememory": 1877, "compressedmemory": 0, "consumedoverheadmemory": 37, "swappedmemory": 0, "ftlatencystatus": "gray", "uptimeseconds": 1898839, "ssdswappedmemory": 0, "guestheartbeatstatus": "green", "distributedmemoryentitlement": 602, "staticcpuentitlement": 1905, "balloonedmemory": 0, "guestmemoryusage": 81, "overallcpuusage": 0, "overallcpudemand": 0, "staticmemoryentitlement": 2111, "ftlogbandwidth": -1, "distributedcpuentitlement": 0, "sharedmemory": 47, "hostmemoryusage": 1916 }, "runtime": { "powerstate": "poweredOn", "featuremask": [], "onlinestandby": false, "cleanpoweroff": null, "featurerequirement": [], "question": null, "boottime": {}, "maxmemoryusage": 2048, "offlinefeaturerequirement": [], "minrequiredevcmodekey": "intel-sandybridge", "toolsinstallermounted": false, "suspendinterval": 0, "memoryoverhead": null, "needsecondaryreason": null, "vflashcacheallocation": 0, "host": {}, "maxcpuusage": 1999, "device": [], "suspendtime": null, "recordreplaystate": "inactive", "consolidationneeded": false, "connectionstate": "connected", "dasvmprotection": {}, "faulttolerancestate": "notConfigured", "nummksconnections": 0 }, "overallstatus": "green" }, "overallstatus": "green", "ansible_host": "192.168.1.1", "triggeredalarmstate": [], "network": [ { "configstatus": "green", "customvalue": [], "name": "bi-acceptatie", "effectiverole": [], "permission": [], "configissue": [], "alarmactionsenabled": true, "vm": [], "value": [], "summary": {}, "host": [], "tag": [], "recenttask": [], "availablefield": [], "overallstatus": "green", "triggeredalarmstate": [] } ], "configstatus": "green", "guestheartbeatstatus": "green", "layout": { "logfile": [ "vmware-10.log", "vmware-11.log", "vmware-12.log", "vmware-13.log", "vmware-8.log", "vmware-9.log", "vmware.log" ], "configfile": [ "edin_host.nvram", "edin_host.vmsd" ], "disk": [], "snapshot": [], "swapfile": "[mydatastore] edin_host/edin_host-60ee652b.vswp" }, "guest": { "appheartbeatstatus": "appStatusGray", "interactiveguestoperationsready": false, "toolsversion": "2147483647", "toolsversionstatus": "guestToolsUnmanaged", "toolsrunningstatus": "guestToolsRunning", "ipaddress": "192.168.1.1", "screen": { "width": 1280, "height": 768 }, "guestfamily": "linuxGuest", "generationinfo": [], "ipstack": [], "gueststate": "running", "hostname": "edin_host.example.com", "guestid": "centos64Guest", "toolsstatus": "toolsOk", "net": [], "disk": [], "appstate": "none", "guestoperationsready": true, "toolsversionstatus2": "guestToolsUnmanaged", "guestfullname": "CentOS 4/5/6/7 (64-bit)" }, "effectiverole": [ -2 ], "rootsnapshot": [], "alarmactionsenabled": true, "value": [], "name": "edin_host", "capability": { "quiescedsnapshotssupported": true, "cpufeaturemasksupported": true, "consolepreferencessupported": false, "vpmcsupported": true, "featurerequirementsupported": true, "snapshotconfigsupported": true, "bootoptionssupported": true, "changetrackingsupported": true, "vmnpivwwnupdatesupported": true, "poweredonmonitortypechangesupported": true, "nestedhvsupported": true, "poweredoffsnapshotssupported": true, "settingvideoramsizesupported": true, "settingscreenresolutionsupported": false, "virtualmmuusagesupported": true, "sesparsedisksupported": true, "s1acpimanagementsupported": true, "reverttosnapshotsupported": true, "disksharessupported": true, "vmnpivwwndisablesupported": true, "disablesnapshotssupported": false, "swapplacementsupported": true, "bootretryoptionssupported": true, "memoryreservationlocksupported": true, "recordreplaysupported": true, "settingdisplaytopologysupported": false, "vmnpivwwnsupported": true, "npivwwnonnonrdmvmsupported": true, "toolsautoupdatesupported": false, "multiplecorespersocketsupported": true, "guestautolocksupported": true, "multiplesnapshotssupported": true, "snapshotoperationssupported": true, "toolssynctimesupported": true, "hostbasedreplicationsupported": true, "locksnapshotssupported": true, "memorysnapshotssupported": true }, "snapshot": null, "ansible_uuid": "39d641a6-9b9e-4ce0-b1f8-a4e8e38c9743", "layoutex": { "timestamp": { "hour": 7, "min": {}, "max": {}, "month": 12, "second": 20, "microsecond": 860550, "year": 2016, "tzinfo": {}, "resolution": {}, "day": 22, "minute": 45 }, "disk": [], "snapshot": [], "file": [] }, "runtime": { "powerstate": "poweredOn", "featuremask": [], "onlinestandby": false, "cleanpoweroff": null, "featurerequirement": [], "question": null, "boottime": { "hour": 9, "min": {}, "max": {}, "month": 11, "second": 31, "microsecond": 402054, "year": 2016, "tzinfo": {}, "resolution": {}, "day": 30, "minute": 42 }, "maxmemoryusage": 2048, "offlinefeaturerequirement": [], "minrequiredevcmodekey": "intel-sandybridge", "toolsinstallermounted": false, "suspendinterval": 0, "memoryoverhead": null, "needsecondaryreason": null, "vflashcacheallocation": 0, "host": { "alarmactionsenabled": true, "configissue": [], "vm": [], "hardware": {}, "tag": [], "datastore": [], "triggeredalarmstate": [], "network": [], "effectiverole": [], "datastorebrowser": {}, "config": {}, "customvalue": [], "permission": [], "systemresources": {}, "configmanager": {}, "recenttask": [], "availablefield": [], "overallstatus": "green", "name": "esx1.example.com", "configstatus": "green", "value": [], "summary": {}, "capability": {}, "licensableresource": {}, "runtime": {} }, "maxcpuusage": 1999, "device": [], "suspendtime": null, "recordreplaystate": "inactive", "consolidationneeded": false, "connectionstate": "connected", "dasvmprotection": { "dasprotected": true }, "faulttolerancestate": "notConfigured", "nummksconnections": 0 }, "config": { "uuid": "422c78f0-7401-3dbc-2790-9708af08bd03", "alternateguestname": "", "npivonnonrdmdisks": null, "instanceuuid": "502c6c2d-8b58-a01c-4ce0-a18e0a65ac3a", "cpuaffinity": null, "npivdesirednodewwns": null, "memoryhotaddenabled": true, "hardware": { "virtualich7mpresent": false, "numcpu": 1, "virtualsmcpresent": false, "memorymb": 2048, "device": [], "numcorespersocket": 1 }, "vappconfig": null, "tools": { "beforegueststandby": true, "beforeguestreboot": null, "beforeguestshutdown": true, "toolsupgradepolicy": "manual", "afterresume": true, "afterpoweron": true, "synctimewithhost": false, "lastinstallinfo": {}, "pendingcustomization": null, "toolsversion": 2147483647 }, "guestfullname": "CentOS 4/5/6/7 (64-bit)", "changeversion": "2016-11-30T09:42:11.343789Z", "defaultpowerops": { "defaultresettype": "soft", "defaultsuspendtype": "hard", "suspendtype": "hard", "standbyaction": "powerOnSuspend", "defaultpowerofftype": "soft", "resettype": "soft", "powerofftype": "soft" }, "cpuhotremoveenabled": false, "vpmcenabled": false, "firmware": "bios", "npivworldwidenametype": null, "nestedhvenabled": false, "version": "vmx-11", "locationid": "564da59f-ac2b-54e9-c006-84e06f757410", "maxmksconnections": 40, "template": false, "guestid": "centos64Guest", "bootoptions": { "enterbiossetup": false, "bootorder": [], "bootdelay": 0, "bootretryenabled": false, "bootretrydelay": 10000 }, "cpufeaturemask": [], "hotplugmemorylimit": 3072, "npivnodeworldwidename": [], "cpuallocation": { "overheadlimit": null, "reservation": 0, "limit": -1, "shares": {}, "expandablereservation": false }, "files": { "vmpathname": "[mydatastore] edin_host/edin_host.vmx", "snapshotdirectory": "[mydatastore] edin_host/", "suspenddirectory": "[mydatastore] edint_host/", "logdirectory": "[mydatastore] edin_host/" }, "memoryreservationlockedtomax": false, "scheduledhardwareupgradeinfo": { "fault": null, "upgradepolicy": "never", "versionkey": null, "scheduledhardwareupgradestatus": "none" }, "initialoverhead": null, "hotplugmemoryincrementsize": 128, "guestautolockenabled": false, "latencysensitivity": { "sensitivity": null, "level": "normal" }, "npivtemporarydisabled": true, "memoryallocation": { "overheadlimit": 63, "reservation": 0, "limit": -1, "shares": {}, "expandablereservation": false }, "ftinfo": null, "npivportworldwidename": [], "annotation": null, "memoryaffinity": null, "vassertsenabled": false, "datastoreurl": [], "changetrackingenabled": false, "name": "edin_host", "npivdesiredportwwns": null, "vflashcachereservation": 0, "extraconfig": [], "networkshaper": null, "modified": { "hour": 0, "min": {}, "max": {}, "month": 1, "second": 0, "microsecond": 0, "year": 1970, "tzinfo": {}, "resolution": {}, "day": 1, "minute": 0 }, "consolepreferences": null, "swapplacement": "inherit", "flags": { "diskuuidenabled": false, "snapshotdisabled": false, "recordreplayenabled": false, "runwithdebuginfo": false, "virtualmmuusage": "automatic", "enablelogging": true, "snapshotpoweroffbehavior": "powerOff", "snapshotlocked": false, "htsharing": "any", "disableacceleration": false, "monitortype": "release", "virtualexecusage": "hvAuto", "usetoe": false }, "cpuhotaddenabled": true }, "ansible_ssh_host": "192.168.1.1" Здорово, правда? :) Как я уже сказал, количество метаданных также регулируется max_object_level, так что если данных уж слишком много — опустите до 1. Работаем со скриптом. Пользоваться можно двумя способами: либо кладем скрипт с настройками в папку наших инвентарей, либо задаем инвентарь вручную: ansible all -i /path/to/my/vmware_inventory.py -m setup Чем мне нравится модуль setup — он не требует подключения, а просто прогоняется по машинкам. Дальше уже можно экспериментировать, причем использовать метаданные виртуалки можно и в обработке условий. Для чистоты эксперимента я буду фильтровать по ресурс пулу. Если при запуске Ansible поругается, то необходимо удалить комментарии в начале скрипта. Пример номер 1 - name: example 1 hosts: mail-scanner* gather_facts: False tasks: - name: say the name of the machine debug: msg: "Hello from {{ hostvars[inventory_hostname].resourcepool.name }}!" В этом примере я беру несколько одноименных хостов и вывожу переменную, взятую не из Ansible facts, а именно из метаданных машины. Пример номер 2 --- - name: example nr2 hosts: all gather_facts: False vars: resource_pool: "{{ hostvars[inventory_hostname].resourcepool._moId }}" tasks: - name: say hello, if in RP debug: msg: "Hello, fron {{ hostvars[inventory_hostname].name }}" when: resource_pool == "resgroup-1" Здесь приходится применять грязный хак, поскольку квадратные скобки не хотят нормально обрабатываться в блоке when, поэтому сначала я декларирую переменную, а затем сверяюсь. Если машинка в ресурс пуле, Ansible вернет мне ее имя. Пример номер 3 Делать подобные выкрутасы можно и в ролях. -- - name: example nr3 hosts: centos64Guest gather_facts: False vars: resource_pool: "{{ hostvars[inventory_hostname].resourcepool._moId }}" roles: - { role: myrole, when: resource_pool == "resgroup-1" } Дорогой читатель, возможности использования метаданных ограничиваются лишь твоей фантазией! Группируем по-своему Здорово использовать метаданные для фильтрации в when, но это не решает проблему пробега по всем машинам — нам же хочется группировать машины на уровне скрипта. Для этого мы еще раз поиграем с настройкой groupby_patterns. К примеру, если выставить значение {{ resourcepool.name }} то группироваться будет по имени ресурс пула. Группировать еще можно по имени виртуальной сети ({{ network.name }}) или по таге ({{ tag }}) Какой способ лучше решать уже тебе, читатель. P.S. Кстати, можно делать связку групп-родителей и групп-детей в статическом инвентаре. Подробно это описано в документации Ansible (пусть и на примере AWS).
https://habrahabr.ru/post/318620/
habrahabr
«Вояджеры» помогли прояснить структуру гелиосферы Солнечной системы
['вояджеры', 'гелиопауза', 'Солнечная система']
Альфа Центавра a и b, ближайшие соседние к нам звезды Границы Солнечной системы находятся гораздо дальше последней орбиты планеты или планетоида. Можно сказать, что границами нашей системы...
Альфа Центавра a и b, ближайшие соседние к нам звезды Границы Солнечной системы находятся гораздо дальше последней орбиты планеты или планетоида. Можно сказать, что границами нашей системы являются стенки гелиосферы. Сама гелиосфера — это область околосолнечного пространства, где плазма солнечного ветра движется относительно Солнца со сверхзвуковой скоростью. Википедия говорит нам , что снаружи гелиосфера ограничена так называемой бесстолкновительной ударной волной. Она возникает в солнечном ветре из-за его взаимодействия с межзвездной плазмой и межзвездным магнитным полем. До гелиопаузы — внешних границ гелиосферы Солнца — человек еще не добрался, если иметь в виду пилотируемую экспедицию. Зато до этих пределов дошли два автоматических зонда, которые были запущены много лет назад: это «Вояджер-1» и «Вояджер-2». Что касается первого зонда, то в 2012 году вышел в пространство, где нет давления солнечного ветра. Тогда приборы устройства пять раз фиксировали скачки количества протонов и ядер ядер гелия с энергией 1,9-2,7 МэВ в окружающем пространстве, при неизменности плотности частиц с другими зарядами. По словам экспертов, это говорит о пятикратном пересечении гелиопаузы. 20 марта почётный профессор астрономии из университета Нью-Мексико Билл Веббер официально сообщил , что «Вояджер-1» всё-таки вышел за пределы Солнечной системы, и случилось это 25 августа 2012 года на расстоянии 121,7 а.е. от Солнца. С тех пор интенсивность излучения 1,9-2,7 МэВ уменьшилась в 300-500 раз. Сейчас пересекает гелиопаузу «Вояджер-2». Он тоже вскоре покинет Солнечную систему, но приборы аппарата фиксируют несколько иную картину происходящего при уходе в межзвездное космическое пространство. Об этом заявил Эд Стоун, экс-директор Лаборатории реактивного движения НАСА. Свое аявление он сделал на Конференции геофизического союза, которая проходила на прошлой неделе. Так вот, «Вояджер-1», как считают ученые, зафиксировал так называемые галактические космические лучи. А вот «Вояджер-2», пересекая границу Солнечной системы, никаких лучей не обнаружил . В этом случае интенсивность частиц оставалась все время на одном уровне. Возможно, говорит Стоун, разница обусловлена тем, что сейчас мы находимся в активной фазе солнечного цикла. Солнечный ветер по этой причине довольно мощный, и число космических лучей, пересекающих границу Солнечной системы, не слишком велико. Совсем иная ситуация наблюдалась, когда границу пересекал «Вояджер-1». Тогда активность Солнца была ниже, чем сейчас, и большее число галактических лучей прорывалось через «рубеж». «Благодаря этой информации мы получили больше данных о том, насколько мощными могут быть барьеры нашего пузыря», — говорит Стоун. Данные, получаемые приборами «Вояджера-2» также указывают на то, что внутри гелиощита солнечный ветер приобретает закрученную форму и отклоняется от общего потока, образуя достаточно длинный хвост, который кому-то может напомнить хвост кометы. Ранее считалось, что именно такой и должна быть ситуация на границе Солнечной системы. Но «Вояджер-1» ни с чем таким не столкнулся. Он зафиксировал снижение скорости ветра при сохранении направления его движения. А вот «Вояджер-2» смог заметить совсем иное. Сейчас зонд «Вояджер-1», который находится на расстоянии около 137 астрономических единиц от Солнца, движется в сторону созвездия Змееносца. Это созвездие находится на севере от солнечного экватора. Что касается «Вояджера-2», то этот аппарат находится от нас на расстоянии примерно 113 астрономических единиц. Он движется в другую сторону — в сторону созвездия Павлина, находящегося на юге. Вероятно, в межзвёздном пространстве аппарат окажется уже в ближайшие годы. По мнению Стоуна, информация, передаваемая «Вояджерами», помогает понять, как взаимодействуют звезды с околозвездным космическим пространством. Раньше специалисты могли только строить прогнозы и делать предположения. Сейчас же в руках специалистов оказались надежные данные, полученные двумя зондами «Вояджер». Как уже говорилось выше, эти аппараты проработали уже много лет, и еще около двадцати лет они будут продолжать функционировать. Правда, у систем осталось совсем мало плутония-238, энергия распада которого и используется зондами. Уже через пару десятков лет зонды замолчат навсегда. Сейчас ученые понемногу отключают некоторые модули аппаратов, поскольку для работы всех модулей зондов уже не хватит генерируемой РИТЭГ энергии. Пока что движение «Вояджеров» продолжается, данные регулярно поступают на Землю и ученые тщательно их анализируют. Кстати, именно анализ сигналов устройства позволил более детально изучить Уран и спутники этой планеты-гиганта. Дело в том, что мимо этой планеты 30 лет назад пролетал «Вояджер-2», который смог собрать информацию об этой планете и ее спутниках. Благодаря именно этим данным астрономам из Университета Айдахо удалось выяснить, что у планеты может еще быть два небольших спутника, которые вполне могут располагаться в двух кольцах Урана, что усложняет выявление этих планетоидов.
https://geektimes.ru/post/284158/
habrahabr
Зимнее небо для новогодних каникул
['астрономия', 'красиво']
Часть свободного времени новогодних каникул стоит выделить на звездное небо над нами. Там, как всегда, будет интересно — парад планет, небольшой метеорный поток и красивые неастрономические...
Часть свободного времени новогодних каникул стоит выделить на звездное небо над нами. Там, как всегда, будет интересно — парад планет, небольшой метеорный поток и красивые неастрономические явления. Фото пользователя Upsilon Астрофорума Два астрономических парадокса Прежде чем перейти к красотам, придется немного вас разочаровать. Если вы думаете, что после дня зимнего солнцестояния утро уже наступает раньше, то для территории России это не так. Уже многим успело надоесть ехать на работу в темноте, но до самого конца декабря Солнце будет вставать позже. Да, световой день увеличивается, но это происходит за счет более позднего захода Солнца. Вот, например, график для Уфы: Если поиграть с ресурсами , показывающими время восхода и заката Солнца, видно, что в южном полушарии ситуация обратная — там Солнце уже с начала месяца начинает вставать все позже. Второй парадокс состоит в том, что Земля проходит свой перицентр в 2017 году вечером 4 января и в этот момент будет ближе всего к Солнцу. Что же так холодно, спросите вы, и я напомню, что из-за почти круговой орбиты Земля в перигелии (ближайшая к Солнцу точка) получает всего лишь на 7% больше солнечной энергии, чем в афелии (самая дальняя точка), а смену сезонов определяет главным образом наклон оси вращения Земли. Парад планет На вечернем небе конца декабря в линию выстроятся аж пять планет, но невооруженным глазом можно будет заметить только две из них. Венера, Марс, Уран, Нептун будут над горизонтом декабрьскими и январскими вечерами, а Меркурий в ближайшие дни «перепрыгнет» на утреннее небо. Но без телескопа Уран и Нептун вы не увидите, а наблюдения Меркурия затруднены небольшим удалением от Солнца. Кстати, на утреннем небе недалеко будет Сатурн, и, несмотря на то, что все шесть планет нельзя увидеть одновременно, это будет полноценный парад планет в секторе всего лишь 70°. Для тех, кто не будет спать Если вам повезет с погодой 31 декабря, то над вашими головами будет вращаться величественная картина. Невооруженным глазом после захода Солнца будут отлично видны Марс и Венера, в январе они поднимутся еще повыше. На северо-западе будет скрываться за горизонтом летне-осенний треугольник Веги, Денеба и Альтаира. На севере низко над горизонтом устроится Большая Медведица Фото пользователя pavel S Астрофорума А на востоке появляется полновластный хозяин зимы — Орион. Около него много интересного. Бетельгейзе, Процион и Сириус образуют зимний треугольник, а Сириус, Процион, Поллукс и Кастор, Капелла, Альдебаран, Ригель — зимний круг. Кроме того, справа от Ориона хорошо видны Плеяды и чуть больше разбросанные Гиады. На фото это еще красивее. Фото пользователя Dolph1n Астрофорума Фото пользователя Гражданин Вселенной Астрофорума Фото пользователя Upsilon Астрофорума А под утро взойдет Юпитер. Метеорные потоки В ночь с 3 на 4 января будет максимум метеорного потока Квадрантиды. В прошлом году активность была так себе, но вдруг кому повезет? Фото пользователя VLANN Астрофорума Кометы Сейчас на небе нет ни одной видимой глазу кометы. Но в телескоп можно разглядеть комету 45P/Хонды-Мркоса-Пайдушаковой. Фото взято со страницы группы AstroAlert «Наблюдательная астрономия» С кометами небольшая надежда есть на февраль, когда эта же комета 45P/Хонды-Мркоса-Пайдушаковой пройдет всего в 0,08 астрономической единицы (12 миллионов километров) от Земли и, если повезет, сможет стать видимой в бинокли или даже невооруженным глазом. Неастрономические явления Зимой длинные ночи, это чисто статистически повышает вероятность увидеть северное сияние. Да, до средних широт они доходят редко, но сияния весны и лета 2015 года дразнят постоянно могущими выпасть шансами. Фото пользователя Dolph1n Астрофорума Зимой в атмосфере чаще встречаются кристаллики льда, которые могут преломлять свет и создавать гало, ложные солнца и солнечные столбы. Вот общая схема. В реальности невелики шансы, что в атмосфере будут все типы ледяных кристаллов, и обычно выпадают один-два вида. Фото пользователя Mirasun Астрофорума Фото пользователя granat Астрофорума Фото пользователя Анатолий Белкин Астрофорума Гало может быть и лунным. Фото пользователя Marat (Kukuksumushu) Астрофорума А изобилие искуственных источников света зимой часто создает лес световых столбов, которые образуются по тому же принципу. Оба фото пользователя ЖЖ denisanikin А здесь приземная инверсия загибает дым из труб. У земли штиль, но начиная с какой-то высоты появляется ветер, и дым красиво поворачивается. Такое явление тоже чаще встречается зимой. Фото пользователя Олег1774 Астрофорума В небе много красоты самой разной природы. Не зевайте.
https://geektimes.ru/post/284102/
habrahabr
Разработка для Sailfish OS: работа с уведомлениями на примере приложения для ведения заметок
['sailfish os', 'qml', 'notifications', 'notes', 'evernote']
Здравствуйте! Данная статья является продолжением цикла статей, посвященных разработке приложений для мобильной платформы Sailfish OS. На этот раз речь пойдет о приложении для ведения заметок,...
Здравствуйте! Данная статья является продолжением цикла статей, посвященных разработке приложений для мобильной платформы Sailfish OS. На этот раз речь пойдет о приложении для ведения заметок, позволяющее пользователю хранить записи, помечать их тэгами, добавлять к ним изображения, фотографии, напоминания, а так же синхронизировать с учетной записью Evernote. Начнем статью с обширного описания пользовательского интерфейса приложения , а потом перейдем к техническим деталям . Описание приложения Главный экран приложения представляет собой список записей пользователя, где на каждом элементе списка отображается заголовок заметки, ее описание (или его часть, если описание не умещается полностью), а так же изображение, если оно добавлено. Элементы списка так же имеют контекстное меню, позволяющее удалить заметку или открыть диалог для ее редактирования. А по нажатию на элемент списка открывается экран показывающий всю информацию о данной заметке. Поговорим детально о пользовательском интерфейсе приложения. Главный экран приложения представляет собой список записей пользователя, где на каждом элементе списка отображается заголовок заметки, ее описание (или его часть, если описание не умещается полностью), а так же изображение, если оно добавлено. Элементы списка так же имеют контекстное меню, позволяющее удалить заметку или открыть диалог для ее редактирования. А по нажатию на элемент списка открывается экран показывающий всю информацию о данной заметке. Главный экран приложения так же содержит элементы PullDownMenu и PushUpMenu . В PullDownMenu находится лишь один пункт меню, открывающий диалог для добавления новой заметки. В PushUpMenu находится два пункта: первый открывает окно со списком всех тэгов, второй — окно настроек. Диалог для добавления/редактирования заметки содержит текстовые поля для ввода тэгов, заголовка и описания, а так же кнопки для добавления изображения, фото и напоминания. По нажатию на кнопку «Add a picture» открывается диалог, позволяющий пользователю нарисовать или написать что-либо на экране и добавить это изображение к заметке. А по нажатию на кнопку «Add a photo» открывается камера устройства и по нажатию на экран фотография так же, как и изображение, добавляется к заметке. Кнопка для добавления напоминания открывает диалог, позволяющий настроить дату и время напоминания, используя стандартные компоненты DatePickerDialog и TimePickerDialog . Экран «Tags» представляет собой список всех тэгов, добавленных к заметкам. По нажатию на тэг в списке мы попадем на экран, содержащий только записи, помеченные данным тэгом. Все манипуляции с заметками (просмотр информации, редактирование, удаление и добавление новых) доступны нам и с этого экрана. Экран настроек содержит содержит один пункт «Login via Evernote», который после выполнения авторизации меняется на два пункта: «Logout from Evernote» и «Synchronize data». Первый позволяет выйти из аккаунта Evernote и отключить синхронизацию данных, а второй — запустить процесс синхронизации вручную. Так же синхронизация запускается автоматически при изменении данных. Nemo QML Plugin Notifications В данной статье было решено акцентировать внимание на работе с уведомлениями в Sailfish OS. Для работы с уведомлениями Sailfish SDK предоставляет плагин Nemo QML Plugin Notifications . Плагин содержит два класса: QML класс Notification для создания уведомлений внутри QML кода; C++ класс Notification для создания уведомлений внутри C++ кода. Класс Notification позволяет создавать экземпляры уведомлений, которые могут быть использованы для связи с Lipstick Notification Manager с помощью D-Bus. О том, что такое D-Bus и как с ним работать мы уже писали в одной из предыдущих статей . Обязательно ознакомьтесь с ней, если еще не сделали этого. Уведомления формируются с помощью некоторых параметров. Перечислим основные: appIcon — путь к иконке приложения, которая будет отображена вместе с самим уведомлением; appName — имя приложения, помимо иконки уведомление может отображать и его; summary — заголовок уведомления, отображаемый на панели уведомлений; previewSummary — заголовок уведомления, отображаемый в баннере уведомлений сверху экрана; body — «тело» уведомления, его описание, отображаемое на панели уведомлений; previewBody — описание уведомления, отображаемое в баннере уведомлений; itemCount — количество уведомлений, отображаемых одним элементом. Например, одно уведомление может отображать до 4-х пропущенных звонков, если параметр itemCount имеет значение 4; timestamp — метка времени события, с которым связано уведомление, никак не влияет на создание самого уведомления и не является временем, когда уведомление будет показано; remoteActions — список объектов со свойствами «name», «service», «path», «iface», «method», «displayName», «icon» и «arguments», определяет возможные действия по нажатию на созданное уведомление. Подробнее о remoteActions поговорим ниже. О всех параметрах уведомлений можно прочитать в официальной документации , а ниже приведем пример создания уведомления в QML. Button { Notification { id: notification appName: "Example App" appIcon: "/usr/share/example-app/icon-l-application" summary: "Notification summary" body: "Notification body" previewSummary: "Notification preview summary" previewBody: "Notification preview body" itemCount: 5 timestamp: "2013-02-20 18:21:00" remoteActions: [{ "name": "default", "service": "com.example.service", "path": "/com/example/service", "iface": "com.example.service", "method": "trigger" "arguments": [ "argument 1" ] }] } onClicked: notification.publish() } По коду несложно понять, что по клику на описанную кнопку происходит вызов метода publish() . Метод publish() публикует наше уведомление в Notification Manager и отображает на экране устройства. Как говорилось выше, мы можем настраивать действия связанные с уведомлением. Пример, напрашивающийся сам — открывать приложение по нажатию на уведомление. Уведомления работают через D-Bus, поэтому первое, что нам нужно — создать собственный сервис D-Bus. Для этого сначала добавим в корень проекта директорию dbus и создадим там файл с расширением *.service со следующим содержанием: [D-BUS Service] Interface=/com/example/service Name=com.example.service Exec=/usr/bin/invoker --type=silica-qt5 --desktop-file=example.desktop -s /usr/bin/example Советуем использовать одно имя для имени сервиса (параметр Name ) и имени самого файла, чтобы избежать путаницы в дальнейшем. Так же обратите внимание на то, что в параметре Exec используются пути до *.desktop файла вашего проекта и самого приложения на устройстве, здесь вместо «example» Вы должны использовать имя проекта. Далее необходимо прописать пути до сервиса D-Bus в *.pro файле. ... dbus.files = dbus/com.example.service.service dbus.path = /usr/share/dbus-1/services/ INSTALLS += dbus ... А также в *.spec файле. ... %files %{_datadir}/dbus-1/services ... Чтобы иметь возможность связать действие над уведомлением с приложением, необходимо создать DBusAdaptor . DBusAdaptor — объект, предоставляющий возможность взаимодействовать с D-Bus сервисом. DBusAdaptor { service: 'com.example.service' iface: 'com.example.service' path: '/com/example/service' xml: ' <interface name="com.example.service">\n' + ' <method name="trigger">\n' + ' <arg name="param" type="s" access="readwrite"/>\n"' + ' </method">\n' + ' </interface>\n' function trigger(param) { console.log('param:', param); __silica_applicationwindow_instance.activate(); } } Свойства service и iface являются именем зарегистрированного нами D-Bus сервиса, а свойство path — путь до объекта сервиса в файловой системе устройства. Особый интерес представляет свойство xml . Оно описывает содержимое сервиса, а именно имя метода, который может быть вызван, и его аргументы. Здесь мы используем в качестве метода сервиса функцию trigger() , которая принимает на вход строку и выводит ее в консоль, а так же открывает приложение вызовом метода activate() на объекте ApplicationWindow . Теперь нам необходимо связать наше действие с созданным уведомлением. В этом нам поможет свойство remoteActions класса Notification . Button { Notification { ... remoteActions: [{ "name": "default", "service": "com.example.service", "path": "/com/example/service", "iface": "com.example.service", "method": "trigger" "arguments": [ "argument 1" ] }] } onClicked: notification.publish() } В remoteActions описываем параметры service , path и iface для связи с D-Bus сервисом. Параметр method есть имя метода сервиса, а в свойстве arguments передаем список параметров для метода. И на этом все. Теперь по нажатию на уведомление будет вызываться метод D-Bus сервиса, открывающий приложение. Одной особенностью работы с уведомлениями является то, что для их отображения при закрытом приложении потребуется активный демон, управляющий сервисом, зарегистрированным в D-Bus. Поскольку после закрытия сервис разрегистрируется. Об этом написано и в Sailfish FAQ . Работа с уведомлениями в приложении Для реализации работы с уведомлениями в приложении мы использовали С++ класс Notification . Уведомления в приложении состоят из заголовка и описания заметки, к которой добавлено напоминание, поэтому нас интересуют только следующие свойства класса: summary , body , previewSummary и previewBody . Само собой нас так же интересует метод publish() . Для управления уведомлениями нами был создан класс NotificationManager , содержащий два метода publishNotification() и removeNotification() . Первый необходим для создания и отображения напоминания, второй — для удаления напоминания. Стоит отметить, что класс Notification не предоставляет возможности установить время показа уведомления, метод publish() отображает уведомление ровно в тот момент, когда он (метод) был вызван. Эта проблему мы решили использованием таймера (класса QTimer ) для управления временем показа уведомления. А так как заметок с напоминаниями может быть несколько, то и таких таймеров тоже должно быть несколько. Поэтому в классе NotificationManager был создан хэш ( QHash ), ключом которого является id заметки в базе данных, а значением — QTimer . class NotificationManager : public QObject { Q_OBJECT public: explicit NotificationManager(QObject *parent = 0); Q_INVOKABLE void publishNotification(const int noteId, const QString &summary, const QString &body, QDateTime dateTime); Q_INVOKABLE void removeNotification(const int noteId); private: QHash<int, QTimer*> timers; }; Рассмотрим подробнее реализацию метода publishNotification() . В качестве аргументов он принимает id заметки в базе данных, заголовок и описание уведомления, а так же дату и время, когда уведомление должно быть показано. Первым делом метод создает новый таймер и связывает его сигнал timeout() со слотом, описанным лямбда-функцией. В лямбда-функции происходит создание и настройка уведомления, а так же вызов метода publish() . После того, как уведомление было показано, мы останавливаем наш таймер. Так же метод publishNotification() проверяет был ли таймер с таким id записи уже добавлен в наш хэш, и если это так, то удаляет его из хэша. Далее запускаем таймер и устанавливаем, через какое время (в миллисекундах) он должен остановиться и добавляем новый таймер в хэш. void NotificationManager::publishNotification(const int noteId, const QString &summary, const QString &body, QDateTime dateTime) { QTimer *timer = new QTimer(); connect(timer, &QTimer::timeout, [summary, body, timer](){ Notification notification; notification.setSummary(summary); notification.setBody(body); notification.setPreviewSummary(summary); notification.setPreviewBody(body); notification.publish(); timer->stop(); }); if (this->timers.contains(noteId)) removeNotification(noteId); timer->start(QDateTime::currentDateTime().secsTo(dateTime) * 1000); this->timers[noteId] = timer; } Метод removeNotification() выглядит гораздо проще. В качестве параметра он принимает только id заметки, для которой нужно удалить уведомление. Метод проверяет, что таймер с данным id уже есть в хэше с таймерами, и если это так, то останавливает таймер и удаляет его из хэша. void NotificationManager::removeNotification(const int noteId) { if (this->timers.contains(noteId)) { this->timers.value(noteId)->stop(); this->timers.remove(noteId); } } Заключение В результате было создано приложение с широким функционалом, позволяющее хранить заметки с изображениями, тэгами и напоминаниями и синхронизировать их с Evernote. Приложение было опубликовано в магазине приложений Jolla Harbour под названием SailNotes и доступно для скачивания всем желающим. Исходники приложения доступны на GitHub . Технические вопросы можно также обсудить на канале русскоязычного сообщества Sailfish OS в Telegram или группе ВКонтакте . Автор: Иван Щитов
https://habrahabr.ru/post/317738/
habrahabr
A fistful of relays. Часть 3 — декодер команд и управляющий автомат
['реле', 'странные компьютеры']
Моя коллекция старых компьютеров пополняется не очень быстро, поэтому я делаю старый компьютер своими руками. Он работает полностью на электромагнитных реле и будет состоять из четырех...
Моя коллекция старых компьютеров пополняется не очень быстро, поэтому я делаю старый компьютер своими руками . Он работает полностью на электромагнитных реле и будет состоять из четырех блоков. На сегодняшний день я закончил уже три из них: АЛУ, регистровый файл и управляющий модуль, который декодирует инструкции раздает остальным блокам указания что делать. Тёплый ламповый щелкающий звук тактового генератора: Архитектура Сначала я думал над гарвардской архитектурой для компьютера, но потом решил, что данные удобнее будет вводить из того же ПЗУ, что и программы. Поэтому теперь у меня будет 8-битная шина адреса и 16-битная шина данных. Все 16 бит используются для чтения кода инструкции и для передачи двух операндов в АЛУ. Данные же считываются в регистр через младшие 8 бит этой шины. Все инструкции имеют одинаковую ширину, поэтому их чтение получилось совсем простым — достаточно защёлкнуть то, что пришло по шине данных. При этом те же самые реле частично выполняют функции декодирования инструкций, ведь в каждом из них по 4 переключателя. В результате загрузкой, хранением и декодированием кода инструкции занимаются всего 46 реле, что меньше, чем у HPRC , который я использовал как образец. Каждая инструкция выполняется за 10 тактов. Так много нужно потому что реле не могут срабатывать по фронту сигнала как микросхемы с несколькими параллельными входами. Приходится выделять целый такт на защёлкивание результата, например. Некоторым командам требуется на 1-2 такта меньше, но я не стал усложнять схему, поэтому эти 10 тактов пробегают всегда: Система команд Команды процессора похожи на ARM — результат вычислений можно поместить в любой регистр. Например, возможна такая безумная операция как XOR PC, A, B. При вызове функции адрес возврата кладётся в регистр L (link register). Обращения к памяти только с помощью отдельных инструкций загрузки (но памяти всё равно пока нет). Зато, в отличие от ARM, ширина кода инструкции значительно больше ширины регистров. Благодаря этому все загрузки констант, адресов, а также переходы кодируются одной инструкцией. Есть флаги условного выполнения для переходов — можно проверять знак результата вычислений, равенство нулю и переполнение. Инструкции MOV, CALL и JUMP кодируются почти одинаково, да и делают почти одно и то же. JUMP — это просто пересылка значения в PC. Поэтому есть приятный побочный эффект — для MOV также работает возможность условного выполнения. Т.е. можно выполнить (или не выполнить) MOV NZ, A, 255. Кроме загрузок и пересылок управляющий модуль умеет подключать регистры к АЛУ и получать результат из него. АЛУ делает сложение, вычитание, OR, XOR, AND, NOT, разные сдвиги на 1 бит. Причём в инструкциях АЛУ есть флаг, который отключает запись результата. То есть команда работает как CMP или TEST на x86, но при этом можно выбрать любую операцию. Например, проверить флаги, как если бы выполнился OR, но не портить никаких регистров. А теперь попробуем со всем этим взлететь Сейчас у компьютера нет никакой памяти кроме регистров, поэтому выполняемую инструкцию можно набрать с помощью тумблеров. Зато потом он может делать ее до бесконечности: Поддерживаются две частоты тактовых импульсов. Более медленный режим нужен для наблюдения за происходящим внутри компьютера: Никакой отладчик не нужен — дамп регистров считывается просто глазами: Что потом? Дальше осталось реализовать запоминающие устройства. Сейчас уже готов корпус для модуля, где они будут располагаться, так что скоро можно будет запустить программу сразу из нескольких инструкций. » Страница проекта на github » Первая часть описания » Вторая часть описания
https://habrahabr.ru/post/318500/
habrahabr
Как мы устроили квест в Telegram, и что из этого вышло. UPD: мы подвели итоги конкурса
['telegram', 'бот', 'боты', 'разработка', 'игромир', 'решение проблем', 'kingston technology']
Привет, Гиктаймс! В уходящем году мы запустили одну штуку, которая нам понравилась, и мы собираемся продолжать. Речь идет про наш канал и бот в Telegram, и конкурсе, который мы запускаем сегодня...
Привет, Гиктаймс! В уходящем году мы запустили одну штуку, которая нам понравилась, и мы собираемся продолжать. Речь идет про наш канал и бот в Telegram, и конкурсе, который мы запускаем сегодня для вас. Но обо все по порядку: вся история началась полгода назад, в начале лета, с этого и начнем. Итак, где-то в июне мы сели обсуждать, что хотим сделать на «Игромире». У нас было 90 метров площади, 4 фокусные модели игровых гарнитур, коллектив девушек гоу-гоу, новая клавиатура, легендарный капитан CS Даниил «Zeus» Тесленко , 12 коробок призов и бесконечное множество браслетов всех сортов и расцветок, а также оверклокер-шоy и стойка с Xbox. Не то чтобы это был необходимый запас для «Игромира», но раз уж начал готовиться к крупнейшей игровой выставке в стране, то сложно остановиться… Чего у нас не было – это тихого спокойного места, в котором мы могли бы поговорить с «продвинутыми» или «взрослыми» пользователями, которым интересны наши продукты, которые хотят узнать больше про технологические особенности, но в общем шуме и гаме теряются. UPD: Мы подвели итоги конкурса! Кто победил? Читайте в конце поста. И тогда мы поняли: «Нам нужен программист Telegram». Мы исходили из того, что в настоящее время Telegram более популярен в гиковской среде, которая интересуется играми и железом, и эти люди чуть старше среднего возраста посетителей «Игромира». Идея была в том, чтобы организовать для наших самых активных фанов особый игровой опыт, который можно было получить на площадке, выполнив ряд заданий, как офф-лайн (найдя что-то на стенде), так и в мессенджере, получив задания внутри Telegram. Нам также очень хотелось добавить в эту историю косплееров (потому что «не сфотался с косплеером, считай, что не был на «Игромире») и соцсети (чтобы увеличить количество охваченной аудитории). С этими вводными уже стала более-менее ясна общая картина. Мы нашли четырех великолепных косплей-девушек, каждая из которых символизировала одну из гарнитур HyperX, выпущенных в 2016. На первом этапе квеста надо было собрать все новинки, а именно: найти их на выставке, сфотографироваться, а дальше уже перейти к взаимодействию с ботом, который выдаст еще серию заданий. Сказано – не значит сделано. Наверняка, по мнению многих, кто не знаком с разработкой, создание бота в Telegram выглядит примерно так. На деле всё немножко сложнее. Да, фронтэндом выступает сам Telegram со своим API, но вот бэкэнд надо написать. Сначала мы планировали обойтись своими силами. Почитали несколько гайдов, изучили возможности условно-бесплатных сервисов, в которых можно делать ботов. Но в конце концов решили, что лучше всё же поручить эту работу профессионалам, т.к. у самих ушло бы очень много времени и сил на это, к тому же мы руководствуемся принципом, что каждый должен заниматься своим делом. Мы отправили запросы в несколько компаний и самостоятельным разработчикам-фрилансерам. Половина специалистов не могла спрогнозировать сроки и стоимость. Впрочем, все знают, что такое – работать с фрилансерами. В итоге, во время наших поисков нашлась компания IQBot , которая смогла адекватно оценить сроки, стоимость работ и заложила туда возможные издержки на хостинг и поддержку. Для всех работ мы составили ТЗ, обговорили ещё раз сроки и запустили всё в разработку. Разработка Нам требовалось не просто сделать «говорилку» на Bot API 2.0, для конкурса нужна была и база данных для регистрации участников и результатов, очередь на случай высокой нагрузки и облачный хостинг для всего этого. У IQBot были уже отработанные решения, так что ими и воспользовались: в качестве базы взяли свободную MariaDB (продвинутый форк MySQL), очередь боту организовали через популярную для таких целей RabbitMQ, а в качестве хостинга выступал казуальный heroku.com . С двумя первыми решениями всё понятно: это свободные продукты, к тому же давно обкатанные в спарке с мессенджерами и даже ботами Telegram. А вот облако Heroku – это неплохой хостинг, если нужны большие мощности на короткое время. У них есть планы с посуточной тарификацией и гибким платным регулированием производительности системы – так что работа того же бота с бэкэндом в течение недели может стоить совсем смешных денег. IQBot предусмотрительно выбрали на хостинге гибкий тариф, который позволял динамически менять производительность – это нас спасло в момент высокой популярности квеста и, как следствие, высокой нагрузки на бекэнд, т.к. мы смогли оперативно увеличить мощность сервера. Так как создание бота в большей степени было связано с разработкой бэкэнда, был выбран язык PHP, популярный для ботов Python усложнил бы связь с базой и очередью. Конечный алгоритм работы бота был такой: Пользователь подключается и присылает ссылку. Система регистрирует в базе его Telegram-имя, сохраняет ссылку и отправляет сообщение с благодарностью за участие (среди всех участников потом была разыграна гарнитура HyperX Cloud Stinger). После этого пользователю предлагают сыграть в блиц-викторину и при правильных ответах на все вопросы можно было сразу на «Игромире» получить призы. Спустя 3 дня конкурса бот закрывает прием работ, а всем зарегистрированным участником рассылает благодарность и имя победителя. После объявления победителя бот становится заглушкой с промо-сообщением. Старт За пару дней до начала «Игромира» бот был запущен. Окончательная проверка, что всё работает и… ожидание часа X. В день старта у нас на стенде стояли промоутеры, которые предлагали принять участие в квесте. Кроме того, информация активно продвигалась в группах Kingston в соц.сетях, в Telegram-канале @HyperX_Russia (и ещё нескольких дружественных каналах). Как обычно на «Игромире» мобильный интернет работал прескверно, высокая загрузка сети часто не позволяла работать в LTE и 3G, хоть какой-то трафик со стабильным сигналом можно было гонять только по EDGE. Но Telegram – едва ли не единственный мессенджер, который нормально функционирует в сетях 2G, так что у наших гиков всё было в порядке (а некоторые даже умудрялись скачивать мессенджер из AppStore или Google Play прямо на мероприятии). На этапе задумки мы недооценили число участников квеста, из-за чего мощности хостинга на нашем тарифе перестало хватать для быстро обработки очереди участников – люди начали активно присылать не только ссылки, но и сами фотографии и скриншоты, чем создали краткосрочный затор. Приходило до 16 подобных сообщений с изображениями в секунду. Во время выставки разработчики дежурили в системном мониторе Heroku, поэтому проблема была быстро решена увеличением производительности хостинга для RabbitMQ. Второй проблемой стал интерфейс самого Telegram. В самом начале мы спрашивали пользователя «Ready? Steady?», а ему нужно было нажать на кнопку «Go!», т.к. наш бот был кнопочным. Нам казалось, что это очевидный и единственный сценарий использования, пока пользователи не начали вводить слово «Go» вручную в поле ввода, причем в разных вариациях. Разумеется, алгоритм не понимал, что это в него тут пишут. К сожалению, заблокировать поле ввода в Telegram невозможно, т.к. это всё же мессенджер в первую очередь. Переписывать и перезапускать бота было проблематично, т.к. люди им пользовались и перезапуск сломал бы многим квест. Поэтому наш костыль был самым что ни на есть материальным: на помощь снова пришли промо-девушки, к которым обращались пользователи за помощью. Но на будущее мы запомним, что надо продумать то, что пользователь может писать в текстовое поле и, значит, нужно сделать обработку полученных данных. А также то, что пока роботы без людей существовать не могут, только в тесном симбиозе. За время работы над конкурсом мы выяснили несколько очевидных вещей: 1. Пользователь всегда найдёт способ повесить отказоустойчивую систему. В нашем случае графические файлы забили очередь, которая создавалась для коротких текстовых сообщений. Поэтому всегда надо оставлять солидный запас производительности на хостинге с возможностью ее быстрой настройки. Никогда не делайте всё «впритык». 2. Обязательно надо делать тест бота не только теми людьми, которые придумывали и разрабатывали механику, но и незнакомыми с квестом, чтобы проверить на неочевидные для нас сценарии поведения. Сейчас бот @HyperX_bot продолжает свою работу с сообщением-заглушкой, однако базу и очередь мы уже отключили до следующего раза. За время выставки мы получили 5658 сообщений от 846 пользователей. Что интересно, хотя «Игромир» и считается мероприятием для молодой аудитории, средний возраст наших участников составлял 24-26 лет, что подтверждает нашу гипотезу об аудитории. Параллельно мы запустили канал в Telegram — @HyperX_Russia , в котором на выставке у нас была прямая трансляция всего происходящего на стенде. И наши подписчики всегда могли узнать, поливают ли в данный момент там жидким азотом плашки памяти или Зевс раздаёт автографы. Изначально все активности в Telegram имели проектную основу, и были запанированы только на период выставки (и пару недель вокруг). Но за время работы на «Игромире» на наш канал подписалось более 1500 человек, поэтому мы решили не бросать его, а преобразовать его в некий филиал GeekTimes блога компании Kingston Technology. Для начала мы расширили тематику канала от игр в частности до технологий в целом и переименовали его в Red Head Pub (вы же знаете историю , почему на логотипе красная голова Рекс?). Сейчас там публикуются анонсы новых продуктов и акций, промо-коды на скидки, а также различные технологические новости, проводятся розыгрыши призов и многое другое. Заходите и смотрите сами: @HyperX_Russia (пст-пст, мы даже выпустили свой стикерпак!). Конкурс А теперь самое главное! Нам понравилось работать с ботом в Telegram, так что мы планируем и дальше его использовать, но сейчас решили обратиться за консультацией к сообществу. Итак, нам нужны ваши идеи, что можно реализовать в боте. Например, организовать в нём службу поддержки или использовать его для розыгрышей в канале. Но это может быть и какой-то квест или другая игра, ответы на часто задаваемые вопросы или что-то совершенно иное, но интересное. Подумайте и напишите в комментарии к этому материалу все свои идеи, и обязательно подпишитесь на наш блог на Geektimes. 16 января (да, вы можете думать все новогодние каникулы) среди тех, кто подписан на наш блог, мы выберем самые интересные идеи и выставим их на голосование в нашем канале в Telegram. А уже 20-го января подведем итоги, и того, чья работа наберет больше всего голосов, наградим SSD-накопителем HyperX Savage 240 Гбайт. Это самый быстрый твердотельный SATA-накопитель с 4-ядерным и 8-канальным контроллером Phison S10, который обеспечивает скорость чтения до 560 Мб/с. Его можно устанавливать в большинство ноутбуков, ПК и даже в домашние кинотеатры. И не забудьте подписаться на наш канал @HyperX_Russia в Telegram . После долгого обсуждения был составлен шорт-лист финалистов: 1) Бот-каталог, который владеет всей информацией по продуктам Kingston/HyperX, и при запросе поделится ей с вами. Ознакомит с интересующим товаром, его характеристиками, и поделится ссылками на обзоры. (автор идеи streetflush ) 2) Бот-викторина задаёт вопросы, а пользователи на них отвечают. В зависимости от скорости и правильности ответов игроки получают очки. У кого больше очков – тот и победил, и получил приз. (автор идеи AVX ) 3) Бот-инженер. Если вы сомневаетесь в выборе комплектующих к своему ПК, бот предложит вам лучшие варианты сборок. (автор идеи argentum36 ) 4) Бот-геймер даёт советы, которые помогут вам добиться успеха в популярных играх. (автор идеи stigGGG ) На канале HyperX в Telegram было организовано голосование и… Уверенную победу одержал бот-инженер, которого предложил товарищ argentum36 . Он получает SSD HyperX Savage 240 GB, поздравляем! А мы уже пошли планировать реализацию нашего инженера.
https://geektimes.ru/company/kingston_technology/blog/284136/
habrahabr
Совет по открытым данным: вести с полей
['совет по открытым данным', 'открытые данные', 'открытое правительство']
Источник фото: сайт Открытого Правительства 23 декабря мне впервые посчастливилось побывать на заседании Совета по открытым данным. Участвовала я от лица АНО “Информационная культура”, своим...
Источник фото: сайт Открытого Правительства 23 декабря мне впервые посчастливилось побывать на заседании Совета по открытым данным . Участвовала я от лица АНО “Информационная культура”, своим участием добавив общественный сектор к представителям госсектора и бизнеса. Состав декабрьского заседания совета был, на первый взгляд, внушительным: собрались представители Минфина, Казначейства, Росстата, Минэкономразвития, Открытого Правительства, НИУ ВШЭ, Аналитического Центра “Форум”, Аналитического центра при Правительстве и Яндекса – как видно из списка, некоммерческого сектора очень не хватает. Повестка состояла из шести объемных пунктов, но это не помешало заседанию начаться на полчаса позже, что, впрочем, не вызвало удивления присутствовавших и не сопровождалось какими-либо комментариями организаторов. 1. Исключение дублирования статистических показателей в отчетности Росстата Первым пунктом повестки был доклад Росстата о том, как исключить дублирование показателей в различных отчётах и как публиковать первичную статистическую информацию в формате открытых данных . Доклад вызывает множество вопросов, начиная с способа подачи материала, который заключался в дословном прочитывании текста из раздаточных материалов. Из содержательного запомнились два пункта: Первый тезис заключался в том, что «дублирование показателей создает неоправданную нагрузку на бизнес и бюджеты всех уровней», что подразумевает многократную подготовку и сдачу одних и тех же показателей. Удивил комментарий министра Открытого Правительства Михаила Абызова, который прямо сказал, что сотни тысяч чиновников на рабочих местах только и делают, что находят цифры по форме из excel-таблиц, которые внезапно понадобились их руководителям. Что касается Росстата, то, на мой взгляд, намного интереснее тот факт, что нагрузку на бюджеты создает и само ведомство, когда продает региональным и муниципальным госорганам собранные данные. То есть работа Росстата оплачена не только нашими налогами, но и результаты этой работы продаются внутри государства, и на это идут региональные и муниципальные средства. Но вариант снижения нагрузки на бюджеты за счет отмены продажи данных не был озвучен. Контракт на закупку показателей статистической отчетности Администрацией губернатора Пермского края у территориального органа ФСГС. Источник: проект Госзатраты Второй тезис — это работа Росстата с большими данными . Из озвученного текста у меня не сложилось впечатление, что представители Росстата правильно понимают и эту область и терминологию, т.к. по их мнению большие данные – это что-то отдельно-стоящее от всех остальных данных и, естественно, требующее дополнительного финансирования. Например, Росстат предлагает «создание единого межведомственного координационного центра по использованию Больших дан ных в официальной статистике», «обеспечение Росстатом единого методологического контроля (надзора) за использованием Больших данных в официальной статистике», «разработку и принятие комплекса законодательных и НПА, обеспечивающих возможность и устанавливающих порядок использования Больших данных в официальной статистике». Подозреваю, что «Большие данные» у Росстата уже есть, правда, они об этом не догадываются. Хотя по Росстату, судя по моему опыту, основная проблема сегодня заключается в том, что данные не предоставляются в формате открытых данных. Муниципальную статистику в виде датасетов скачать нельзя, массивы, выгружаемые на федеральный портал, сильно раздроблены (за счет чего увеличивается их количество, которое так важно для рейтингов), а статистические сборники, состоящие в основном из таблиц, публикуются в формате doc и сверстаны для печати, а не для работы с данными. 2. Обсуждение порталов Казначейства После Росстата «докладывалось» Казначейство. Их доклад можно назвать образцовым выступлением госоргана – красочная презентация с необходимыми поясняющими фразами, грамотная речь, понятное и интересное содержание. Были представлены ресурсы bus.gov.ru и budget.gov.ru , а также приказы, на основании которых госорганы, государственные и муниципальные учреждения должны публиковать данные о себе. Интересно, что минут 20 на заседании шло обсуждение того, нужно ли менять один из приказов Минфина России и добавлять в перечень обязательных данных координаты фактического расположения учреждения или все же пользоваться API Яндекса/Google для генерации координат. Благодаря аргументации руководителя Департамента ИТ Минфина России Елены Черняковой, сотни тысяч муниципальных учреждений не будут задаваться вопросом, какие у них координаты и где их найти. Впрочем, это не было удивительным, т.к. интересные и адекватные выступления и ответы на вопросы Е. Черняковой – это то, чего я жду на каждом мероприятии. Портал bus.gov.ru для размещения данных о государственных учреждениях Хотя также, как и с Росстатом, в процессе работы с рассматриваемыми порталами Казначейства, мы выявили куда существенные проблемы чем те, которые обсуждались на совете: На портале bus.gov.ru неправильно преобразуется в структурированный формат финансовая отчетност ь: отображаемые на сайте данные не соответствуют тому, что указано в прикрепленных оригиналах; На портале bus.gov.ru отсутствует документированное API , и блокировка IP-адреса осуществляется при просмотре данных всего 50 учреждений , то есть бесполезно выкладывать и обсуждать новые данные, если даже то, что есть, скачать/использовать практически невозможно; На портале budget.gov.ru в конструкторах данных много багов , например, теряется выбор пунктов при переносе фильтра в раздел «Показатели» или показываются удвоенные суммы доходов/расходов, если отметить пункт «выбрать все» в фильтре «Уровень бюджета»; Важно уточнить, проводится ли каким-то образом верификация данных , вводимых представителями госучреждений на портале bus.gov.ru : о том, как представители госзаказчиков формируют данные по госконтрактам, мы знаем уже давно, а ошибки в финансовой отчетности выявили недавно, но «исправляет» их Казначейство уже несколько месяцев. Интересно, что при обсуждении геолокации учреждений, Михаил Абызов поднял вопрос о том, можно ли заставить учреждения (школы) публиковать все данные по ЕГЭ, — теперь мы знаем, кто из государственных служащих поддерживает открытость образовательных данных и с кем стоит коммуницировать «Российским школам» . В этом пункте повестки Елена Чернякова из Минфина России раскрыла тайну многочисленных ошибок в данных ЕГРЮЛ, о работе над которым Татьяна Нестеренко рассказывала на Московском финансовом форуме в сентябре (на исправление данных в ЕГРЮЛ у Минфина России ушло полгода, 600 млн рублей и 200 000 человекочасов). Проблема в том, что подача данных в ЕГРЮЛ носит заявительный характер, поэтому, например, фактический адрес, указанный индивидуальным предпринимателем, проверить практически невозможно. Поэтому, когда Минфин России занялся обновлением своих информационных систем, 80% государственных и муниципальных учреждений пошли править свои данные в ЕГРЮЛ. 3. Предложения Аналитического центра при Правительстве по публикации данных госкорпораций и публичных акционерных обществ Третьим пунктом Аналитический центр при Правительстве РФ представил доклад «О совершенствовании работы государственных корпораций и публичных акционерных обществ с открытыми данными». Основная идея заключалась в том, чтобы обязать указанные организации публиковать в машиночитаемых форматах ту информацию, которую они уже обязаны раскрывать (общие сведения об организации, вакансии, сведения об охране окружающей среды и т.д.). На это один из участников заседания справедливо заметил, что тогда мы получим миллион датасетов в разных форматах на разных сайтах, и намного логичнее опубликовать открытую часть ЕГРЮЛ и другие данные, которые собирает у тех же учреждений Росстат или Росприродназдор. Замечание про ЕГРЮЛ было одним из самых ценных комментариев на совете, поскольку мы давно об этом говорим ФНС, но, к сожалению, в проекте протокола этого комментария нет. 4. Саммит по открытым данным и конкурс Открытого Правительства Четвертым пунктом было обсуждение саммита , перенесенного на февраль, и конкурса по открытым данным . Вряд ли что-то можно рассказывать об этом пункте до подведения итогов конкурса, но к статистике по прошлому конкурсу это не относится. Было озвучено, что большое количество проектов, поданных на прошлый конкурс (или 50 проектов, или 50%), продолжают развиваться. Хотелось бы посмотреть на этот список, потому что обычно через год после проведения конкурса или хакатона практически все проекты становятся недоступными или заброшенными. 5. О работе федеральных органов исполнительной власти по открытым данным в 2016 году Пятым пунктом было перенесенное на февраль подведение итогов работы органов государственной власти по раскрытию информации в форме открытых данных. Примечательно, что в материалах к заседанию в качестве лидеров среди ФОИВ указаны далеко не финансовые госорганы (Казначейство, Минфин России, ФНС), чья работа в области открытости не вызывает сомнений, а, на первый взгляд, выбранные случайным образом. Возможно, этот список составлен на основе рейтинга, подготовленного недавно Открытым Правительством и ВЦИОМ . «Безусловно открытые ведомства» по результатам рейтинга Открытого Правительства и ВЦИОМ «Аутсайдеры» рейтинга Проектного центра «Инфометр» В отличие от прозрачного, понятного и основанного на законодательстве рейтинга Инфометра , рейтинг ВЦИОМа и ОП вызывает много вопросов. Во-первых, за основу в нем принимается количество датасетов, при этом Росстат, целью деятельности которого является сбор данных, оценивается наравне с остальными ведомствами. Во-вторых, значительной составляющей итоговой оценки является «востребованность» наборов, которая определяется как количество скачиваний с федерального портала data.gov.ru. Специально перед советом просмотрела ТОП-7 федеральных ведомств по количеству датасетов на этом портале. Общее количество скачиваний за все время существования портала у «лидирующих» ведомств составляет примерно 100-150 раз (это суммарное количество скачиваний всех датасетов одного ведомства), то есть вместо того, чтобы судить о невостребованности наборов, нужно судить о невостребованности данного портала. В-третьих, этот рейтинг оценивает только данные, размещенные на федеральном портале, не принимая во внимание активность ведомств на своих сайтах, за счет чего госорганы вынуждены дублировать свои данные и на федеральном портале (причем иногда вручную). статистика количества скачиваний с портала data.gov.ru датасетов Ростуризма (154), Росавтодора (70) и Минпромторга России (61). По количеству датасетов среди ФОИВ они на 3, 2 и 4 месте. Подводя итоги... Шестой пункт о схеме взаимодействия Минкомсвязи России с Советом по открытым данным зачитан не был и не обсуждался (а у меня терпение во время чтения материалов закончилось раньше). В целом, совет вызывает двойственное впечатление: что-то было адекватно и интересно: например, доклад Казначейства и некоторые комментарии; также порадовало участие в мероприятии компетентных людей. Что-то, с другой стороны, было слишком формальное и напоминающее «обязаловку», в чем-то проглядывало непонимание ни работы с данными, ни специфики открытых или больших данных. Непосредственно обсуждению докладов уделяется очень мало времени – какие-то незапланированные в повестке комментарии вставить сложно, и, конечно, обсуждение открытых данных в закрытом режиме выглядит довольно странным. Посмотрим, что будет дальше.
https://habrahabr.ru/company/infoculture/blog/318596/
habrahabr
Как делают локализацию для японского рынка
['локализация игр', 'перевод игр', 'старые игры', 'nes', 'famicom']
Как вы, может быть, уже слышали, Shovel Knight наконец пересёк океан и достиг Японии! Мы очень рады такому прыжку. Мы потратили много времени, чтобы локализация стала интересной и умной....
Как вы, может быть, уже слышали, Shovel Knight наконец пересёк океан и достиг Японии! Мы очень рады такому прыжку. Мы потратили много времени, чтобы локализация стала интересной и умной. Постойте, а что такое локализация? Это процесс перевода текста и адаптации игры под местный рынок. Мы сотрудничаем с отличными экспертами из 8-4 , чтобы обеспечить высочайшее качество локализации. Сегодня мы хотим рассказать о самых интересных изменениях, которые мы внесли в игру, чтобы она действительно понравилась японским игрокам. История Но прежде чем мы начнём… проведём небольшой урок истории! Когда-то давно локализация игр была Диким Западом. Не было никаких стандартов или правил относительно того, что приемлемо при адаптации. Иногда разработчики создавали абсурдные и полные опечаток переводы. Иногда разработчики вкладывали так много усилий, что создавали совершенно новую серию игр . Плохой перевод Bubble Bobble Японская игра Wonder Boy, ставшая при портировании на NES/Famicom игрой Adventure Island. Игра разделилась на две независимые серии. (Примечание: оказалось, что Wonder Boy превратилась в Adventure Island при портировании с аркадных автоматов. Мы перепутали, потому что часто портирование и локализация взаимосвязаны при переносе с Famicom на NES. Просим прощения за свою ошибку!) Такие нестыковки внесли в локализацию игр множество интересных изменений. Разработчики с выпуском каждой игры учились тому, что же именно нужно менять. Кроме того, из-за ограничений NES при переносе игр с японского рынка требовалось много изменений. Например, возникали проблемы со сложностью шрифтов, техническими ограничениями или гейм-дизайном, и осознание этого приходило уже после выпуска игры. Мы рассмотрим только малую часть примеров изменений, внесённых в игры в то время, чтобы вы могли понять причины модификаций, сделанных нами в Shovel Knight для японского рынка. Прежде чем вы прочитаете нашу историю, лучше послушайте специалиста, Клайда Мэнделина (Clyde Mandelyn): http://legendsoflocalization.com/ . Он пишет потрясающие статьи (и книги!) о самых знаменитых локализациях игр и об изменениях, внесённых после выпуска игр в Японии. Обычные изменения при локализации японских игр для североамериканского рынка Очевидно, что множество мелких или крупных изменений текстов происходит при локализации в результате трудностей перевода. Но мы собираемся показать, как менялась графика, звуки и геймплей игр, которые вы могли видеть в эру NES/Famicom. Изменения графики Разумеется, обычно одним из самых больших изменений в игре бывает экран запуска. Иногда происходит его полная замена, иногда — просто удаление японского текста. В те времена NES часто использовалась замена спрайтов. Часто логика заключалась в том, что игроки могли не понять специфичных для Японии спрайтов, например, еды: Или же североамериканские локализаторы могли посчитать, что японские персонажи или спрайты не будут привлекательными. Ниже представлен пример Power Blade, также известной в Японии как Power Blazer. В ней главный персонаж сделан «крутым», а не «милым». Известная всем в 80-х истина: любая игра продастся, если в ней есть Арнольд Шварценеггер. Иногда эти изменения вносились, чтобы сделать геймплей более понятным: Ого! А я и не знал, что там есть враг! Super Mario Bros. 2 (известная как Doki Doki Panic) в Японии — это случай, когда Nintendo of America пошла на значительные изменения для локализации игры. Это отличный пример того, как в то время обычно делались модификации. Они превратили не-Марио в Марио! В некоторых случаях разработчики решали изменить спрайты настолько, что они становились анимированными! Ниже представлен пример того, как единственное изменение сделало геймплейные объекты действительно выделяющимися: Может быть, эти растения можно вытащить? Спрайты могли также становиться менее или более сложными. Или их просто меняли, чтобы усовершенствовать японскую версию. Вот пример такого типа изменений из Mario 2: Иногда анимация менялась из-за различий в производительности Famicom, NES или Famicom Disk System. Вот анимированный спрайт (на самом деле тайл фона, который кажется анимированным) из Zelda 2, который был удалён из версии для NES, потому что NES не могла работать с VRAM так же, как FDS: Ух ты, теперь я верю, что это действительно вода! Изменение шрифтов В шрифты часто вносилось большое количество изменений. Создание игры на японском было сложным из-за того, что стандартный набор символов (кандзи) было почти невозможно засунуть в малый объём памяти, который могла выделить NES. Кандзи может содержать тысячи символов (в обычной газете их может быть больше 2500)! Чтобы обойти эту проблему, иногда в играх использовался меньший набор символов кана (примерно до 100 символов), или гораздо меньший набор английских символов! Английский распространён в Японии, поэтому это не делало игры абсолютно неиграбельными, как этого можно ожидать (особенно учитывая обычно небольшое количество текста в играх для NES. Вот примеры текста на кане для NES/Famicom: Вот пример использования английского в версии Zelda для Famicom: Заметьте разницу в шрифтах. На NES использовался стандартный шрифт 8×8, поэтому текст для североамериканского рынка изменили на привычный для игроков. Также можно заметить, что все буквы в верхнем регистре! Это наполовину уменьшало количество требуемых символов. В Shovel Knight используется тот же принцип. В случаях, когда читаемость текста была очень важна, разработчики вкладывали больше ресурсов для создания изощрённого текста. Ниже показан пример того, как Final Fantasy для NES преодолела барьер нижнего регистра: О, гораздо приятнее для глаз. Можно заметить, как странно выглядит буква в «g» в слове «king». Она стала такой из-за того, что в играх для NES/Famicom есть место только для символов 8×8 пикселей. Буква «g» при правильном написании нарушает эти границы, поэтому символ просто расположили выше. Это ещё одна причина того, почему так сложно отображать кандзи на NES/Famicom. Из-за сложности каждого символа их почти невозможно отрисовать в 8×8 пикселей. Но были случаи, когда разработчикам удавалось вытянуть кандзи на NES/Famicom. Посмотрите на Faxandu: Как видите, шрифт гораздо больше стандартного размера 8×8 из-за сложности кандзи. В Faxanadu размер увеличен вдвое: используются блоки по 16×16 пикселей (где для символов остаётся размер 14×14). На Super Famicom/SNES у разработчиков было меньше свободы, поэтому шрифты кандзи часто имели размер 12×12: Звук Менялась не только графика, иногда локализаторы игр меняли звуки, связанные с геймплейными объектами. Они шли ещё дальше и изменяли даже музыкальные композиции. Иногда это происходило из-за разницы «железа» Famicom, NES и Famicom Disk System. Или, как мы говорили ранее , такое случалось из-за разницы в технологиях картриджей. Оцените различия саундтреков Castlevania 3 в разных версиях: Геймплей И, наконец, иногда переход с Famicom на NES затрагивал даже геймплей. Игра могла становиться легче или сложнее, из неё убирались глитчи, возникающие из-за различий в оборудовании, или разработчики просто пытались сделать игру интереснее. Вот две комнаты из Zelda, в которые авторы решили добавить летучих мышей! Кроме того, в версии Zelda для Famicom противников Pols Voice можно было победить звуком, но в контроллере NES не было микрофона, поэтому они побеждались стрелами: Изменения локализации Shovel Knight Поэтому, когда мы приступили к локализации Shovel Knight, нам хотелось воссоздать некоторые забавные различия региональных версий. Мы даже попробовали выполнить процесс «обратной» локализации. Это означало, что мы задались вопросом, как бы выглядела игра Shovel Knight, если бы сначала её выпустили в Японии. Однако у нас были правила, касавшиеся изменений: Мы хотели сохранить целостность геймплея. Нам не нужны были значительные изменения, которые бы заставили игроков жалеть о том, что они не играли в оригинальную версию. Мы не хотели делать того, что традиционно считается плохой локализацией. Для нас это значило отсутствие опечаток или плохого английского, всего того, что могло бы снизить качество игры. Кроме того, мы не хотели менять игру слишком сильно! И, наконец, уровень локализации должен быть по современным стандартам отличным. Но нам хотелось добавить немного интересных деталей. Поэтому мы внесли небольшие правки, которые в результате стали существенными отличиями! Изменение графики Экран запуска, очевидно, остался тем же самым. Мы хотели соответствовать тому, что можно было ожидать от японской игры той эры, то есть японского текста вместе с английским логотипом: После этого мы внесли изменения в статичные спрайты. На картинке ниже видно, что при повышении уровня здоровья Gastronomer иногда случайным образом может подать онигири (рисовый колобок). Кроме того, в монете Мидаса теперь есть отверстие, что делает её похожей на некоторые японские монеты: Изменён дизайн статуй в Зале Чемпионов. Также мы внесли небольшие цветовые изменения. В частоности, типы палитры Wizzem и Iron Knight изменены следующим образом: Последние изменения в статичные спрайты внесены переработкой портретов персонажей Reize, Baz, Polar Knight и The Enchantress. Мы старались сделать их художественный стиль более анимешным. После этого мы решили, что настало время сделать некоторые статичные спрайты анимированными, чтобы они показали всю мощь Famicom! Во-первых, мы решили анимировать траву в эпизоде Plains: Для дракончиков (зелёных и синих) мы сначала создали спрайты с множеством кадров анимации их полёта, но решили урезать их, потому что они не походили на спрайты с NES. Но мы вернули анимацию в японской версии! Мы сменили дизайн фонтана в деревне и анимировали его потоками воды. И последнее изменение графики: спящий возле костра Shovel Knight выдувает носом пузыри. Изменение шрифтов Для шрифта нужно было хитрое решение. Мы хотели использовать символы каны, потому что они больше характерны для эры и ограничений NES. С другой стороны, большинство японских игроков охотнее играло бы в игру на кандзи. Кандзи можно считать ностальгическим возвращением к ретро-стилю, к тому же, она широко использовалась на Super Famicom. Однако кандзи потребовала бы переделки всех текстовых полей в игре, потому что мы создавали меню, диалоговые окна и т.д. под символы шрифтов 8×8. Поэтому, очевидно простейшим путём было бы использование каны. И после долгого обдумывания… мы решили сделать оба шрифта! Игра официально была переведена на оба алфавита и поддерживала переключение между ними на лету: Как вы видите, мы выбрали для шрифта кандзи размер 12×12 пикселей. Это позволило нам приблизиться к шрифтам на Super Famicom. Заметьте также, что мы оставили текст интерфейса английским. Мы подумали, что в то время было обычным использовать в интерфейсе английский язык, поэтому решили придерживаться его: Изменение звуков Здесь мы поменяли не так много. Мы уже пошли дорогой Famicom в отношении музыки и добавили чип VR6 . Поэтому мы решили изменить всего несколько звуков: Звуки смерти Gryphon и смерти Bubble Dragon поменялись местами. Огонь Wizard (и огненный жезл Shovel Knight’а) использует звук огня, а не магии. Когда феи кусают персонажа, проигрываются другие звуки. Дополнительные чит-коды! Но на этом мы не остановились! Мы решили добавить ещё немного деталей. Помните чит-код X&BUTT? (Прим. пер.: он заменяет некоторые слова в диалогах на Butt, т.е. «задница».) К сожалению, «задница» — это не самое смешное слово в Японии, так что мы придумали другую схему замены. Вместе с заменой текста чит-код также включает две графические замены, которые в основной игре нам показались перебором. Морковь заменяется на японскую редьку дайкон: Золотые монеты становятся вертикальными и больше напоминающими монеты кобан . К тому же мы сделали так, что этот специальный японский чит включает изменения локализации во всех языках. Но если вы не хотите использовать чит-код, то можете в любой момент переключиться на японский язык, чтобы увидеть все изменения. Спасибо Надеемся, вам понравился этот короткий экскурс в историю нашей японской локализации. Перевод игры — это трудная работа , и мы надеемся, что как можно больше людей увидят, сколько любви вкладывается в выпуск каждой игры. Вам стоит попробовать сыиграть, когда изменения для японского рынка выйдут в свет!
https://habrahabr.ru/post/320322/
habrahabr
Скучно о работе дешифрации NGFW
['SSL', 'HTTPS', 'Дешифрация', 'Информационная безопасность', 'системное администрирование', 'сетевые технологии', 'ИТ-инфраструктура', 'Cisco', 'FirePOWER', 'FTD']
Если вы хотите окончательно испортить первое свидание – поговорите с девушкой о дешифрации. Да и в случае последующих – тоже не стОит. Наша встреча с вами не первая, поэтому в этом тексте речь...
Если вы хотите окончательно испортить первое свидание – поговорите с девушкой о дешифрации. Да и в случае последующих – тоже не стОит. Наша встреча с вами не первая , поэтому в этом тексте речь снова пойдет о дешифрации. Да, я вновь расскажу об SSL. Могу обрадовать себя и вас тем, что это второй и последний материал на эту тему. Возможно. В прошлый раз мы выяснили, зачем может понадобиться дешифровать многострадальный SSL. В этом материале разберём, как именно работает дешифрация с подменой сертификата. Что нам для этого нужно? Для начала вспомним, как работает SSL. Я кратко опишу основные моменты. После установления TCP-сессии между клиентом и сервером происходит SSL Handshake. В его рамках обе стороны обмениваются сообщениями Client Hello и Server Hello. Дамп установления SSL-соединения с vk.com Client Hello описывает поддерживаемые параметры шифрования, Server Hello содержит выбранные из предложенных клиентом параметры. Обмен Client Hello и Server Hello можно использовать как индикатор установления SSL-сессии. При появлении этих сообщений устройство (vFTD в нашем случае) просматривает сконфигурированные политики дешифрации для принятия решения — нужно ли в дальнейшем дешифровать сессию или нет. Если настроенные политики диктуют дешифровать трафик, устройство становится man-in-the-middle (MITM) и дешифрует передаваемые данные. При удачном запуске MITM мы имеем две установленные SSL-сессии. Первая — между клиентом и дешифрующим устройством (vFTD). Вторая — между дешифрующим устройством и сервером. Зашифрованные данные приходят от клиента на vFTD. Расшифровываются. Проверяются всевозможными политиками (доступа, IPS, файловыми, AMP и т.д.). Если дешифрованные данные от клиента проходят проверку, они снова шифруются и отправляются серверу. Если не проходят какую-либо проверку, данные либо просто блокируются (не отправляются в сторону сервера), либо сбрасывается сессия. Ответы от сервера обрабатываются аналогично. Чтобы устройство стало MITM в SSL-сессии, требуется немногое. На этапе SSL handshake помимо аутентификации и прочих действий происходит формирование общего сеансового ключа. Именно с его помощью будут зашифрованы передаваемые данные. Для этого будет использован симметричный алгоритм. Есть два наиболее распространённых в Интернете способа формирования общего сеансового ключа по открытым каналам связи: RSA и ECDH (Диффи-Хеллман). Процесс формирования сеансовых ключей показан на диаграммах ниже (взяты из материала « Анализ SSL/TLS трафика в Wireshark »): Формирования сеансового ключа при использовании RSA В случае RSA клиент генерирует предварительный секрет (pre-master secret). Шифрует его открытым ключом из сертификата сервера и передаёт его. Расшифровать предварительный секрет можно только с помощью закрытого ключа, который известен исключительно серверу. Теперь у обеих сторон есть предварительный секрет. Они формируют главный секрет и далее общий сеансовый ключ. Формирование сеансового ключа при использовании ECDH В случае с ECDH пара ключей SSL-сертификата не используется для шифрования вообще. Клиент и сервер формируют пары случайных ключей Диффи-Хеллман — открытый и закрытый. Каждая сторона передаёт свой открытый ключ другой стороне в незашифрованном виде. Далее, с помощью алгоритма Диффи-Хеллмана клиент и сервер вычисляют из собственного секретного ключа и чужого открытого, общий предварительный секрет. После этого каждая сторона формирует общий главный секрет и сеансовый ключ. При использовании ECDH необходимо сохранить целостность передаваемых открытых ключей Диффи-Хеллман. Сервер подписывает собственный открытый ключ Диффи-Хеллман с помощью своего закрытого ключа сертификата. Клиент может проверить подлинность полученного открытого ключа Диффи-Хеллман, используя открытый ключ сертификата сервера. Таким образом, чтобы организовать MITM для SSL-сессии в большинстве случаев будет достаточно подменить сертификат сервера на собственный. Если подмена пройдёт успешно, можно будет получить общий с клиентом сеансовый ключ и иметь возможность дешифровать данные. В случае с RSA, MITM-устройство сможет расшифровать предварительный секрет с помощью собственного закрытого ключа сертификата. Если используется ECDH, устройство сможет подписать свой открытый ключ Диффи-Хеллман таким образом, чтобы на стороне клиента подпись считалась валидной. Чтобы подменить сертификат сервера на собственный (для которого мы будем знать закрытый ключ), нам необходимо, чтобы собственный сертификат обеспечивал корректную аутентификацию сервера на стороне клиента. Проще говоря — нужно, чтобы браузер клиента не выдал никаких предупреждений или блокировок при подмене сертификата. Для этого в большинстве случаев необходимо, чтобы: Поле subject сертификата содержало параметр Common Name со значением, равным тому, что введено в адресной строке браузера; Сертификат был подписан доверенным центром сертификации. Wildcard-сертификаты Это сертификат, который заказывается на домен. В таком сертификате в поле subject параметр Common Name записывается со «звёздочкой», например, *.mysite.ru. Таким образом, на всех сервисах домена можно использовать единственный сертификат: ra.mysite.ru, owa.mysite.ru и т.п. Это может быть дешевле, чем заказывать отдельный сертификат на каждый сервис. Обратная сторона – если wildcard-сертификат будет каким-либо образом скомпрометирован, пострадают сразу все сервисы. Ведь на всех серверах будет установлен одинаковый закрытый ключ. Безусловно, чтобы сертификат считался валидным на стороне клиента, должны выполняться и другие условия: он не должен быть отозван, просрочен и т.д. Но все эти условия учитываются на этапе подписи сертификата собственным центром сертификации. SHA-1 Сейчас браузеры постепенно принуждают отказываться от использования SHA1RSA в качестве алгоритма цифровой подписи. Например, chrome будет выдавать красный перечёркнутый https в адресной строке: Chrome ругается на SHA-1 Подробности Чтобы избежать таких предупреждений центр сертификации должен использовать строгие алгоритмы формирования ХЭШ для подписи сертификатов — семейство SHA-2. При использовании Certificate pinning, сертификат сервиса должен быть подписан строго определённым центром сертификации. Если это не так, доступ на ресурс блокируется даже в том случае, если сертификат подписан доверенным центром. Соответственно, для ресурсов с certificate pinning дешифрация с подменой сертификата работать не будет. Таким образом, чтобы организовать MITM в SSL-сессии, устройство должно сгенерировать новый сертификат с такими же полями, как сертификат удалённого сервера. При этом у нас будет известный закрытый ключ. Новый сертификат необходимо подписать с помощью доверенного центра сертификации. На практике это реализуется следующим образом: В компании должен существовать собственный центр сертификации, корневой сертификат которого помещён в доверенные на всех устройствах компании. Это необходимое условие. На центре сертификации запрашивается новый сертификат по шаблону «подчинённый центр сертификации» (Subordinate certificate authority, далее SubCA). Особенность данного сертификата в том, что с помощью его закрытого ключа можно подписывать другие сертификаты (выставлен флаг CA в расширении «основные ограничения сертификата»). Так как SubCA подписан доверенным корневым сертификатом, клиентские машины будут доверять как ему самому, так и любому сертификату, подписанному с его помощью. SubCA и соответствующий ему закрытый ключ устанавливается на устройство, которое должно стать MITM в SSL-сессии. Благодаря этому при каждой попытке клиента установить SSL-сессию с HTTPS-сервером наше устройство сможет: Перехватывать сертификат сервера; Создавать закрытый ключ; Генерировать новый сертификат с такими же полями, как у подменяемого; Подписывать созданный сертификат с помощью SubCA. Если всё корректно настроить, пользовательский браузер не будет выдавать никаких предупреждений при открытии https-страниц. Пользователь сможет определить факт подмены сертификата, только если полезет в настройки. Цепочка сертификатов в Mozilla Если посмотреть поля конечного сертификата, увидим, что поле субъект содержит корректное значение Common Name. Поле Common Name Если сравнить реальный и подменённый сертификаты, увидим, что фактически они отличаются значениями открытых ключей и цифровыми подписями (в данном случае я пренебрегаю серийным номером, и т.п.). Подменённый сертификат Certificate: Data: Version: 3 (0x2) Serial Number: 1482311739306634470 (0x14923aac5bc36ce6) Signature Algorithm: sha256WithRSAEncryption Issuer: C=RU, ST=Moscow, O=CBS, OU=Computers, CN=proxy.cbs.com.ru/[email protected] Validity Not Before: Sep 4 21:17:41 2015 GMT Not After : Sep 16 11:56:55 2018 GMT Subject: OU=Domain Control Validated, CN=*.vk.com Subject Public Key Info: Public Key Algorithm: rsaEncryption Public-Key: (2048 bit) Modulus: 00:a1:09:76:bf:21:ce:9b:e7:e2:34:03:f0:74:02: 84:13:7f:2e:51:0b:e8:4a:11:e2:34:d8:3a:d9:39: 5b:ea:87:50:33:dc:64:5b:2e:f2:0d:33:36:47:3c: 0a:97:a7:ce:23:7d:d7:8f:76:85:17:42:f9:63:b6: d1:91:ea:18:de:98:3c:e1:c5:5b:59:4a:d0:e5:e2: b7:ce:e0:75:74:93:d9:35:b4:8b:85:70:4c:8e:c9: e0:53:7c:2f:9f:4b:e1:48:f0:3f:a5:70:f7:4e:99: f1:74:0b:2a:21:6a:9d:9f:20:f4:e5:fa:94:89:43: 61:82:0b:c1:98:7a:e3:7c:4e:cf:8b:6c:ad:6b:ce: 1b:0f:4d:e3:db:d4:47:5c:e8:77:aa:71:ea:62:8f: 17:c9:3b:a3:e2:29:ce:62:e2:31:71:a8:83:2a:41: d9:6b:a7:b8:75:d0:07:fc:10:f1:6e:69:84:4b:b1: 11:f8:ae:20:94:44:0d:b0:7b:0f:d2:bd:b3:1d:1c: 7c:ae:f8:cf:37:e2:aa:4a:d2:de:24:60:50:06:f9: c6:65:f0:9c:63:4f:53:eb:db:59:a4:93:14:b2:6f: aa:b3:fb:50:ae:6e:e4:b9:3f:fa:69:b3:43:32:3f: 7a:4b:57:41:2d:7e:c8:41:00:f8:68:6a:43:53:83: 5c:c3 Exponent: 65537 (0x10001) X509v3 extensions: X509v3 Basic Constraints: critical CA:FALSE X509v3 Extended Key Usage: TLS Web Server Authentication, TLS Web Client Authentication X509v3 Key Usage: critical Digital Signature, Key Encipherment X509v3 Subject Alternative Name: DNS:*.vk.com, DNS:vk.com X509v3 Subject Key Identifier: 18:91:5E:8A:5A:58:5D:AB:86:73:6D:C0:06:57:C2:6C:62:4E:5C:64 Signature Algorithm: sha256WithRSAEncryption 8d:bc:a8:ce:af:5d:39:fc:6a:ac:48:39:9a:7e:32:01:27:68: de:95:5c:4b:24:3a:51:5d:d2:90:e4:22:c1:55:5e:65:ea:4f: 59:2c:76:b0:48:53:d8:6e:c6:e3:2a:cb:26:e6:40:e3:9a:36: 4c:6b:29:52:1c:b5:83:c6:10:8e:cb:f8:6d:a9:ae:d7:71:1b: 92:69:99:c0:1e:de:2f:02:82:17:d6:1d:52:35:65:f7:ca:a7: 9c:fe:e6:1f:3b:a4:36:c2:4a:4e:e2:f2:7d:66:e1:c4:ea:e9: ca:d0:a9:76:fc:84:f1:55:e7:d8:04:45:04:9a:15:0d:23:c9: e1:0a:b0:9e:cb:3b:c0:86:d3:e4:23:3e:c5:8a:13:20:96:ac: 6d:d8:79:ea:b9:83:b9:a7:fe:79:67:41:3d:7d:1f:22:eb:20: b9:6c:06:34:cb:fb:17:a7:b3:fc:5a:2c:a2:4f:86:0a:80:53: ea:f2:71:4a:36:80:a3:fb:2e:42:76:c6:f8:68:6c:78:f0:5c: 5d:cd:c4:0a:05:29:a3:c5:a7:87:c4:87:af:5c:29:54:a1:8e: 94:2f:72:89:54:c4:76:cb:0b:87:f9:29:a1:18:4e:55:97:e2: 1f:86:2e:97:ca:15:40:6e:d4:29:25:eb:1c:5a:2e:b9:3d:e6: bb:5e:4d:18 А вот реальный сертификат Certificate: Data: Version: 3 (0x2) Serial Number: 7817290772096849405 (0x6c7c988a18c595fd) Signature Algorithm: sha256WithRSAEncryption Issuer: C=US, ST=Arizona, L=Scottsdale, O=GoDaddy.com, Inc., OU=http://certs.godaddy.com/repository/, CN=Go Daddy Secure Certificate Authority - G2 Validity Not Before: Sep 4 21:17:41 2015 GMT Not After : Sep 16 11:56:55 2018 GMT Subject: OU=Domain Control Validated, CN=*.vk.com Subject Public Key Info: Public Key Algorithm: rsaEncryption Public-Key: (2048 bit) Modulus: 00:db:c0:ab:97:82:f1:70:06:3f:d9:9d:79:85:a8: 7c:11:d2:17:c5:9a:61:b1:72:06:d7:5e:21:7f:3d: 3b:c2:cd:dd:f4:d8:62:8a:7b:23:b7:cb:08:70:db: bf:e8:85:f7:23:92:09:56:1c:bc:e4:f8:cd:81:01: 82:43:8d:37:b9:f1:6a:14:ac:68:fa:a4:ef:fd:5b: 99:ad:f1:df:04:00:1a:e2:8a:7e:80:6a:27:b3:60: 71:27:8d:dd:37:d2:df:2d:22:fe:f3:cb:cf:68:62: 65:d4:ff:88:47:6a:78:4d:bf:8f:8f:0d:06:47:3a: b0:84:f0:a4:ea:9e:69:59:97:e5:03:a9:36:0e:93: e6:2e:4e:d6:2a:bd:ea:bc:64:b8:9c:7d:a3:5e:c4: ce:1c:74:82:4d:95:bc:00:a0:01:3e:d1:3f:2a:18: 7c:49:7c:af:6a:41:61:4b:99:1d:af:95:f4:77:c6: e0:4e:60:aa:96:63:ee:68:96:63:33:fc:81:41:e5: 2c:15:0f:1d:39:f8:00:ac:05:13:f2:80:dd:96:00: 2d:42:4b:d5:c9:f7:26:08:67:68:f8:15:e4:25:43: cd:e1:09:4c:5c:ab:15:23:d8:30:f1:89:b7:83:92: fd:15:ad:b6:5b:e4:5c:b2:fa:7d:d1:b2:00:43:39: d9:a3 Exponent: 65537 (0x10001) X509v3 extensions: X509v3 Basic Constraints: critical CA:FALSE X509v3 Extended Key Usage: TLS Web Server Authentication, TLS Web Client Authentication X509v3 Key Usage: critical Digital Signature, Key Encipherment X509v3 CRL Distribution Points: Full Name: URI:http://crl.godaddy.com/gdig2s1-118.crl X509v3 Certificate Policies: Policy: 2.16.840.1.114413.1.7.23.1 CPS: http://certificates.godaddy.com/repository/ Authority Information Access: OCSP - URI:http://ocsp.godaddy.com/ CA Issuers - URI:http://certificates.godaddy.com/repository/gdig2.crt X509v3 Authority Key Identifier: keyid:40:C2:BD:27:8E:CC:34:83:30:A2:33:D7:FB:6C:B3:F0:B4:2C:80:CE X509v3 Subject Alternative Name: DNS:*.vk.com, DNS:vk.com X509v3 Subject Key Identifier: 18:91:5E:8A:5A:58:5D:AB:86:73:6D:C0:06:57:C2:6C:62:4E:5C:64 Signature Algorithm: sha256WithRSAEncryption 80:61:fc:da:a9:f2:ea:f3:4a:70:4e:8a:39:3e:eb:9b:77:c2: c9:5d:da:30:20:7a:31:8f:19:f8:2f:b5:1b:4a:87:74:fb:99: 59:78:0f:45:1b:9d:9d:76:29:5f:48:90:08:a5:f8:c8:2e:9f: 55:ea:54:33:c1:a1:a3:7e:7f:8c:32:c5:a8:0f:9b:04:c7:d1: 55:30:7e:09:87:03:7e:88:82:32:0a:cb:0c:66:f0:50:85:b2: e4:43:67:38:88:50:84:54:41:4b:bc:3e:b0:47:8f:71:46:e4: 9a:cf:f1:a4:39:a9:4b:ca:63:44:c3:34:7d:7b:ca:de:6c:91: 5b:15:09:06:b3:4c:56:6d:23:03:1b:dc:c5:d1:e5:a3:9f:d2: 4d:be:d2:ff:62:4a:75:f7:4f:29:a4:7d:35:cf:33:06:83:6a: 50:f6:25:ce:a7:59:ac:05:fe:74:7b:c7:89:06:f5:a8:2e:4e: d4:34:a1:e1:68:7b:66:8b:53:a8:41:ba:a7:50:72:49:94:e6: 4a:ad:2d:26:95:a3:5d:ce:e3:8b:d9:6c:d2:1e:31:4b:28:ab: e2:33:c5:5e:3f:82:dd:e1:e8:36:a2:b5:08:d8:b3:2e:23:b4: 9b:b4:e6:4a:ab:21:2d:6b:aa:5f:fd:56:31:dc:86:32:85:04: 01:5a:b9:64 Последнее, что хотел отметить, vFTD для генерации любого подменённого сертификата использует одну и ту же пару ключей. Что собственно и логично: зачем тратить ресурсы и без того нагруженного шифрацией/дешифрацией устройства на генерацию новых пар ключей. Если открыть страничку ya.ru и просмотреть полученный сертификат, увидим, что открытый ключ будет таким же, как у подменённого сертификата для vk.com. Подмененный и реальный сертификат На этом описание механизма дешифрации SSL на NGFW завершаю. Приветствую всех бодрствующих, мы наконец сделали это! Это было мучительно, но зато вы теперь знаете об SSL чуточку больше. Стоило это того или нет – это уже на ваше усмотрение. P.S.: И да, передаю поздравление от коллег (и присоединяюсь): всех с наступающим Новым Годом! Пусть в новом году у вас будет меньше багов, костылей и танцев с бубном! P.P.S.: Для тех, кому интересно, как эта кухня настраивается на FirePOWER — вэлкам в подкат. Настройка дешифрации SSL на FMC v6.1.0.1 Сперва подготавливаем SubCA. Генерируем пару ключей (открытый и закрытый). Подписываем сертификат на корпоративном центре сертификации по шаблону «подчинённый центр сертификации» (Subordinate certificate authority). Для этого можно воспользоваться утилитой openssl. Она доступна из командной строки FMC. Пример команд для генерации CSR: openssl rand -out ./private/.rand 1024 openssl genrsa -out ./private/cakey.pem -aes256 -rand ./private/.rand 2048 openssl req -new -key ./private/cakey.pem -out subcareq.pem -config openssl.cnf -sha256 После того, как получаем подписанный сертификат, устанавливаем его на FMC. Переходим на вкладку Objects -> Object Management -> PKI -> Internal CAs и жмем Import CA: Будет предложено загрузить сертификат и его закрытый ключ. Их мы получили ранее с помощью openssl и корпоративного CA. Задаем имя для новой CA и вводим пароль закрытого ключа (при необходимости): Всё готово к созданию политики дешифрации. Идём в Policies -> SSL: Нажимаем «New Policy», задаём имя политики, default action и, пишем свой Opus Magnum в описании: Политики дешифрации в привычных табличках. Их поля описывают шаблон трафика, подлежащего дешифрации: Нажимаем Add Rule и описываем шаблон трафика. В простейшем случае можно сделать правило без указания каких-либо параметров. В этом случае любой SSL-трафик будет дешифрован. В качестве действия выбираем «Decrypt – Resign». В поле после слова «with» выбираем загруженный на предыдущих шагах сертификат. Это и есть тот самый SubCA, которым мы будем подписывать подменённый сертификат. Как видите на скриншоте, FMC даёт широчайшие возможности по описанию шаблона трафика для дешифрации. Трафик можно выбирать по пользователям, типу приложений, категории URL, по параметрам сертификата сервера (DN, Cert Status, Cipher Suite, Version) и т.д. Например, скриншот вкладки Cert Status: После настройки всех необходимых правил, нажимаем Save. Политика дешифрации готова. Но для того, чтобы она начала работать, её необходимо привязать к политике доступа. Идём в Policies -> Access Control: Выбираем интересующую нас политику доступа и нажимаем на карандаш. В раскрывшейся вкладке нам нужно выбрать созданную на предыдущем шаге политику дешифрации: Нажимаем Save. Не забываем выполнить deploy изменений на управляемое устройство (vFTD в моём случае):
https://habrahabr.ru/company/cbs/blog/318592/
habrahabr
Отладочная плата ПЛИС — Франкенштейн. Звуки и музыка
['ПЛИС', 'FPGA', 'Verilog', 'Altera', 'сирена', 'сигнализация']
Сегодня у нас самая предновогодняя серия про ПЛИС и отладочную плату Френки. Предыдущие серии 1, 2. Мы уже передавали тоновые сигналы по радио с помощью нашей платы Франкенштейн. Теперь попробуем...
Сегодня у нас самая предновогодняя серия про ПЛИС и отладочную плату Френки. Предыдущие серии 1 , 2 . Мы уже передавали тоновые сигналы по радио с помощью нашей платы Франкенштейн. Теперь попробуем воспроизводить звуки и музыку. Для этого подключим к ПЛИС обычный динамик. К Френки подключен генератор на 25.175 МГц. Если поделить эту частоту до диапазона слышимых частот и подать на вывод ПЛИС, то мы можем услышать звук. Меня частоту мы можем получить разные звуки. Тестировать качество звучания будет самый лучший слухач в доме — Маша. Диапазон частот в 60 КГц — это вам не шутки! ))) Схема подключения Для воспроизведения звука, я использую динамик из конструктора "Знаток" (другого с ходу не нашел). Динамик подключаю к выводу ПЛИС через резистор с сопротивлением 470 Ом. Простейший звук В ПЛИС легко помещаются двоичные счетчики. Поэтому с такой задачей справится даже Френки. Например, 16 битный счетчик будет считать от 0 до 65535. Имея наши 25.175 МГц и 16 битный счетчик мы можем получить звук частотой 25175000 / 65536 = 384,14 Гц module epm7064_test(clk, audio); input wire clk; output wire audio; // двоичный счетчик на 16 бит reg [15:0] counter; always @(posedge clk) counter <= counter+1; // выведем старший бит счетчика на динамик assign audio = counter[15]; endmodule Нота «ЛЯ» первой октавы (440 Гц) Мы получили случайную частоту в звуковом диапазоне. Теперь можно попробовать получить частоту, равную 440 Гц. Это частота ноты "ЛЯ" первой октавы. Для этого, вместо деления тактовой частоты на 65536, мы должны поделить значение частоты тактового генератора на 57216 (27175000 Гц / 440 Гц). module epm7064_test(clk, audio); input wire clk; output wire audio; // двоичный счетчик на 16 бит reg [15:0] counter; initial counter <= 16'd0; always @(posedge clk) begin if(counter==57216) begin counter <= 0; end else begin counter <= counter + 1'b1; end end assign audio = counter[15]; endmodule Но в этой реализации есть проблема. Хотя частота и равна 440 Гц, но скважность сигнала не равна 50%. Низкий уровень выводится при значениях счетчика от 0 до 32767, а высокий от 32767 до 56817. Получается, что динамик находится в единице только 42% времени. Самый простой способ получить скважность 50% — это добавить еще одно деление на два. То есть, сначала на 28608, а затем еще на 2. module epm7064_test(clk, audio); input wire clk; output audio; // двоичный счетчик на 15 бит reg [14:0] counter; initial counter <= 15'd0; always @(posedge clk) begin if(counter==28608) begin counter <= 0; end else begin counter <= counter + 1'b1; end end reg audio; always @(posedge clk) if(counter==28608) audio <= ~audio; endmodule Конечно, на слух это почти не отличить. Чтобы сделать более гибкий код, можно добавить параметр clkdivider. Изменение направление счета в счетчике на обратное — это всего лишь вопрос предпочтений. Разницы в используемых ресурсах ПЛИС никакой не будет. module epm7064_test(clk, audio); input wire clk; output audio; parameter clkdivider = 25175000/440/2; reg [14:0] counter; initial counter <= 15'd0; always @(posedge clk) begin if(counter==0) begin counter <= clkdivider - 1'b1; end else begin counter <= counter - 1'b1; end end reg audio; always @(posedge clk) if(counter==0) audio <= ~audio; endmodule Сирена скорой помощи Теперь давайте попробуем чередовать два разных тона. Для этого используем счетчик (назовем его tone) на 24 бита, для получения частоты порядка 1.5 Гц. Этот сигнал будем использовать для переключения между двумя частотами. module epm7064_test(clk, audio); input wire clk; output audio; parameter clkdivider = 25175000/440/2; reg [14:0] counter; initial counter <= 15'd0; reg [23:0] tone; initial tone <= 24'd0; always @(posedge clk) tone <= tone+1; always @(posedge clk) begin if(counter==0) begin counter <= (tone[23] ? clkdivider-1 : clkdivider/2-1); end else begin counter <= counter - 1'b1; end end reg audio; always @(posedge clk) if(counter==0) audio <= ~audio; endmodule А теперь попробуем сделать полицейскую сирену. Для начала поменяем счетчик tone так, чтобы в нем было только 23 бита, чтобы увеличить частоту вдвое (старший бит будет меняться с частотой примерно 3 Гц). А теперь нужно придумать трюк, чтобы получить "пилу". Возьмем биты с 15 по 21 из счетчика тона. Это будет выглядеть так: tone[21:15] . Эти 7 бит дадут нам значение от 0 до 127, которые будут нарастать с определенной скоростью. Как только значение достигнет 127, оно сбросится в 0 и начнет нарастать снова. Для того, чтобы получить уменьшающееся значение, мы можем инвертировать эти биты. Это будет выглядеть так: (~tone[21:15]) . Этим мы получим значения, которые идут вниз от 127 до 0, а потом все повторяется. Для того, чтобы получить пилу, которая плавно нарастает, а потом плавно спадает, возьем бит tone[22] . wire [6:0] ramp = (tone[22] ? tone[21:15] : ~tone[21:15]); // это все равно, что // "if tone[22]=1 then ramp=tone[21:15] else ramp=~tone[21:15]" Но такая пила еще не готова к применению в нашем проекте. Значение пилы меняется от 7'b0000000 до 7'b1111111 . Для того, чтобы получить значения из которых можно было бы уже получить звук, мы добавим к слову значения пилы еще 2 бита '01' слева и шесть бит '000000' справа. wire [14:0] clkdivider = {2'b01, ramp, 6'b000000}; Таким образом, мы получим постоянно меняющееся значение clkdivider в диапазоне от 15'b010000000000000 до 15'b011111111000000 , или в шестнадцатиричной системе от 15'h2000 до 15'h3FC0 , или в десятичной 8192 to 16320. При частоте генератора 25.175 МГц мы получим звук сирены от 771 Гц до 1537 Гц. module epm7064_test(clk, audio); input wire clk; output audio; reg [14:0] counter; initial counter <= 15'd0; reg [23:0] tone; initial tone <= 24'd0; always @(posedge clk) tone <= tone+1; wire [6:0] ramp = (tone[22] ? tone[21:15] : ~tone[21:15]); wire [14:0] clkdivider = {2'b01, ramp, 6'b000000}; always @(posedge clk) begin if(counter==0) begin counter <= clkdivider; end else begin counter <= counter - 1'b1; end end reg audio; always @(posedge clk) if(counter==0) audio <= ~audio; endmodule И мы получили быструю сирену. Но настоящая сирена меняет свою скорость с быстрой на медленную. Мы можем взять биты tone[21:15] для быстрой пилы, и биты tone[24:18] для пилы с меньшей частотой. wire [6:0] fastsweep = (tone[22] ? tone[21:15] : ~tone[21:15]); wire [6:0] slowsweep = (tone[25] ? tone[24:18] : ~tone[24:18]); wire [14:0] clkdivider = {2'b01, (tone[27] ? slowsweep : fastsweep), 6'b000000}; Для этого потребуется увеличить разрядность счетчика tone. module epm7064_test(clk, audio); input wire clk; output audio; reg [14:0] counter; initial counter <= 15'd0; reg [27:0] tone; initial tone <= 28'd0; always @(posedge clk) tone <= tone+1; wire [6:0] ramp = (tone[22] ? tone[21:15] : ~tone[21:15]); wire [6:0] fastsweep = (tone[22] ? tone[21:15] : ~tone[21:15]); wire [6:0] slowsweep = (tone[25] ? tone[24:18] : ~tone[24:18]); wire [14:0] clkdivider = {2'b01, (tone[27] ? slowsweep : fastsweep), 6'b000000}; always @(posedge clk) begin if(counter==0) begin counter <= clkdivider; end else begin counter <= counter - 1'b1; end end reg audio; always @(posedge clk) if(counter==0) audio <= ~audio; endmodule Играем мелодию А теперь, в честь наступающего нового года, попробуем сыграть песенку про ёлочку. Поищем ноты и видео , чтобы понять, как играется эта песенка. Для того, чтобы играть последовательность нот, нам нужно создать секвенсор, который будет выдавать номер нужной ноты, в нужный момент времени. Это значение ноты мы преобразуем в константу для делителя частоты, чтобы получить соответствующую ноту. Судя по видео, нам потребуется всего одна октава + 1. В принципе, все ноты нам не нужы. А нужны только 7 нот, которые используются в песне. Поэтому, для хранения номера ноты достаточно 3 бит. Правильнее, конечно, будет сказать не номер ноты, а номер тона или частоты в мелодии. Итак, у нас в мелодии есть ноты: до, ре, ми, фа, соль, ля и до следующей октавы. Мы их соответственно и пронумеруем. Последовательность получается такая: соль 5 ми ми 3 3 соль 5 ми ми 3 3 соль фа ми ре до 5 4 3 2 1 ля до(+1) ля соль ми ми соль фа ми ре до Нарисую временную диаграмму. С помощью секретного табличного процессора, рассчитываем частоты нот и значения делителей, немного их округлив. Теперь, когда все расчеты окончены, опишем логику. Делитель частоты по номеру ноты: wire [15:0] clkdivider = (note_num == 0) ? 16'd0 : (note_num == 1) ? 16'b1011101111110000 : (note_num == 2) ? 16'b1010011101110000 : (note_num == 3) ? 16'b1001010100110000 : (note_num == 4) ? 16'b1000110011010000 : (note_num == 5) ? 16'b0111110101110000 : (note_num == 6) ? 16'b0110111111000000 : (note_num == 7) ? 16'b0101111000000000 : 16'd0; Судя по картинке, секвенсор у нас получается на 64 шага. Для этого увеличиваем разрядность счетчика tone. reg [27:0] tone; initial tone <= 28'd0; always @(posedge clk) tone <= tone + 1'b1; wire [5:0] step_num = tone[26:(26-5)]; // 6 бит это от 0 до 63 Преобразование из номера номера шага секвенсора в номер ноты: wire [2:0] note_num = (step_num == 0) ? 5 : // 1 (step_num == 1) ? 5 : // 2 (step_num == 2) ? 0 : // 3 (step_num == 3) ? 0 : // 4 (step_num == 4) ? 3 : // 5 (step_num == 5) ? 0 : // 6 (step_num == 6) ? 3 : // 7 (step_num == 7) ? 0 : // 8 (step_num == 8) ? 5 : // 9 (step_num == 9) ? 5 : // 10 (step_num ==10) ? 0 : // 11 (step_num ==11) ? 0 : // 12 (step_num ==12) ? 3 : // 13 (step_num ==13) ? 0 : // 14 (step_num ==14) ? 3 : // 15 (step_num ==15) ? 0 : // 16 ... и т. д. полностью module epm7064_test(clk, audio); input wire clk; output audio; reg [15:0] counter; initial counter <= 16'd0; reg [27:0] tone; initial tone <= 28'd0; always @(posedge clk) tone <= tone + 1'b1; wire [5:0] step_num = tone[26:(26-5)]; wire [2:0] note_num = (step_num == 0) ? 5 : // 1 (step_num == 1) ? 5 : // 2 (step_num == 2) ? 0 : // 3 (step_num == 3) ? 0 : // 4 (step_num == 4) ? 3 : // 5 (step_num == 5) ? 0 : // 6 (step_num == 6) ? 3 : // 7 (step_num == 7) ? 0 : // 8 (step_num == 8) ? 5 : // 9 (step_num == 9) ? 5 : // 10 (step_num ==10) ? 0 : // 11 (step_num ==11) ? 0 : // 12 (step_num ==12) ? 3 : // 13 (step_num ==13) ? 0 : // 14 (step_num ==14) ? 3 : // 15 (step_num ==15) ? 0 : // 16 (step_num ==16) ? 5 : // 17 (step_num ==17) ? 0 : // 18 (step_num ==18) ? 4 : // 19 (step_num ==19) ? 0 : // 20 (step_num ==20) ? 3 : // 21 (step_num ==21) ? 0 : // 22 (step_num ==22) ? 2 : // 23 (step_num ==23) ? 0 : // 24 (step_num ==24) ? 1 : // 25 (step_num ==25) ? 1 : // 26 (step_num ==26) ? 1 : // 27 (step_num ==27) ? 1 : // 28 (step_num ==28) ? 0 : // 29 (step_num ==29) ? 0 : // 30 (step_num ==30) ? 0 : // 31 (step_num ==31) ? 0 : // 32 (step_num ==32) ? 6 : // 33 (step_num ==33) ? 6 : // 34 (step_num ==34) ? 0 : // 35 (step_num ==35) ? 0 : // 36 (step_num ==36) ? 7 : // 37 (step_num ==37) ? 0 : // 38 (step_num ==38) ? 6 : // 39 (step_num ==39) ? 0 : // 40 (step_num ==40) ? 5 : // 41 (step_num ==41) ? 5 : // 42 (step_num ==42) ? 0 : // 43 (step_num ==43) ? 0 : // 44 (step_num ==44) ? 3 : // 45 (step_num ==45) ? 0 : // 46 (step_num ==46) ? 3 : // 47 (step_num ==47) ? 0 : // 48 (step_num ==48) ? 5 : // 49 (step_num ==49) ? 0 : // 50 (step_num ==50) ? 4 : // 51 (step_num ==51) ? 0 : // 52 (step_num ==52) ? 3 : // 53 (step_num ==53) ? 0 : // 54 (step_num ==54) ? 2 : // 55 (step_num ==55) ? 0 : // 56 (step_num ==56) ? 1 : // 57 (step_num ==57) ? 1 : // 58 (step_num ==58) ? 1 : // 59 (step_num ==59) ? 1 : // 60 (step_num ==60) ? 0 : // 61 (step_num ==61) ? 0 : // 62 (step_num ==62) ? 0 : // 63 (step_num ==63) ? 0 : // 64 0; wire [15:0] clkdivider = (note_num == 0) ? 16'd0 : (note_num == 1) ? 16'b1011101111110000 : (note_num == 2) ? 16'b1010011101110000 : (note_num == 3) ? 16'b1001010100110000 : (note_num == 4) ? 16'b1000110011010000 : (note_num == 5) ? 16'b0111110101110000 : (note_num == 6) ? 16'b0110111111000000 : (note_num == 7) ? 16'b0101111000000000 : 16'd0; always @(posedge clk) begin if(counter==0) begin counter <= clkdivider; end else begin counter <= counter - 1'b1; end end reg audio; always @(posedge clk) if(counter==0) audio <= ~audio; endmodule Начнем контрольные прослушивания Мне кажется, Маша одобряет ;) ^_^ Выводы Как выяснилось, ПЛИС на 64 ячейки способен выступать в роли генератора звукового сигнала для сирены сигнализации. Проект с мелодией про маленькую ёлочку, занял 61 ячейку из 64-х. А это значит, что есть еще ресурсы, их можно использовать и создать, например, музыкальный дверной звонок (привет 90е!). Исходные коды: https://github.com/UA3MQJ/epm7064_audio При написании статьи, использовались идеи и исходные коды статьи с сайта fpga2fun — Music Box .
https://habrahabr.ru/post/317876/
habrahabr
Операция «У». Как делают фасад небоскреба
['лахта центр', 'небоскреб', 'стекло']
Остекление первого петербургского небоскреба — уникальная операция. Причин тому как минимум две. Первая — объем работ. Площадь остекления башни «Лахта центра» — 72 500 м². Это почти три Красных...
Остекление первого петербургского небоскреба — уникальная операция. Причин тому как минимум две. Первая — объем работ. Площадь остекления башни «Лахта центра» — 72 500 м². Это почти три Красных площади в Москве, или десять футбольных полей или пятнадцать платформ для посадки первой ступени Falcon 9 миссии SpaceX… Всего же стеклянная часть фасадов комплекса (башня+МФЗ) достигает 130 тыс. кв. метров. Претендует на мировой рекорд. Вторая причина — помимо впечатляющей квадратуры, сложности придает уникальная форма башни. Она меняется на каждом этаже — расширяется, сужается и закручивается — каждый этаж на 0,82 градуса относительно центральной оси. Эта непростая геометрия задала немало задач не только проектировщикам, но и тем, кто непосредственно остекляет башню. Из-за формы большая часть стеклопакетов немного отличается друг от друга — значит, для каждого предусмотрено его собственное место. Узнаем, как складывается этот стеклянный пазл из 16 505 элементов + премьерный показ видео о том, как его будут мыть. Основной элемент В качестве фасадного элемента выступает параллелограмм гнутой формы: Изогнутость стеклопакета нужна для достижения спиралевидной формы здания — фасад как бы обтекает башню вокруг ее оси. Простые плоские стеклопакеты дадут в этом случае эффект «граненого стакана». Холодногнутый вариант подразумевает гладкую монолитную поверхность: Как гнут стеклопакет «холодным» способом Ламинированный пакет размером 2,8 м х 4,2 м укладывается в алюминиевую раму, лежащую в горизонтальном положении. Под собственным весом (около 780 кг) стеклопакет деформируется, изгибаясь под форму рамы. Термическое воздействие отсутствует – это технология «холодного гнутья». Максимальная деформация одного угла стеклопакета из плоскости — около 40 мм. Где делают такие стекла Начнем с того, что в России холодногнутые стекла делают. Если говорить о чисто российских брендах, то это пока — пара относительно небольших производств, у которых еще нет мощностей для освоения объема в 72 тысячи кв. метров. Но, думаем, что у них все впереди. Для башни «Лахта центра» стеклопакеты производит Josef Gartner GmbH, для МФЗ — сразу 4 компании. Образцы стекла всех четырех производителей фасадов МФЗ, выставленные на площадке для натурного моделирования. Лахта, Петербург, 2016 «Гартнер» работает в России — специально под проект немцы открыли производство в Левашово, в 20 километрах от площадки. Это решение — из области логистики: доставлять из Германии негабаритные и очень тяжелые стеклопакеты, конечно, не по-немецки — непрагматично. Завод в Левашово — 12-й, принадлежащий группе и первое полноценное производство компании в России. Тотальный контроль Неправильное поведение стекла в фасаде означает что человек где-то совершил ошибку — в расчете, или в изготовлении, или в транспортировке, или в установке. Поэтому все четыре этапа контролируются — до прибытия на площадку- производителем, а далее — уже строителями. Так что встречают новоприбывшую партию стеклопакетов не караваем, а спецсредствами. Контролеры по специальной технологической инструкции отсматривают каждый стеклопакет – каждый из тех десятков тысяч, которые будут во всем комплексе «Лахта центра». Составляется еженедельный отчет об обнаруженных негативных нюансах, если таковые имеются. Когда стекло перекалено, то это трудноуловимый производственный дефект, а вот внутренние пузырьки или дефекты по причине плохой транспортировки поможет установить внимательность и дотошность специалистов. Процесс крепления Сам процесс выглядит так: Фасадная система крепления – навесная. Фасадные панели (стеклопакеты в рамах) навешиваются на скобы, а не крепятся жестко к несущему остову здания. В готовом виде с внутренней стороны: Вид скоб для навешивания стеклопакетов в соседнем МФЗ: Ряд в готовом виде, там же: За счет навесной системы получается, что стеклянная оболочка облегает конструкцию, но не встроена в здание, оставаясь в некотором роде независимой. Причина выбора именно такого варианта – в том, что конструкция башни будет подвижна — из-за осадки и усадки во время строительства и после завершения всех монолитных работ, воздействия внешних фактов, например, ветра и солнца. Навесная система и решение по стыкам между стеклопакетами дают компенсирующий эффект, делая фасад независимым от колебаний здания, усилий, возникающих в его конструкциях. Еще одна причина в том, что и сами фасадные панели тоже двигаются — из-за температурных перепадов: летом они расширяются, а зимой сжимаются. Такой же, но менее выраженный процесс происходит и в течение суток. Конечно, эти факторы требовали учета в конструкции стеклопакета и системе крепления фасада. Интересный пример со зданием , которое остеклили без должного учета температурных колебаний, привел Igor_O в дискуссии по прошлой статье. Итог печален — стекла осыпались, пусть не сразу. Получается, что между стыками стеклопакетов образуется некоторое пространство? Так и есть. Каждая панель по периметру имеет уплотнители, которые препятствуют влиянию внешних факторов на внутренний климат здания. Фасадная система — герметична. Пространство есть также между фасадом и межэтажным перекрытием — при последующих работах его закрывают. Почему стеклят не сразу Остекление — «замыкающий» вид работ по возведению башни. Остекленные уровни позволяют увидеть, каким будет небоскреб в своем завершенном облике. Технологический разрыв между остеклением и работами по возведению композитной конструкции вокруг ядра башни обусловлен удобством размещения оборудования для подъема и установки стеклопакетов и необходимым безопасным расстоянием. Под возводимыми этажами устанавливаются защитно-улавливающие сетки для предотвращения падения строительных инструментов и материалов. Высота стеклопакета, как мы помним, 4.2 метра. Это эквивалентно высоте одного этажа. Фасадные элементы вывешиваются по периметру этажа. После этого процесс установки переходит на уровень выше. Буферные зоны Здание в горизонтальном разрезе состоит из пяти лепестков. В углах, между гранями лепестков, предусмотрены двойные фасады. Пространство между «нитками» фасадов — буферные зоны. Буферные зоны — это своеобразные застекленные лоджии, с помощью которых возможно естественное проветривание: на «лоджиях» предусмотрены «форточки» — технические клапана, которые будут автоматически открываться при определенных условиях. Буферные зоны занимают по высоте сразу два этажа, поэтому фасадные панели навешиваются не на плиту перекрытия, а на направляющие рамы: Двухэтажная буферная зона, вид изнутри: И вид «лоджии» сбоку: СОФ Все конструктивные элементы и инженерные системы современного здания связаны между собой. Фасад – не исключение. Для очистки фасада «Лахта центра» от загрязнений или для замены поврежденных стекол используют специальный подъемник. В ребрах башни между фасадными панелями предусмотрены пазы, а в самой люльке-подъемнике — хомуты со стержнями, которые фиксируются в пазах фасада. Данная система крепления позволяет полностью устранить раскачивание люльки на высоте. Называется это «СОФ», система обслуживания фасада. СОФ разработали специально под башню — из-за спиралевидной формы готовых решений не нашлось. О СОФ мы еще расскажем в одном из постов. А пока — видео об этой системе. Кстати, это — премьерный показ. Стеклянные инновации Первый стеклянный фасад как архитектурный элемент здания появился в Германии в 1926 году. Полностью светопрозрачные фасады впервые в мире стали применяться в Советском Союзе. Первым зданием с фасадным остеклением стал Дом Центросоюза, построенный в Москве в 1936 году известным архитектором Чарльзом Эдуардом Ле Корбюзье. Фото здания ЦентроСоюз с сайта «Прогулки по Москве» Вскоре это архитектурное новшество стало очень популярным. Сначала зеркальные фасады были просто прямыми. Потом, в 1940-х годах в Западной Европе появилось изогнутое архитектурное стекло. В основе процесса сгибания – моллирования – нагревание стекла до температуры – 600 °С, затем — изгибание с помощью формы и медленное охлаждение. Из такого стекла сделана макушка небоскреба 30 St Mary Axe — Лондонский Огурец. В начале 1990-х годов было изобретено холодногнутое стекло. Канадец Rick Silas сумел согнуть закаленное стекло при комнатной температуре, сохранив его структурную целостность. Придуманный способ Cold Bent Shattered Glass позволяет гнуть стекла и многослойные стеклопакеты вокруг практически любых существующих конструкций. Первым объектом из холодногнутого стекла в России стала петербургская штаб-квартира банка «Санкт-Петербург», площадь остекления — 20 000 м². Второй – 255-метровая башня «Эволюция» в Москва-Сити: Следующий объект – 462-метровый «Лахта Центр», где площадь холодногнутого остекления в доходит до 85% всей фасадной поверхности супертолла.
https://geektimes.ru/company/lakhta_center/blog/284082/
habrahabr
Как научить продажника говорить с разработчиками
['продажи']
Думаю, пользователи “Хабра” не раз сталкивались с менеджерами по продажам. Это такие ребята, для которых законы логики и физики носят рекомендательный характер. Специально для них я решил написать...
Думаю, пользователи “Хабра” не раз сталкивались с менеджерами по продажам. Это такие ребята, для которых законы логики и физики носят рекомендательный характер. Специально для них я решил написать несколько простых примеров, как надо и как не надо общаться с разработчиками, дизайнерами, инженерами и другими специалистами. Без обид, желаю всем добра и взаимопонимания! Поиграем с договоренностями и сроками Как неправильно: “Я уже пообещал клиенту, что справимся за два месяца вместо года. Придется немного ускориться. Может быть бесплатная пицца поднимет вам настроение?” Какие мысли это вызывает: Представляю сцену из фильма “Техасская резня бензопилой”. Если распилить продажника на две части, то продажи удвоятся, ведь так? Как правильно: “Уважаемые разработчики, что реально сделать за два месяца?” Как неправильно: “Мы считали, что затраты будут 1М, но придется сделать все за 0,4М и еще клиент хочет дополнительный функционал!” Какие мысли это вызывает: — Отлично, давайте наймем аутсорсеров из Бангладеш. — А они там разве знают Java? — Не уверен — они пока ищут того, кто знает английский. Зато, очень дешево! Как правильно: “Уважаемые разработчики, что реально сделать за 0,4М?” Как неправильно: “Это же очевидно, что эта кнопочка должна махать крылышками, хрюкать и при этом выполнять запрос на портал gosuslugi через API. Нужно доделать ее, как мы договаривались!” Какие мысли это вызывает: Мы тут всей командой уже год ждем когда же закончатся ваши запасы галлюциногенов. Но похоже вы подрабатываете на химическом заводе. Как правильно: “Вот ТЗ на доработку, давайте оценим.” Пример из жизни: Заказчик решил разработать с нуля типа свой Skype, только лучше. Продажник верил, что мы сможем, ведь один его знакомый стримил Майдан, и все работало, а еще он нашел полно готовых модулей для передачи видео- и аудиопотоков. Аналитик на встрече потребовал исследовательский этап со стартовым бюджетом. Проект двинулся, но продажник что-то приуныл. Ведь проценты совсем не те, а клиенту разбили его Full HD мечту! И не важно, что доморощенный скайп лагал, как черепашка без ножек. Гиперактивность, назойливость и пропадание Как неправильно: Письмо в пятницу в 18:30: “Нужно до понедельника приготовить слайды, конец света, горим!!!” Какие мысли это вызывает: Ок, спросили: “А про что слайды?”, — и ждем уже месяц ответа, звонили, напоминали, умоляли. Не могут придумать про что слайды. Как неправильно: Снова письмо в пятницу в 18:30: “Конец света, горим нужны те самые слайды, они должны быть про холодец и щебень” Какие мысли это вызывает: Мы уже поняли, что вы пишите с химического завода, но все же, что это за чертов щебень? Ответ: “Уважаемые коллеги, нахожусь в отпуске, буду недоступен две недели” Как правильно: “Уважаемые дизайнеры, пришлите образец брифа по слайдам — не могу понять, что хочет от нас клиент.” Примеры из жизни: — Мы предложили клиенту на мероприятие дополненную реальность, чтобы “Вжух! И на небе комета”, маски, как в Masqrd, только брендированные, стримы в Instagram через наше приложение и свой FindFace c Shazam-ом. Надо это всё быстро посчитать! Бюджет неизвестен, но вы сильно не разгоняйтесь. На разработку будет 2 месяца. Прошел месяц… — Ну, что вы где? Что говорит клиент? — А мы ему продали тент и батут, и еще живых кенгуру. Но мы обязательно предложим ему диджитл в следующий раз. Спутанность сознания (образное мышление) Как неправильно: “Мы продали клиенту систему за 10М рублей, в нее будет интегрирован прокат горных велосипедов с магазином деревянных костылей. Поскольку инвалиды редко ездят на горных велосипедах, мы предложили добавить приложение для слепых детей. Как бонус продали интеграцию веселого шиномонтажа с геймификацией: пока ты сидишь в очереди, тебя развлекают радостные клоуны!” Какие мысли это вызывает: Оооо боги! За какие грехи я здесь? Почему вы не устроили меня главным технологом на химический завод? Как правильно: “Уважаемые разработчики, вот вам ТЗ на прокат велосипедов, остальное обсудим после завершения MVP.” Примеры из жизни: Клиент: “Мы хотим делать обучающие трансляции! Это должно быть очень качественно! Съемка со всех ракурсов. Ну, вы понимаете! Но так, чтобы это было вот прямо очень просто. Одной кнопкой! Рынок – готов, хотим запуститься до нового года”. Продажник: “Дро-о-о-о-н! Они летают и снимают! Давайте начнем с интеграции с дроном! “ Клиент: “Точно! Дрон будет летать за мной по сцене во время нашей презентации и каждый сможет подключить свой VR-шлем, чтобы посмотреть на меня от первого лица.” Вера в единорогов Как неправильно: “Ну вы же профессионалы! Вы же должны знать, как сделать интеграцию горных велосипедов, костылей, шиномонтажных клоунов и слепых детей?” Какие мысли это вызывает: Разбудите меня, я же сплю? Ведь правда? Правда же я сплю! Ну пожалуйста! Пускай будет будто бы я сплю и сейчас проснусь. Как правильно: “Уважаемые разработчики, вот вам ТЗ на велокостылешиноклоуны, оцените реализуемость.” Примеры из жизни: — В ХХХском департаменте мы договорились собирать плату за штрафы, прошел год, штрафы не приходят, все нарушают бесплатно, главный гаишник очень недоволен! — Нужно еще немного подождать — студенты, которых вы наняли, уже научились выводить “Hello world” на принтере для писем со штрафами. Скоро за камеру возьмутся. Врать, когда вообще не надо врать Как неправильно: “Так вот, я пообещал клиенту, что у нас полно знакомых клоунов и спецов по костылям. Найдите срочно мне таких!” Какие мысли это вызывает: Знаете, как минимум, один лютый клоун у нас точно есть. А вот, специалистов по костылям вам теперь придется поискать новых. Мы увольняемся, оставляем вам в наследство склад велосипедов в нашем репозитории. Как правильно: “Боюсь соврать клиенту, поэтому решил проконсультироваться с вами: предоставляем ли мы костыли, велосипеды и клоунов?” Примеры из жизни: — У нас 30 разработчиков в штате! — А годовой оборот, вы говорили, три миллиона, да? Они у вас что, по 7 т.р. в месяц получают? — Мы такое уже много раз делали! — Хмм… другие подрядчики нам говорили, что такого в природе не существует. Улучшим лучшее, ускорим быстрое Как неправильно: “Давайте переделаем этот уже утвержденный макет. Ведь он станет еще лучше и клиент полюбит нас еще больше. Какие мысли это вызывает: Сделай добро и получи новые 20 раундов правок в подарок! Как правильно: “Я знаю как сделать этот макет лучше. Я верю, что это поможет мне лучше продавать. Кто-нибудь тут готов мне его помочь переделать? Только не кидайте в меня мебелью, я забыл дома каску.” Примеры из жизни: — Пришлите мне обновленный макет — Он не готов, правки вносит дизайнер, обещает через пару дней! — Как, а разве аналитик не внес их прямо на встрече с клиентом? — Что? Нет! Он делал скриншоты и рамочками выделял места правок. Он не правил дизайн! Правда! Нужно постараться Как неправильно: — У нас нет ТЗ! — Нужно постараться! — Бюджета не хватит на этот функционал! — Нужно постараться! — В эти сроки невозможно уложиться — Нужно постараться! Какие мысли это вызывает: — Нет сил, как же хочется придушить вас! — Нужно поста…оааа….кхе… кхе… Как правильно: “Давайте вместе подумаем, что нужно сделать, чтобы исправить ситуацию.” Примеры из жизни: — XXXэнерго хочет подключиться к нашей платежной системе, чтобы выставлять счета и автоплатежи. Я пообещал, что мы бесплатно им автоматизируем бизнес-процессы, если подключатся. — А что у них там, 1С? — Нет, у них все на бумаге пока. — Но мы же агрегатор микро-платежей! Мы никогда не внедряли ERP на электростанциях! — Я верю, что вы справитесь, надо постараться! Заключение Надеюсь, что продажникам стало хоть чуточку понятнее, как их понимают те, кому теперь придется все это разгребать. Почаще повторяйте себе: «Деда Мороза – нет. Подарки под ёлку кладут родители. Разработчики – не волшебники, и не умеют доставать готовые проекты для клиентов из большого черного цилиндра». На “Хабре” много разработчиков, дизайнеров и других специалистов, с которыми часто сталкиваются менеджеры по продажам. Давайте поможем сэйлзам правильно с нами разговаривать. Пишите в комменты свои кейсы с продажниками: как надо, что думаете, как не надо — обсудим.
https://habrahabr.ru/post/318350/
habrahabr
Как работают ИТ-специалисты. Андрей Аксенов, основатель проекта Sphinx
['интервью с разработчиками', 'советы начинающим', 'лайфхак', 'привычки', 'организация работы', 'open source', 'linux']
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их...
Мы продолжаем расспрашивать специалистов о режиме труда и отдыха, профессиональных привычках, об инструментарии, который они используют, и многом другом. Будет интересно выяснить, что их объединяет, в чем они противоречат другу другу. Возможно, их ответы помогут выявить какие-то общие закономерности, полезные советы, которые помогут многим из нас. Сегодня наш гость — Андрей Аксенов, основатель проекта Sphinx. Андрей относится к лайфхакам довольно скептически. Они не являются его главными помощниками в повышении личной эффективности. Чем занимаетесь в компании? Всем подряд – на то я и основатель. Иногда пишу код, но все больше появляется таких задач, как переговоры, переписка по почте и тому подобное. Одна фраза (словосочетание), лучше всего описывающее, как вы работаете: Припадками. Сколько часов в сутки вы уделяете работе? От 0 до 20 часов. Сколько часов вы спите? До 0 до 6-8 часов. Ноль бывает, слава богу, уже не каждый год. Вы завтракаете? Практически нет. В основном кофе пью. Иногда бутерброд добавляю. Вы в Москве живете? Да. Сколько времени уходит на дорогу в офис? Я работаю из дома. Поэтому, слава богу, никуда не приходится особенно ездить. Конечно, вылазки иногда случаются, но это не ежедневное явление. А если куда-то приходится ехать, как вы проводите время в пути? Читаю книги. Каким issue-tracker’ом / репозиторием пользуетесь? По историческим причинам используем Mantis. Сейчас неизвестно, чем бы мы пользовались вместо него. Репозиторий – Git. Какие инструменты, фреймворки вы используете для разработки? Мы команда, которая пишет open source в основном для Linux, поэтому пишем мы его, конечно же… в Visual Studio (улыбается). Есть ли в вашей компании какие-то внутренние проекты, библиотеки и для чего они создавались? Есть всякая «обвязочная мелочевка». Я не назвал бы это внутренними проектами. Каким todo-менеджером пользуетесь лично вы? Текстовые файлы, а также программа для Windows, которая клеит стикеры на рабочий стол. Что вас раздражает больше всего, когда вы работаете? Когда решительно что-то не получается. Какую профессиональную литературу вы бы могли порекомендовать? Это момент моей личной необразованности. Или, с другой стороны, самообразованности. Я в свое время был вынужден образовываться неуставными методами. У меня есть подозрения (подчеркиваю: подозрения), что можно было бы посоветовать Кнута, «Совершенный код» и еще пару подобных книг. Но поскольку я их от корки до корки не читал, то не рискну. Что предпочитаете: электронные читалки или бумажные книги? Электронные читалки. Обычно у меня имеет место следующий цикл чтения: «телефон – Kindle – телефон». Какую технику (компьютеры, планшеты, смартфоны) и операционные системы вы предпочитаете на работе и дома? Исторически пользуюсь Windows. Были попытки перейти на Linux, но привычка и удобство эксплуатации Windows пересилила. Телефон – Android. Вы слушаете музыку, когда работаете? Слушаю почти постоянно. Иногда вырубаю в отдельные сложные моменты. Какой лайфхак позволяет вам быть эффективнее? Есть какой-то набор простых стандартных техник, которых у меня срабатывали в разное время. Одна из них – GTD-техника с «помидорчиком» [Pomodoro — примечание редактора]. Были стикеры на desktop, физические стикеры. Иногда бывает, что постепенно прекращает работать вообще все. Без каких приложений и сервисов не можете обойтись ни в работе, ни в личной жизни? Не узнаешь, пока не попытаешься от них отказаться (улыбается). Наверное, это стандартный набор скайп-почта-телефон, а также IDE Visual Studio и Github. Что бы написал Андрей Аксенов в письме в будущее самому себе? Не вижу смысла: в будущем я либо не сумею хорошо забыть то, что было в прошлом; либо мне не будет интересно, что тот человек из прошлого там понаписал. У вас пройден огромный путь. А кто-то сейчас стоит в начале этого пути. Что бы вы порекомендовали человеку, пытающемуся пройти тот же путь? Так как я разработчик, то и совет будет про разработку. Работа эта такая же, как и другие – со своими плюсами и минусами. Поэтому, если сомневаетесь или хотите попробовать себя в чем-то другом, возможно, стоит над этим хорошо задуматься. Если вы все-таки уверены, что вам сюда, то для вас второй совет – индивидуальный подход к снаряду. Я выступаю за алгоритмический фундаментализм: «Учите базу, поцоны». Учите ее очень хорошо, учите так, чтобы отскакивало от зубов. После этого любые сколь угодно модные или старые, проверенные временем технологии будут вам по плечу, и вы справитесь с ними довольно быстро.
https://habrahabr.ru/post/318626/
habrahabr
Россия на первом в истории соревновании киборгов
['протезы', 'бионические протезы', 'бионика', 'будущее', 'расширяя возможности', 'биотехнологии', 'медицина будущего']
Этой осенью в Швейцарии я принял участие в Кибатлоне (англ. Cybathlon) — первом истории человечества соревновании людей-киборгов. На соревнованиях я пользовался бионическим протезом предплечья...
Этой осенью в Швейцарии я принял участие в Кибатлоне (англ. Cybathlon) — первом истории человечества соревновании людей-киборгов. На соревнованиях я пользовался бионическим протезом предплечья Stradivary от нашей команды «Моторика» . Кибатлон — это еще один взятый рубеж научно-технической революции. Я уверен, что принципиальную важность этого события мы полноценно осознаем через десятилетия, когда киборгизация (как здоровых людей, так людей с инвалидностью) выйдет на поистине фантастический уровень. Что такое Кибатлон и зачем он нужен В Кибатлоне принимают участие люди с инвалидностью, использующие высокотехнологичные технические средства реабилитации (ТСР), а также разработчики этих самых ТСР. Соревнование заключается в прохождении полосы препятствий, на которой необходимо выполнять различные задания, в основном бытового характера. Например, пользователи протезов рук должны закрутить лампочку, а пользователи электроколясок — преодолеть лестницу. В чем смысл? Организаторы собирают в одном месте все самые крутые ТСР и ставят их пользователей в одинаковые соревновательные условия. Благодаря этому мы можем своими глазами увидеть, какой, например, протез на данный момент является реально лучшим из существующих. На Кибатлоне средства реабилитации сравниваются «лоб в лоб» и тут уже не помогут ни маркетинговые уловки, ни красивые видосики на ютубе: либо твой продукт показывает результат, либо нет. Отмечу, что принять участие в Кибатлоне могут как известные транснациональные компании-разработчики, так и небольшие стартапы с экспериментальными разработками. Победители получают 2 медали. Одна достается команде-разработчиков, вторая — пользователю (или пилоту). Прямо как в Формуле-1. Вообще первый Кибатлон можно сравнить с первыми в истории автомобильными гонками. Пока результаты не такие фантастические, но перспективность этих разработок очевидна. Мне особенно приятно, что в первом Кибатлоне приняли участие 6 команд из России. И пусть российские команды не заняли призовых мест, меня радует сам факт существования у нас высоких технологий в сфере реабилитации. Первый Кибатлон проводился в 6 дисциплинах: протезы рук, протезы ног, экзоскелеты, электроколяски, нейроинтерфейсы и функциональная электрическая стимуляция. Протезы ног В дисциплине протезов бедра пилоты должны были преодолеть полосу препятствий, имитирующую различные жизненные ситуации, например, сесть и встать, перешагнуть через препятствие и пройти по лестнице и неровностям. В гонке принимали участие 12 пилотов, причем четверо из них представляли компанию Ossur — одного из ведущего разработчика и многолетнего лидера рынка в этом сегменте. Не мудрено, что именно пилоты Ossur заняли весь призовой пьедестал. Очень круто, что четвертое место заняла российская разработка — Дмитрий Игнатов с гидравлической коленкой от компании «Ортокосмос» немного не дотянул до тройки лучших. Экзоскелеты Экзоскелеты дают возможность ходить людям с парализованными нижними конечностями. На Кибатлоне пилотам экзоскелетов приходилось не просто ходить, а маневрировать между препятствиями и взбираться по лестницам: По моему мнению, это самая сложная дисциплина для пилота — передвигаться в экзоскелете очень тяжело физически. Самым быстрым же оказался немецкий экзоскелет от ReWalk. В соревновании участвовал и наш пилот с разработкой отечественной компании Neurobotics , но он, к сожалению, оказался далеко от тройки финалистов. Электроколяски Еще одна интересная дисциплина соревнований — это гонки на электрических инвалидных колясках. Пилоты преодолевают все те же смоделированные под реальные препятствия — искусственные неровности и наклоны, проходят “змейку”, заезжают и спускаются с лестниц. Подробный отчет о соревновании в этой дисциплине уже появлялся на GeekTimes. В дисциплине участвовали 12 команд со всего мира, в том числе и новосибирская компания Caterwil. Ребята стали настоящим открытием для меня — я и не знал, что где-то в России компания выпускает такие крутые коляски-вездеходы. Самое серьезное препятствие на трассе для колясочников — это, конечно, лестница. И инженеры команд по разному решили эту задачу. Например, кресла от Caterwil имеют и колесный и гусеничный ход. На колесах коляска едет быстро и хорошо маневрирует, а на гусеницах преодолевает ступеньки. К слову, на трассе ребята показали максимально возможный результат, но в общем зачете оказались лишь на пятом месте, так как проиграли по времени. Финишировавший первым швейцарец прошел трассу почти на 2 минуты быстрее. Как, спросите вы? Дело в том, что швейцарцы спроектировали свое кресло специально под Кибатлон. Их коляска заточена преодолевать ступеньки конкретной ширины и высоты, даром, что всю информацию о трассе, вплоть до размеров наклонов и ступенек, организаторы заранее прописывают в правилах. Это говорит об одной из проблем Кибатлона — некоторые компании подстраивают свои ТСР специально под задания трассы. С одной стороны в этом нет ничего плохого, ведь это соревнования и все находятся в одинаковых условиях. Никто не мешает тебе заточить, например, свою коляску под определенные ступеньки. Но ведь средства реабилитации призваны помогать человеку в реальной жизни, а в жизни все наклоны, кочки и ступеньки разного размера. Ребята из Caterwil приехали на соревнование со своей серийной коляской, что вдвойне круто. Надеюсь, что практика кастомизации ТСР для соревнований себя не оправдает и в будущем побеждать будет тот протез/экзоскелет/электроколяска/нейроинтефрейс, который будет круче в условиях непредсказуемости трассы. Нейроинтерфейсы (BCI — Brain–computer interface) Соревнование среди частично парализованных пользователей нейроинтерфейсов “Мозг-компьютер”. Технология позволяет обрабатывать электрические сигналы с коры головного мозга, усиливать и передавать их на компьютер, а далее с помощью алгоритмов обработки производить синхронизацию с устройством или приложением. Состязание представляет собой прохождение компьютерной аркады , действиями главного героя которой пилот управляет при помощи “силы мысли”. Всего пользователь отдает 4 команды — прыжок, подкат, шаг и рывок. Каждой команде соответствовал определенный вагончик, по которому двигался виртуальный игрок. Первые 2 места в гонке заняли швейцарцы из Brain Tweakers. Россию на Кибатлоне представляла еще одна разработка компании Neurobotics. Отечественный нейроитерфейс распознает до 8 отдельных команд в реальном времени, работает всего от 8 монополярных электродов. Участвовать в качестве пилота в соревновании могут только пилоты с шейной травмой, о чем наша команда была уведомлена незадолго до Кибатлона. Из-за этого подходящего пилота нашли только за 3 дня до вылета в Швейцарию. Но и на этом проблемы не закончились. Вот что рассказывают сами ребята: Проблемы начались на самих соревнованиях, когда мы зашли в зону BCI. Увы, но организаторы, которые так дотошно требовали различные документы и справки, не смогли организовать место для проведения дисциплины. Элементарной защиты от электромагнитных помех не было, а это просто необходимо для электроэнцефалографии. При подключении устройства терялись пакеты данных и передача информации шла с задержкой, выглядело это не очень приятно и как результат — на квалификации мы показали плохое время (162 секунды), при том, что на тренировке мы проходили трассу в среднем за 115 секунд. Было немного обидно и досадно за такой недочет и недоработку, т.к. у нас достаточно хорошее программное обеспечения по работе с нейрокомпьютерным интерфейсом, и как минимум на призовое место мы рассчитывали. В общем зачете мы оказались на 7 строке и теперь уже вели борьбу за 5-8 места. И тут нам помогла удача: отклонив немного монитор на ноутбуке, сигнал стал как бы немного лучше и в результате мы победили в своей группе с результатом 131 секунд и заняли 5 место на соревнованиях по BCI. Но по результатом двух финальных групп за 1-4 и 5-8 места мы показали 2 время уступив всего лишь 5 секунд победителю из группы финалистов. Вообще на соревнованиях для нейрокомпьютерного интерфейса были самые неподходящие условия. Проблемы с наводками и шумами были у всех, даже у тех, кто использовал проводные интерфейсы (наш – 8-ми канальный беспроводной). Надеемся, что в следующий раз организаторы Cybathlon примут во внимание особенности съема ЭЭГ. Для себя из соревнования мы сделали следующие выводы: Мы можем. От наших зарубежных коллег отстаем не сильно. В следующем году постараемся сделать все приготовления заранее. Нейрокомпьютерный интерфейс надо защищать от посторонних помех. В Швейцарии симпатично Функциональная электрическая стимуляция Соревнование представляет собой велосипедную гонку, в которой участвуют пилоты с повреждением спинного мозга. Электростимуляция мышц позволяет пользователям крутить педали велосипедов. Это единственная дисциплина, в которой не были представлены отечественные разработки, но я слышал, что подобные исследования ведутся и в России. Первое место с большим отрывом заняли американцы из Team Cleveland Протезы рук: Пользователи протезов рук соревновались в выполнении различных бытовых действий — перенести предметы различного веса и формы, вкрутить лампочку, застегнуть пуговицы и молнию. Отдельная секция была посвящена приготовлению завтрака: нужно было открыть консервную банку, отрезать кусок хлеба и т.п. От себя скажу, что задания на трассе были составлены с умом, все эти повседневные действия действительно нелегко выполнять, используя протез. На соревновании мы увидели много необычных протезов. Вот, например, совершенно сумасшедшая рука от японцев: 3 место занял остеоинтегрированный (вживленный) протез. По сути, это обычный биоэлектрический протез от Otto Bock, но сигналы управления считываются вживленными, а не поверхностными электродами: Как я уже писал в начале, принять участие в Кибатлоне может любая компания с любым протезом, в том числе и не высокотехнологичным. И так вышло, что победу в этой дисциплине одержал тяговый протез-крюк. Да, технология 19 века оказалась лучше всех дорогостоящих бионических рук а-ля терминатор. И это серьезный повод для размышления. Вот, что по этому поводу думает директор «Моторики» Илья Чех: 1. Победителем дисциплины стал тяговый протез-крюк, выполняющий один хват за счет движения в плечевых суставах (аналог тяговых протезов Руденко, распространенных в России). Преимущества протеза – высокая надежность, сильный хват, наличие мышечной «обратной связи», т.е. человек чувствует, насколько сильно сжимает протез, интуитивно регулирует скорость хвата, а также более точно контролирует положение кисти в пространстве. Недостатком тягового крюка является отсутствие поворотного запястья, из-за чего при выполнении сложных пространственных манипуляций приходится выполнять компенсаторные движение плечом и телом: 2. Ни один из представленных на Кибатлоне протезов, кроме тягового крюка, не смог обычным способом поднять тяжелый предмет сложной и гладкой формы (алюминиевый конус в первом испытании, масса — 2.5 кг). Чтобы выполнить это задание, пользователям приходилось сначала переворачивать предмет, а затем подхватывать его утолщением вверх. Это говорит о том, что биоэлектрические протезы развивают недостаточно усилие, чтобы удерживать гладкие тяжелые предметы. 3. Наиболее сложные элементы некоторых заданий выполнялись только здоровой рукой. Например, застегивание пуговиц и молний, открытие консервной банки, нарезание хлеба. В последнем испытании (переноска вещей), протезы практически всех команд либо не использовались в принципе, либо использовались исключительно как противоупор (с чем справился бы и косметический протез): 4. Испытание с закручиванием лампчоки быстрее всех прошел протез Michelangelo, немецкой компании Otto Bock (2 место по итогам соревнований), благодаря электрическому ротатору запястья. Остальные команды вынуждены были просто наживить лампочку в цоколь и затем крутить ее одним пальцем или всем протезом как статичным инструментом. На что потребовалось гораздо больше времени: 5. По итогам соревнования стоит отметить еще одну особенность: все протезы с индивидуальным приводом пальцев заняли последние места. Как уже отмечалось выше, первое место занял тяговый крюк, второе место – многофункциональный протез Michelangelo (с 2-мя двигателями и «коробкой передач» для выполнения разных хватов), третье место – низкофункциональный протез от OttoBock, выполняющий один хват. В соревновании бионических рук было заявлено 12 команд, в том числе 2 наши компании — «Клайбер Бионикс» (с протезом Kleiber Solo) и «Моторика» (с протезом Stradivary). Но по техническим причинам на старты вышли только 10 команд. Кибатлон — это соревнование технологий, а техника имеет свойство отказывать. На Кибатлоне мы были свидетелями проблем с функциональной электростимуляцией, отказов электроколясок и экзоскелетов. К сожалению, эта участь не минула и отечественные компании. Вот как описывает произошедшее глава «Клайбера» Иван Кречетов: По техническим причинам нашей команде (ООО «Клайбер бионикс») пришлось сняться с соревнований. Начать следует с нашей предварительной подготовки. Летняя версия протеза Kleiber Solo обладала следующими характеристиками (время полного сжатия 0.24(!) сек, развиваемое усилие на кончике пальца ~200 гр; протез оказался слишком быстрым, и, соответственно, слабым). К тому же в версии Rev A. материнской платы была обнаружена ошибка в рабочей точке силовых транзисторов, из-за чего максимальный ток составлял лишь 0.8А при фактически возможных 1.8А, что, помимо прочего, вызывало перегрев. Участие с такой версией в сравнении с мировыми лидерами (сжатие за 1.0 сек при усилии на кончике пальца до 1.5 кг) было бы провальным и в конце августа мы продолжили разработку. Ожидалось увеличение момента в 8 (!) раз (в 4 раза замедление редуктором, в 2 раза больший ток на моторы). В конце сентября собрали новую версию, отдали платы Rev B. в производство, которое затянулось на 11 рабочих дней и мы не успели получить их до отъезда в Цюрих. Здесь решили пойти ва-банк, понимая, что в Rev A. транзисторы могут сгореть от перегрева, что, собственно, и произошло во время тестирования и отладок. С собой на ответственные мероприятия мы возим мобильную версию лаборатории (паяльные станции, комплекты плат, электронных компонентов и многое другое), но, к сожалению, при пайке проводов для датчиков Холла использовали смываемый флюс (отмывать его нечем было) и покрыли плату с SMD компонентами бесконечной цепочкой коротких замыканий, перепаять рабочий комплект не успели, о чём уведомили организаторов, что снимаемся на этапе прохождения технического регламента. Изначально мы преследовали амбициозные цели выступить не хуже лидеров рынка, заявить о себе. Но проанализировав обстоятельства, сложился пазл причинно-следственных связей в голове, появилось приятное ощущение — умение брать ответственность за свои действия. Это лишь была одна из возможностей, но не последняя для нас. К слову, наша затея удалась, текущая (Rev B.) версия уже выдаёт 1.35 кг на кончике пальца при 0.95 сек на полное сжатие. Работаем над предсерийной Rev D. (на изготовление Rev C. решили не тратить время и обновили). История кибатлоновской версии протеза Stradivary также начинается в конце лета 2016 года, когда было решено поменять систему «5 пальцев — 5 приводов» (а-ля Bebionic) на 3-приводную кисть (1 привод на большой палец, 1 — на указательный и средний и еще 1 — на безымянный и мизинец). Софт для управления Stradivary разработала московская компания Bitronicslab В начале сентября из Канады были заказаны необходимые движки, но из-за ошибки в документах и последующей чудовищной бюрократической волокиты приводы застряли на таможне во Внуково почти на 2 месяца. Поэтому подходящие приводы были куплены нами в Мюнхене всего за день до соревнований. Естественно, что потестировать и потренироваться времени совсем не хватило и как следствие — сбой в работе протеза и на трассе мне удалось выполнить только одно задание из шести: Конечно, мы рассчитывали на более высокий результат, но мы не расстраиваемся — нашими соперниками были крупнейшие компании, вкладывающие миллионы долларов в свои разработки. Когда-нибудь и мы сможем составить им серьезную конкуренцию. Соревнование в России. Кибатлетика Сейчас у нас появилась идея проводить подобные соревнования в России. В августе мы уже провели мини-соревнование на ВДНХ : Кстати, победителя этих соревнований мы взяли с собой в Цюрих на Кибатлон. В 2017 году мы планируем организовать по-настоящему крупное событие. Наши соревнования будут доступны большому количеству людей с инвалидностью (в том числе и детям). А чем больше разработчиков примут в них участие, тем качественнее (и в конечном счете доступнее) средства реабилитации станут для российских пользователей. Я призываю всех инженеров и разработчиков, а также пользователей различных ТСР, присоединиться к этому начинанию. В связи с этим опрос:
https://geektimes.ru/company/motorica/blog/284074/
habrahabr
В России хотят ввести штрафы за скачивание пиратского контента
['копирасты атакуют', 'пираты и глобальное потепление', 'госдура']
И это не инициатива АКИТ, АЗАПИ и прочих самодеятельных объединений типа Лиги Безопасного Интернета. Это обсуждается в самом Министерстве культуры РФ: Минкульт обсуждает введение штрафов за...
И это не инициатива АКИТ, АЗАПИ и прочих самодеятельных объединений типа Лиги Безопасного Интернета. Это обсуждается в самом Министерстве культуры РФ: Минкульт обсуждает введение штрафов за скачивание пиратского контента . Вот слова Владимира Мединского: Если более жесткий вариант антипиратского законодательства, принятый во всем цивилизованном мире, не будет у нас принят и не будет исполняться, можно будет поставить крест на существовании автора, творца как институции, способной зарабатывать себе на хлеб. По словам RNS, в том же ключе высказывается и вице-спикер Госдумы Петр Толстой: Министерство культуры поддерживает резкое ужесточение антипиратского законодательства, соответствующие предложения мы разрабатываем с депутатами Государственной думы. Это обсуждалось на встрече у вице-спикера Толстого на расширенном заседании комитета по культуре и комитета по СМИ на прошлой неделе. Это уже серьезно. Правда, пока нет никаких технических подробностей о том, как будет осуществляться определяться скачивания пользователем пиратского контента, но ближайшие перспективы «закона Яровой» и введение Национального провайдера — это должны сильно упростить. Ранее обсуждалось , что планируется определять скачивание по IP-адресу, как в Германии: «Предполагается, что определение скачивания, например, нелегального фильма будет производиться по IP, после чего нарушителю будет направляться штраф», — сообщил RNS источник, осведомленный с межведомственными консультациями по данной теме. Министр связи Николай Никифоров, на инвестфоруме в Сочи высказывался на эту тему более обтекаемо: Вообще, это общеупотребимая мировая практика. Я не уверен, что надо прямолинейно это внедрять в РФ, но это всегда ответственность и одной, и другой стороны. И того, кто пиратский контент разместил, и того, кто его осознанно пиратским образом потребляет. Ответственность, в принципе, должна быть и там, и там. Как это сделать в российских реалиях — это точно должен быть очень осторожный и поступательный процесс. Блокировка «зеркал» — мы уверены, что это будет очень эффективный способ. Реформы коллективного управления авторских прав — последние два года обсуждаются в активном режиме. Непростая история, нет идеальной модели у какой бы то ни было страны.
https://geektimes.ru/post/284160/
habrahabr
От факапа до бэкапа: истории ИТ-компаний, потерявших данные
['бекапы', 'факапы', 'потеря данных', 'хранение данных', 'safedata']
  Большинство компаний понимают важность создания бэкапов. Но вот беда — представление о том, что должна собой представлять стратегия резервирования данных, имеет не так много компаний. В...
  Большинство компаний понимают важность создания бэкапов. Но вот беда — представление о том, что должна собой представлять стратегия резервирования данных, имеет не так много компаний. В результате они теряют информацию, клиентов, а значит, и деньги. Еще в 2014 году эксперты информировали о том, что бизнес теряет около $1.7 триллиона долларов в год из-за безвозвратных потерь ценнейших данных, которые почему-то не резервировались. Сейчас этот показатель вырос, поскольку часовой вынужденный простой дата-центра обходится оператору в $50 000 — $80 000. Два года назад часовой простой влек за собой убытки в $40 000 — $60 000.   Каждый год эта сумма растет, поскольку ценность данных постепенно увеличивается. Да и не только в информации дело — ведь и обычный простой оборудования из-за разного рода проблем больно бьет по кошельку как самой компании, которой принадлежит инфраструктура, так и ее клиентов. Только в первом полугодии 2016 года было утеряно или похищено в результате осуществления кибератак злоумышленниками 554 миллиона записей. Наиболее распространенная цель взлома — похищение личных данных пользователей. В США наиболее атакуемой сферой оказалось здравоохранение. При этом правительственные органы в первом полугодии 2016 года потеряли максимальное количество данных (речь идет об утерянных или похищенных данных). При этом за весь 2015 год было утеряно или похищено в результате осуществления кибератак 707,5 миллионов записей. Это, правда, меньше, чем в 2014 году, когда аналогичный показатель составил 1,02 млрд записей.   Среди причин утери данных — неподготовленность компаний к критическим событиям (сбои в подаче электроэнергии, физический ущерб оборудованию, взлом и кража данных, природные катаклизмы). Если не позаботиться о резервных копиях заранее — потом будет мучительно больно, об этом слышали многие. Но, как говорится, «мыши плакали, кололись, но продолжали есть кактус». Давайте посмотрим, какие бывают неожиданные случаи, которые внезапно приводили к частичной или полной остановке работы телекоммуникационных компаний и их подразделений. Здесь не везде речь идет о потере данных и резервном копировании, но эти ситуации заставляют задуматься над тем, насколько быстро хорошо отлаженный процесс/работа компании может превратиться в хаос. Несмотря на планирование, неожиданные ситуации могут возникать, и обязательно возникнут, рано или поздно.   Невесёлая история игрушек Одна из самых нашумевших ранее историй — это утеря сотрудниками Pixar большого массива данных по ToyStory 2. Тогда кто-то из сотрудников случайно стер с сервера БД с сотнями важных элементов анимации персонажей, исходников самих персонажей и т.п. После того как компания решила восстановить данные из бэкапа, оказалось, что резервное копирование не работало уже более месяца.   Возникла угроза того, что целый месяц работы (а то и больше) ушел в никуда. Но затем оказалось, что один из руководителей проекта регулярно отправлял все данные на свой домашний ПК, с тем, чтобы иметь возможность работать над проектом и дома. Только благодаря этому (причем, надо заметить, это было нарушением корпоративных правил) данные удалось восстановить.   Если бы данных не оказалось на домашнем сервере, то сроки реализации проекта могли затянуться, и компания оказалась бы  в очень неприятной ситуации. ДТП с участием дата-центра Если говорить о внезапных событиях, которые приводили к потерям и убыткам данных, то здесь нельзя не вспомнить случай из 2007 года. Тогда компания Rackspace (которая не была еще такой авторитетной, как годы спустя) столкнулась с неожиданностью. В ее дата-центр врезался внедорожник. Водитель этого автомобиля страдал диабетом. Во время поездки он потерял сознание, нога нажала на педаль газа, и машина, вылетев за пределы дорожного полотна, на всей скорости врезалась в объект, в котором располагался центр энергетической инфраструктуры дата-центра компании.   Сразу заработала вспомогательная система энергоснабжения, но возникла проблема — не запустилась основная система охлаждения. Из-за этого оборудование быстро перегрелось, так что сотрудники компании приняли решение выключить все, чтобы сервера и другое оборудование не вышли из строя.   В итоге дата-центр простоял без дела около пяти часов, в течение которого ничего не работало. Эти пять часов обошлись компании в $3,5 млн. Немало. … и ещё несколько печальных ИТ-историй Сбой в системе сложно предсказать, что логично. Случаются сбои даже в самых надежных системах, где задействована мощная инфраструктура. Но вот частоту сбоев можно снизить, и значительно, использовав резервирование систем. В надежной инфраструктуре избыточной может (и должна, по идее) быть любая ее часть, включая питание, охлаждение и т.п. Высококачественные дата-центры используют схемы N+1 и N+2 для обеспечения высокой системы надежности. Требования к надежности инфраструктуры дата-центров растут, поскольку растет и цена вынужденного простоя. Тем не менее, проблемы все еще случаются. Например, в том же 2013 году перестал работать один из крупнейших хостинг-провайдеров мира. В дата-центре компании, расположенном в штате Юта, США, возникли проблемы в результате аппаратного сбоя при проведении профилактических работ на сервере. И это повлекло за собой ряд отключений оборудования по всему дата-центру. В результате огромное количество веб-сервисов и сайтов на время прекратили функционировать. Этот сбой обошелся хостинг-провайдеру в немалую сумму. А сразу после выхода на рынок игровой консоли Xbox One возросла (и очень значительно) нагрузка на сервера компании. Из-за этого начал сбоить и облачный сервис Windows Azure. В течение целого дня наблюдались проблемы с работой Xbox Live — данные иногда не сохранялись, иногда не загружались, мультиплеер в играх не работал.   В 2015 году пострадала известнейшая компания Vtech, которая производит игрушки и электронные устройства для детей. Тогда кто-то взломал сервера компании, и 4,8 млн записей из базы данных клиентов были похищены. Кроме того, были похищены и данные о 200 000 детей (их имена указывались родителями при регистрации).   Как оказалось, компания не слишком тщательно следовала принципам информационной безопасности. Слабые пароли, слабое шифрование, малое количество бэкапов — все это привело к большим проблемам. Vtech в какой-то степени потеряла доверие клиентов и инвесторов, недовольных халатностью сотрудников.   Уже в этом году стало известно о еще одном случае безответственной работы. В утере данных виновным оказался руководитель небольшой хостинг-компании, которая обслуживала около 1500 клиентов. Марко Марсала (Marco Marsala) в один из загруженных работой вечеров запустил команду  rm -rf {foo}/{bar} на всех серверах, причем переменные {foo}/{bar} заданы не были (по ошибке). В итоге удалились все данные со всех серверов.   По неудачному стечению обстоятельств, к серверам были подмонтированы накопители с бэкапами. Все эти данные тоже были стерты. Пострадавший владелец компании спросил у других пользователей, можно ли после запуска команды rm -rf {foo}/{bar} восстановить информацию. Понятно, что ничего хорошего другие пользователи ему не сообщили. В итоге невнимательность привела к тому, что бизнес пришлось закрыть (об этом сообщил все тот же Марсала). Так что делать бэкапы мало, их еще нужно и хранить в надежном месте. В комментариях пользователи указали, что  «Если у вас только один бэкап — у вас нет бэкапа», что, собственно, является правдой в большинстве случаев.   И проблемы бывают не только у небольших компаний. К примеру, один из крупнейших в мире банков, Barclays, был пару лет назад оштрафован на несколько миллионов долларов США. Причина — частичная утеря деловой переписки за 10 (!) лет. Компания потеряла данные из-за несовершенства системы хранения данных. Технический сбой – и письма утеряны.   И ладно бы, если бы только банки теряли письма — ведь финансовые компании, хотя и должны иметь совершенную телекоммуникационную инфраструктуру, не являются все же создателями сервисов электронной почты, как, например, Google. Да-да, эта компания тоже далеко не идеальна в плане хранения информации пользователей. В 2011 году Gmail, почтовый сервис от Google, заставил поволноваться тысячи своих пользователей.   Некоторые из них, зайдя в свой аккаунт, не увидели ни писем, ни контактов . Тогда было затронуто, по словам Google, «всего 0,08%» от общего числа пользователей сервиса. Но на тот момент Gmail-ом пользовались 193 миллиона человек, и даже сотые доли процента от этого числа — это население небольшого города. Один из клиентов сервиса тогда жаловался на утерю 17 000 писем — это была вся его деятельность за все время.   Большинство данных компании удалось вернуть, поскольку у Google резервирование данных поставлено во главе угла всей работы компании. Но часть пользователей все же осталась с проблемными аккаунтами, плюс пострадала репутация Gmail.   Причины утери данных и бэкапов в компаниях Среди наиболее частых причин, которые приводят к потере данных и резервных копий данных, мы выделяем пять основных моментов. Это отказ носителя, человеческий фактор, программная ошибка, аппаратная ошибка и проблемы с сетевым оборудованием. Отказ носителя Это одна из наиболее распространенных причин утери данных. Чаще всего эта проблема происходит в том случае, если не ведется наблюдение носителей, а также нерегулярно осуществляется проверка состояния такого оборудования. Невыполнение инструкций производителя, неаккуратное обращение с носителями — все это может стать причиной сбоя. Человеческий фактор Это вторая по распространенности причина сбоя систем резервирования данных, в результате чего информация либо вообще не бэкапится, либо стираются сами бэкапы. Для того, чтобы избежать подобных проблем, штат сотрудников должен быть квалифицированным, нужны четкие инструкции и планы, которые должны выполняться. Программный сбой Это тоже одна из наиболее распространенных проблем. Обновление ПО, замена одной программы другой, добавление программного модуля в систему бэкапа — причин сбоя множество. И чем сложнее такая система, тем выше вероятность сбоя. Аппаратный сбой Аналогично предыдущей проблеме, оборудование может отказать при замене какого-то аппаратного модуля, по причине физического устаревания аппаратных систем или же без всякой видимой причины. Отказ сети Неверно сформированный скрипт, отказ сетевого оборудования, какие-то проблемы с совместимостью протоколов или десятки других причин могут повлиять на ход резервного копирования данных.   Частные лица ничем не лучше компаний (а может, даже и хуже) в отношении создания резервных копий данных. Еще в 2015 году компания Backblaze провела опрос пользователей, в ходе которого обнаружилось, что даже ежегодно полностью копируют свои данные лишь 39% пользователей. Каждый день это делает только 8% респондентов.     В качестве вывода Собственная телекоммуникационная инфраструктура компании — это сложно, дорого и долго. Конечно, бывают случаи, когда без своего ЦОДа просто не обойтись. Но в подавляющем большинстве случаев компании проще воспользоваться уже готовой инфраструктурой, включая системы резервного копирования, чем разворачивать собственную систему. В любом случае, для каких бы целей вам не понадобились значительные вычислительные мощности, у нас есть услуга " Виртуального ЦОДа ". Инфраструктура как сервис ( IaaS ) — не новое направление, однако мы выгодно отличаемся целостным подходом, начиная от специфически ИТ-шных проблем, вроде переноса корпоративных ресурсов в «Виртуальный ЦОД», до юридических, таких как консультация по актуальному законодательству РФ в сфере защиты данных ( VDC.152 ). Один из положительных моментов — отсутствие необходимости у компании, использующей IaaS, необходимости развивать и расширять собственную телекоммуникационную структуру. Все это делает оператор сервиса. И да, глубина хранения бэкапа (а они создаются каждый день) составляет 14 дней. В большинстве случаев этого достаточно для восстановления любых данных, потерянных в ходе каких-либо сбоев. Вы можете не делать бэкап — его сделаем мы, компания Safedata. На всякий случай заметим, что резервное копирование — платная услуга, ее нужно подключать.   Что же, успешных всем бэкапов, товарищи читатели.
https://habrahabr.ru/company/safedata/blog/318582/
habrahabr
Это полностью изменит образование [Veritasium]
['vert dider', 'veritasium', 'видео', 'образование']
Разные технологии обещали радикально изменить образование, но пока мало в этом преуспели. Так что могло бы всё-таки кардинально поменять процесс образования? Было много идей: кинофильмы,...
Разные технологии обещали радикально изменить образование, но пока мало в этом преуспели. Так что могло бы всё-таки кардинально поменять процесс образования? Было много идей: кинофильмы, движущиеся картинки… И в ряде случаев они действительно сделали обучение более… развлекательным, но так и не вошли массово в классы и аудитории. Телевидение и видеоролики — это те же фильмы, только проще и дешевле. Но и они не оправдали ожиданий. Сейчас мы живём во времена переизбытка информации, в интернете можно найти что угодно, но значит ли это, что доступность информации полностью изменит образование? Дерек Мюллер разбирается, в чем заключается механизм обучения, и почему развитие технологий не оказывает на него столь серьезного влияния, как ожидалось. Перевод: Анастасия Фадеева Редактура: Юлия Яковлева Озвучка: Виктор Сандаков Монтаж видео: Кристина Утёсова Обложка: Андрей Гавриков
https://geektimes.ru/company/vertdider/blog/284164/
habrahabr
Mod the Future заглянул в будущее: за кулисами хакатона в Нью-Йорке
['Lenovo', 'хакатон']
Что общего у 53 разработчиков, 18 антрепренеров, трех дизайнеров, одного хирурга и пса по кличке Гусь (Goose)? Все они собрались на 24-часовой хакатон Mod the Future в Нью-Йорке, цель которого —...
Что общего у 53 разработчиков, 18 антрепренеров, трех дизайнеров, одного хирурга и пса по кличке Гусь (Goose)? Все они собрались на 24-часовой хакатон Mod the Future в Нью-Йорке, цель которого — создать лучший концепт Moto Mod для смартфона Moto Z. Результатом стали по-настоящему удивительные проекты Moto Mods. Мы увидели идеи для систем распознавания событий на видео, video paging, модификацию для розничных покупок Smart Cart и функцию тревожной кнопки. Также стало известно о концепте измерителя уровня инсулина и тестера на загрязненность воды. Все эти проекты говорят о базовых принципах Moto Mod — развитие инноваций и безграничные возможности для покупателей. Это будущее для оказавшейся в застое мобильной индустрии. На хакатон приехали команды и разработчики из пяти стран: США, Канада, Бразилия, Мексика и Латвия. Все идеи были уникальными, прямо как сами участники. «Это действительно захватывающе – понимать, что я могу взять железо, установить на свой гаджет, приспособить для каких-либо задач, и мне не нужно для него отдельное приложение», – сказал занявший второе место участник Аарон Франко. 24 часа хакатона Хакатон не так-то прост, особенно когда потолка возможностей практически не существует. Провода отдельно, платы отдельно, микроскопы наготове – можно начинать творчество. Комната словно наэлектризована, но атмосфера достаточно спокойная, люди сосредоточены. Банки энергетиков расставлены по столам, участники пытаются ненадолго вздремнуть, когда выдается свободная минута. Команды новичков и опытных разработчиков трудятся над заданиями. К концу хакатона было съедено 96 кусков пиццы, столько же булочек и выпито 128 энергетических напитков. Суммарно на мероприятие ушло более 2400 человеко-часов, к дедлайну собрано 17 проектов, а возраст участников составил от 16 до 78 лет. После 45-минутного совещания судьи определились с тройкой лучших модификаций. Топ-3 концептов: ▍«Продвинутое аудио» — Кертис Мэсон, Эндрю Аффлитто, Марк Айад, Абигал Браун и Йозеф Алсаид Modio представляет собой двойной конвертер аудиосигнала: из цифрового в аналоговый (DAC) и наоборот (ADC). Используется подключение по USB. Этот концепт будет незаменим для музыкантов и аудиофилов. Разработка позволяет слушать музыку на Moto Z в высоком разрешении через порты, которые используются в дорогих аудиосистемах и студиях звукозаписи. Таким образом, качество получится значительно лучше по сравнению со стандартным методом воспроизведения. «Это безумие. Я не особо этого ожидал, но знал, что выложились на максимум – отсюда и высокий результат», – сказал Эндрю Аффлитто, когда его команду объявили победителем. ▍«Боковая панель» — Габриэл Ортиз и Аарон Франко Играть на смартфонах, конечно, интересно, однако самые удобные джойстики – те, что больше самих мобильных устройств. С ними удается достичь куда больших результатов в игре и получить совершенно другие впечатления от проекта, нежели при управлении с сенсорного экрана. Модель Sidepad обеспечивает функционал полноценного геймпада, что подарит игрокам новый уровень комфорта при прохождении мобильных проектов. По словам Аарона Франко, «это определенно стоило бессонной ночи». ▍«Белла» – Элли Чонг, Нэнси Вэн, Сильви Ли Модификация «Белла» следит за вашей кожей и подсказывает, какой уход для нее лучше обеспечить. Концепт позволяет Moto Z собирать информацию о коже и окружающей среде в режиме реального времени. Информацию «Белла» получает от сенсоров, которые определяют силу ультрафиолетового излучения и качество воздуха. Если поднести устройство к экрану, гаджет расскажет об эластичности кожи. «Как современные женщины, мы думаем, что это очень удобный способ следить за кожей и молодо выглядеть. [Хакатон] был отличным опытом», – рассказали Элли Чонг и Нэнси Вэн на объявлении призеров. Следующая остановка: Сан-Франциско Это только начало – следующий хакатон пройдет в Сан-Франциско 21-22 января. Обладатели Гран-при в Нью-Йорке и Сан-Франциско получат $5000, а также Moto Z и Moto Mods Development Kit. Представители этих команд будут приглашены в Чикаго на презентацию своих проектов боссам Motorola и партнерам компании. У разработчиков появится возможность обсудить, как вывести свой продукт на рынок. Если концепты впечатлят Lenovo Capital, команды смогут получить инвестиции на создание проекта. Наконец, победителям откроют доступ в партнерскую программу Moto Mods Partner и будут приставлены к ментору – опытному наставнику. Любой участник, создавший во время хакатона концепт, получит возможность участвовать в кампании Indiegogo.
https://geektimes.ru/company/lenovo/blog/284154/
habrahabr
Зачем «лирикам» робот?
['lego', 'lego education', 'wedo 2.0', 'развитие ребёнка', 'инженер', 'дети', 'ev3', 'mindstorms', 'lego mindstorms ev3']
Война физиков и лириков начинается едва ли не раньше, чем любые другие конфликты — ещё в ранней школе. Часть класса всем существом отрицает математику и физику, другая часть — спит на уроках...
Война физиков и лириков начинается едва ли не раньше, чем любые другие конфликты — ещё в ранней школе. Часть класса всем существом отрицает математику и физику, другая часть — спит на уроках истории и МХК. И дело не в том, что у каждого ребёнка больше развита «гуманитарная» или «техническая» часть мозга — дело в том, что нет заинтересованности учеников, а школьные принципы «гармоничного воспитания личности» отстали от жизни почти навсегда. Пустить всё на самотёк и пойти на поводу у желаний ребёнка — демократично и модно, но может аукнуться в дальнейшем. Уже сегодня гуманитарные науки активно используют информатику и математику, и сращивание дисциплин будет продолжаться. Поддерживать чистого лирика со стороны школы и родителей крайне губительно для будущей профессии. Выход — заинтересовать и вовлечь. Нет скуке Все мы так или иначе сталкиваемся со школой и знаем, что дела там обстоят не очень — причём, чем дальше в регионы, тем печальнее. Последний энтузиазм прекрасных и творческих учителей упирается в недостаток материально-технической базы. Однако такая ситуация не означает, что нужно плыть по течению. Родители должны обратить внимание на склонности ребёнка и заниматься самостоятельно или, например, отдать школьника в робототехнический кружок. Почему это важно? Работа с техникой (например, с наборами LEGO Education WeDo 2.0 или LEGO Education MINDSTORMS EV3 ) формирует понимание алгоритма, аналитическое мышление, навыки проектирования. Таким образом, ребёнок учится воспринимать мир не как набор разрозненных событий и явлений, а как систему, состоящую из подсистем. Появляется понимание взаимосвязей и влияния элементов. Такое восприятие поможет проще осваивать любые предметы. Простой пример из жизни. Мальчик с огромным трудом понимал ботанику и старательно заучивал каждый вид как в первый раз. Это казалось каторгой всем — и учителю, и родителям, и самому ученику. Пока однажды разозлённый папа-инженер не бросил в сердцах: «Да что тут учить, все эти растения одно и то же: корень, ствол, листья, цветок, плод! Разница в форме». Пусть с точки зрения глубокой науки папа был не до конца прав, но школьный курс ботаники сдался без боя — сын понял, что такое система и её признаки. Робот решает судоку. Чтобы создать такой механизм, молодой исследователь должен проделать серьёзную умственную работу, вникнуть в физику и математику. Это позволяет воспринимать задачи комплексно. Реализовано на LEGO Education MINDSTORMS EV3 Как правило, создание роботов происходит в команде — с родителями, учителем, другими учениками. Командная работа — навык, который вновь обретает ценность и будет востребован в профессии: в условиях информатизации любая деятельность превращается в проект, который сложно сделать в одиночку. Внутри кружка или лабораторной работы в классе ребёнок впервые сталкивается с понятием разделения труда — например, в случае LEGO Education WeDo 2.0 или LEGO кто-то программирует, кто-то делает дизайн (каркас), кто-то фиксирует наблюдения, кто-то следит за порядком и группирует детали. Увы, до сих пор даже некогда успешные компании распадаются, не вписавшись в разделение труда или не понимая, что не обязательно всё делать самому. Не избегают этой участи и люди, поэтому ребёнку важно понять, что в команде все равноценные партнёры, которые делают общее дело. В рамках создания работа как совместного проекта нивелируются различия в уровне знаний и навыков — дело найдётся и троечнику, и олимпиаднику. Итог будет общим, а дети узнают, как распределяется задача внутри команды и как оценивается вклад. Ребёнок соприкасается с практикой . Создание робота — фактически повседневная рабочая задача из взрослого мира: планирование —> проектирование —> создание —> наблюдение и тестирование —> презентация завершённой задачи/проекта. Он будет понимать, как пригодятся те или иные знания и что лишней информации не бывает. Это поможет справиться с нелюбимыми предметами. К тому же, появляется и развивается навык дробления проблемы на составные части. Пример того, как можно разделить задачу: сперва робот распознаёт цвета на гранях, а затем собирает кубик исходя из полученных данных. Реализовано на LEGO Education MINDSTORMS EV3 Происходит знакомство с «взрослыми» роботами. Эта фраза только на первый взгляд смотрится футуристично и выпадает из ряда. Уже сегодня роботы применяются в ритейле, обслуживании, медицине и многих других отраслях, с которыми человек постоянно взаимодействует. Дальше будет только больше, и важно уметь понимать интерфейс, «дружить» с ним. Если брать кальку с английского, то происходит демистификация сложной технологии и ребёнок (чуть позже — студент и молодой специалист) понимает, что можно доверить роботу, а что — нет. Совсем уж необычное применение LEGO Education MINDSTORMS EV3. Спроектирована вязальная машинка. И это отличная иллюстрация того, как роботы проникают в другие отрасли, облегчают труд и освобождают время человека для творчества, созидания и проектирования. Ребёнок соприкасается с наукой — и это едва ли не самый важный момент. Профессии будущего — наукоёмкие, связанные с различными дисциплинами. Они будут существовать на стыке нескольких типов знания, работать с пограничными отраслями (как, например, уже сегодня это делает компьютерная лингвистика или археология, использующая сверхточные приборы). И ребёнку важно дать понять, объяснить и, что немаловажно, продемонстрировать, как связаны различные науки и дисциплины. Вернёмся к той же филологии — сфере, кажется, самой далёкой от техники. Однако множество исследований проводится с точки зрения анализа текста, и в работе используются самые передовые достижения в алгоритмах. Развивается воображение (и это развитие должно продолжаться на протяжении всей жизни), пространственное мышление, концентрируется внимание; мелкая моторика также способствует развитию когнитивных функций. За рубежом есть опыт применения подобных робототехнических решений для работы с аутистами — они на ура справляются с аккуратной последовательностью действий. Подумайте, сколько всего учтено в этом слоне: движение суставов и синхронизация, хват предмета, направление движения, устойчивость и т.д. Реализовано на LEGO Education MINDSTORMS EV3 И родители, и учителя должны транслировать понимание того, что учить стихи, много читать и знать наизусть 700 дат всемирной истории — не значит иметь основу для будущей карьеры. И первичную профориентацию нужно проводить с позиций универсальности и смежности дисциплин. Мнение педагога, которому не всё равно Чтобы не быть голословными в обсуждении влияния занятий робототехникой на любого ребёнка, об опыте работы с простыми школьниками мы поговорили с блестящим педагогом, автором учебных пособий Лидией Георгиевной Белиовской. Проекты LEGO Education представлены в российских школах уже много лет. Однако далеко не во всех учебных заведениях школьникам доступны такие занятия. Причин много, среди них нехватка профессиональных кадров, материальной базы и интереса у учителей. Лидия Белиовская — одна из тех, кто знаком с LEGO Education давно, экспериментирует с ним и вовлекает в занятия детей вне зависимости от их склонностей. — Расскажите, пожалуйста, о себе — общий преподавательский стаж, стаж работы именно учителем информатики. — Я закончила МГУ, факультет Вычислительной Математики и кибернетики. За моими плечами 20 лет стажа инженера, а потом и ведущего инженера. Мне удалось стать участником нескольких национальных проектов СССР: обработка космических снимков, компьютерная томография токового слоя плазмы (исследование проблем Токамака) ИОФАН, компьютерная ангиография на синхротроне (3D модель сердца) НИИ ФизПроблем. Я защитила кандидатскую диссертацию по теме «Компьютерная томография полупрозрачной плазмы». И вот уже 16 лет, как я работаю в школе учителем информатики высшей квалификационной категории, являюсь экспертом ЕГЭ по информатике. Опыт работы ведущего инженера в ведущих НИИ СССР позволил вести успешную и яркую проектную деятельность со школьниками. Недостатка тем и идей никогда не было и сейчас нет. — В каком году в учебном заведении, в котором вы работали, впервые стали использовать решения LEGO Education? — Когда я пришла в свой первый учебный класс, оборудование уже было в школе, но активно его никто не использовал. Это был 1998 год. Тогда я начала работать в школе с одаренными детьми, параллельно осваивала новеллы образования. Обучение в ИНТ у Булин-Соколовой Е.И. раскрыло новые горизонты. Мне многое было понятно, было не трудно, а интересно, и я сразу взялась за сложное, стала создавать программируемые системы на LEGO. Потом уже как педагог защитила несколько проектных работ по LEGO-педагогике. Многое осваивала и придумывала сама, даже не пользуясь Интернетом. — Как это в целом было воспринято учащимися? — Конечно, с огромным интересом! Представьте только: у школьников были идеи и они смогли их осуществить в реальности. Пробовали и получалось. И такие конструкторы яркие, удобные — радость у ребят просто фонтанировала. — Сколько времени у них ушло на то, чтобы привыкнуть к новшествам и использовать LEGO Education в учебном процессе? — Начали работу буквально мгновенно. С нетерпение ожидали окончания теоретической части урока, чтобы потом все реализовать самим. Конструировали почти всегда сами, не по инструкции, потому что по книжке было просто неинтересно. Но, как правило, потом обязательно возвращались к инструкции. Как же надо сделать так, чтобы это было прочно, устойчиво и работало? «Да, моих знаний недостаточно», — думали они и обращались к книге. — Долго ли втягивались остальные преподаватели? — А остальные просто не подхватили. Это же надо тратить много времени на организацию учебного процесса, а тут ещё и условий не было: помещения, мебели, лишнего оборудования… — Расскажите о главных сложностях, которые возникали при такой модернизации учебного процесса. Как со стороны учеников, так и, возможно, со стороны преподавателей. — У учеников никаких сложностей не было, только огромный интерес. Впервые в обучении у школьников проходили опыты по физике с компьютерной обработкой. Сами делают установки, сами пишут программы, а материал ведь только что прошли на уроке физики. Сложности были у администрации: включить курс в школьный учебный план, выделить помещение, оснастить нужной мебелью, найти педагога, чтобы это все освоил и захотел работать с учениками в режиме постоянного внимания и высокого темпа. Сложности у учителя вполне бытовые: подготовить оборудование для следующей группы. Дети хотели собрать установку сами, но времени на это не хватало— за перемену же не разберешь все установки. Ну тут, может, и оборудования просто не хватало. Были сложности учебного процесса. В силу большой заинтересованности ребят очень трудно контролировать тишину. Только в конце курса дети привыкли работать в тишине, до этого страстно хотели поработать в команде (2-3 человека), громко обсуждали детали, спорили… — Как педагог, имеющий возможность сравнить до и после — как бы вы оценили изменения в уровне вовлеченности учеников в учебный процесс? — Прежде всего, это сенсорное развитие интеллекта, потому что можно что-то сделать своими руками, а главное — получается. И чтобы вникнуть и понять, не нужно много времени. Ребята просто мчались ко мне на уроки. Большой интерес вызывал процесс построения, «возникновения» графиков физических величин в режиме реального времени. Многие графики вызывали недоумения, обсуждали, почему получились именно такие зависимости? Сравнивали графики: а как у соседей? Это очень важно. Сам делал опыт, как получилось — так получилось. Нельзя списать, качнуть из интернета, сам делаю и получается. Круто! — На ваш взгляд, для какой из учебных дисциплин решения LEGO Education оказываются наиболее полезными? — Физика, информатика, конечно, робототехника. У меня есть опыт преподавания робототехники в школе в 5 и 6 классах, есть материал для пособия. В этом году администрация отменила уроки по робототехнике в учебном процессе в нашем Лицее 1557. А мы планировали издать пособие, создали программу как положено по ФГОС, использовали в работе богатый, очень интересный материал LEGO по темам конструирования. Такие интересные, полезные разработки для учителей, так были рады, что их собирали и аккуратно хранили эти 20 лет. И, что удивительно, материалы не устарели! Сама преподаю информатику в школе много лет и знаю, как трудно работать без хороших учебников. Только сама что-то новое освоишь, разработаешь УМК – и вот устарело, убрали из программы. Все усилия напрасны. А LEGO-педагогика живёт. Детям понятно, интересно, всё совершенно современно. — Ученики какого возраста осваивают новую программу лучше всего? — Работала, в основном, с учениками 5-7 классов. Очень сожалею, что у школьников в начальной школе, которые потом придут ко мне на уроки, нет навыков конструирования и программирования на LEGO. Мои уроки всегда и у всех вызывали огромный интерес. Тут, вне зависимости от склонностей и способностей, для всех есть дело. Разноуровневая педагогика: кто-то конструирует в команде по инструкции, кто-то собирает модели сам, идет вперед по уроку, кто-то даже успевает написать программу для установки, а кто-то с огромным интересом и вниманием сортирует детали, просит, чтобы ему разрешили выполнить именно эту работу. И непонятно, как оценивать работу ученика на уроке. Оцениваешь старание и желание сделать больше нового — разве это неправильно? Оценки, как правило, хорошие. Но самое главное — большое, огромное удовольствие от уроков. — Если бы вас попросили посоветовать использовать LEGO Education во всех школах, какие главные плюсы такого решения вы могли бы привести в пример? — Дети на уроках работают не только головой, но и руками — это важно. Конструктор очень красочный и позитивный с точки зрения дизайна. И столько можно с его помощью проверить, узнать. Главный аспект для подготовки именно IT-специалистов— это проверка программ алгоритмов визуально с помощью роботов. Это технологии будущего. Реализация авторской Программы в Лицее 1557 несколько лет ведется по разработанной Л.Г. Белиовской методике «Быстрый старт в школьной робототехнике: используем графическую инженерную среду программирования LabVIEW и LEGO», которая на Городском конкурсе педагогических работников города Москвы «Технологии будущего 2016» была отмечена Дипломом Лауреата. Конкурс проводили Департамент образования города Москвы и Департамент науки, промышленной политики и предпринимательства города Москвы. Содержание конкурсной работы можно посмотреть по ссылке . А мы поздравляем Лидию Георгиевну, восхищаемся проектами её учеников и надеемся, что всё будет ещё круче. Формирование знаний и профориентации ребёнка — задача и родителей, и учителей, и тренеров кружков. Главное, помнить, что всё дело в мотивации и заинтересованности, но мотив должен быть выбран правильно. Лучше всего, если движущей силой будет стремление к успеху, к знаниям и навыкам. И не важно, в какой сфере мечтает развиваться ребёнок: космонавтике или живописи. Нужно, чтобы он понимал, что технологичный мир вокруг должен быть не обслугой, а эффективным инструментом в руках профессионала. Только тогда профессии будущего станут реальностью, качественно преображающей жизнь. А вы придумали, чем займёте ребёнка на новогодних каникулах?
https://geektimes.ru/company/legoeducation/blog/284130/
habrahabr
Интеграция FATFS библиотеки для организации чтения дискового устройства на iOS
['FATFS', 'iOS']
Введение Статья посвящена внедрению open source библиотеки на iOS для чтения/записи данных с MFI дискового устройства на основе FAT12/FAT16/FAT32/Exfat. Представлен способ построения архитектуры...
Введение Статья посвящена внедрению open source библиотеки на iOS для чтения/записи данных с MFI дискового устройства на основе FAT12/FAT16/FAT32/Exfat. Представлен способ построения архитектуры приложения, на основе FATFS библиотеки, а также методы отладки и тестирования проводных MFI -устройств. Статья практически не содержит кода из-за соблюдения NDA . Постановка задачи Главной целью было создание некого универсального SDK (.framework), способного работать с производителями различных устройств дискового доступа по протоколу MFI, использующих единый стандарт по API. На рисунке представлена обобщенная структурная схема такого фреймворка. В зависимости от протокола устройства выбирается та или иная библиотека взаимодействия с устройством. В зависимости от того, какая файловая система (FS) используется на диске, выбирается соответствующий алгоритм работы с диском: FAT/exFat/Other FS. При этом, к устройству могут иметь доступ несколько приложений (использующих данный SDK), находящихся в памяти устройства однако запись/чтение единовременно может выполнять только одно. Данный SDK подразумевает использование его во многопоточном приложении c конкурентными задачами чтения и записи. Поиск решения Первоначально в качестве базовой библиотеки для реализации FS FAT32 была выбрана реализация FAT32, созданная Apple. Однако, сложность интеграции стандартного API для устройства доступа вследствие привязки к конкретной платформе заставила пойти в направлении поиска готового решения с раздельным абстрактным API для физического уровня доступа c MFI устройством через библиотеку производителя. Были рассмотрены также EFSL и FATFS open source реализации FAT32. FATFS была выбрана вследствие нескольких причин: • текущая поддержка библиотеки • независимость платформы и простота портирования • широкий спектр параметров конфигурации • поддержка exFAT • абстрактный уровень доступа для медиа драйверов Вследствие проблем получения логов работы приложения, учитывая, что физически разъем был занят и не было возможности подключения к XCode, была подключена библиотека NSLogger , позволяющая передавать логи по Wi-Fi почти в real time режиме. Тем не менее, проблема отладки такой библиотеки имела место быть. Было решено разработать симулятор MFI устройства, который обращался к некой области на диске iOS/MAC устройства и эмулировал чтение/запись по тому же API, что и реальное устройство. Проблемы интеграции Портирование на Obj-C FATFS написан на чистом С, а интегрировать приходилось в библиотеку написанной на ObjC. Несмотря на то, что ObjC напрямую поддерживает интеграцию C функций, возникали проблемы с сигнатурами функций и с использованием некоторых типов переменных. Поддержка Unicode Опция Unicode адекватно работала только с параметром кодировки Obj-C NSUTF16LittleEndianStringEncoding , несмотря на то, что согласно заявленным требованиям поддерживалось дополнительно UTF-16BE и UTF-8. Все методы, работающие с именами файлов необходимо было сделать потокобезопасными для корректной работы FAT32. Thread safe Опция потокобезопасности, активизируемая по параметру FS_REENTRANT и реализуемая через функции ff_req_grant, ff_rel_grant, ff_del_syncobj потребовала дополнительной имплементации через POSIX. Без включенной опции потокобезопасности наблюдалось повреждение таблицы файловой системы и как следствие — потеря данных. Файловый дескриптор pthread_t не сразу удалось корректно имплементировать вследствие того, что функции ff_ для синхронизации потоков передавали данные по значению, а не по ссылке. После замены на ссылочные значения – проблем с потокобезопасностью выполнения операций не возникало. Кеширование Во избежание потери данных при копировании и повреждении таблицы файлов, применялось синхронизация кэша данных записываемого файла с помощью функции f_sync . Учитывая, что размер дискового пространства мог быть более 16 Гб, некоторые базовые типы переменных пришлось поменять на «long log». FATFS изначально проектировалась с расчетом на встраиваемые устройства, характеризующиеся ограниченным размером памяти и низкой производительностью. Как следствие функции чтения/записи выполнялись по одному кластеру дискретно в единицу времени, что существенно ниже непрерывного чтения/записи. Подобная же проблема возникла при чтении структуры каталогов при наличии в директории более 100 файлов. Чтение/запись одного файла линейно росла с увеличением количества файлов, как показано на рисунке. По оси “x”отражено количество файлов в директории, а по оси “y” — время чтения в секундах. Типы кривых на графике для: V2 Sim Fat –симулятор дискового устройства, V1 Fat файловая система FAT32, для которой отсутствует данная проблема (не FATFS), V2 Fat64/128 FATFS c размером диска 64 и 128 Гб, соответственно. Структурная схема работы кэша в таком SDK представлена на рисунке ниже. Таким образом кэшировалась не только файловая структура, но и сектора для низкоуровневых функций чтения/записи медиа устройства, вследствие отсутствия аппаратного кэша. Уникальный доступ приложения к устройству Приложения с интегрированным SDK не должны одновременно иметь доступ к внешнему дисковому устройству. Правила которым должно подчиняться приложение с используемым SDK должно выглядеть как показано ниже на диаграмме состояний. Для установления правил доступа к устройству был имплементирован механизм основанный на Darwin Notification Center позволяющий с помощью уведомлений разрешать или блокировать работу с устройством приложения когда с устройством работает еще одно приложение с данным SDK. При первом запуске приложения отправляется запрос всем приложениям, подписанным на получение определенных уведомлений. Каждое приложение публикует свое состояние для остальных приложений, чтобы новое приложение могло перейти в адекватное состояние. В случае, если устройство свободно, приложение переходит в состояние USING. Состояние PENDING является промежуточным для BUSY и WAIT на тот случай, когда устройство не доступно или занято. В случае сбоя в коммуникациях используется состояние INVALID. После завершения использования устройства приложение переходит в состояние INACTIVE. Тестирование Фреймворка Написание Unit Tests для всех функций библиотеки было критически необходимо вследствие жёстких детерминированных требований к поведению API для конечных пользователей. Первоначально все тесты выполнялись на симуляторе дискового устройства. Однако, симулятор и библиотеку для низкоуровневого доступа диска писали разные люди, не имеющие возможности взаимодействия, в связи с чем поведение симулятора не всегда совпадало с поведением драйвера устройства. Для этого была разработана схема тестирования на реальном устройстве, представленная ниже. Тестируемый framework интегрировался в приложение, написанное с использованием Private API, а установка производилась через Xcode Server Over-the-Air installation . Private API позволяло выводить приложение из Background состояния приложения по Push Notification и запускать необходимые тесты. Результаты тестов отправлялись по REST протоколу на сервер статистики, где впоследствии они представлялись в виде графиков и таблиц. В библиотеку также включены Activity Tracing функции для получения более подробного crash лога. Заключение Несмотря на серьезные недостатки FATFS opensourse библиотеки, требующие доработки, другой альтернативы с возможностью использования Fat32 и ExFat, а также с абстрактным уровнем поддержки media drivers — найти не удалось. При корректной модификации библиотеки с подключенными дополнительными функциями кеширования и буферного чтения/записи, функции копирования и чтения файлов FAT32 API ниже скорости копирования LBA блоков медиа драйвера производителя железа всего на 10-15%. Для новичков в области разработки и интеграции файловых систем — FATFS может являться вполне достойным выбором. Полезные ссылки → FatFs — Generic FAT File System Module → Microsoft EFI FAT32 File System Specification → Darwin Notification Concepts → About Continuous Integration in Xcode
https://habrahabr.ru/post/318634/
habrahabr
Asterisk. Ненормальный перевод
['asterisk', 'voip', 'lua', 'программирование', 'ip-pbx', 'ip-атс', 'велосипед']
В Asterisk 2 типа трансферов: — слепой: после набора нужного сотрудника переводящий сразу отваливается. — расширенный: возможность поговорить с тем, кому перевод предназначен, принять...
В Asterisk 2 типа трансферов: — слепой: после набора нужного сотрудника переводящий сразу отваливается. — расширенный: возможность поговорить с тем, кому перевод предназначен, принять callback. Мне понадобилось совместить простоту первого и функционал второго. Без AMI/ARI/AGI. Без костылей. Велосипед под катом. Сразу оговорюсь почему не использовал интерфейсы, которые уже есть: это не очень удобная штука, когда речь заходит о стеке Asterisk, например (да и вообще не люблю я их). Но это так. Лирическое отступление. Поехали далее. Указатели (расшифровки, или как там еще можно сказать. Для простоты короче): Переводящий — тот кто переводит Принимающий — тот кто принимает перевод Сценарий: проверить, а доступен ли вообще оператор которому должен прийти перевод звонка. Если недоступен — проиграть переводящему сообщение об этом и вернуть назад звонок если оператор доступен, положить трубку переводящему и отправить звонок на принимающего если принимающий занят (разговаривает например), предложить пользователю подождать или вернуться к переводящему если принимающий не отвечает, вернуться к переводящему* Инструменты Asterisk, которые мне понадобились: features.conf. С него и начну. Так как у меня появляется собственное событие, которое должно быть произведено по нажатию на определенную клавишу (DTMF) во время разговора, то тут самое место использовать features.conf с его возможностью создавать свои события и определять на них свои действия Мое событие называется customTransfer и выглядит так (описание того как создаются кастомные события есть в features.conf и на wiki.asterisk.org. Не буду расписывать): customTransfer => #,self,GoSub(customTransfer,#,1),default То есть по нажатию на # вызываем GoSub и уходим в контекст диалплана. Тут оговорюсь что использую lua, поэтому далее буду писать функции которые вызываю Для тех кто не знает, то в lua контекст определяется в таблице extenions и может указывать на функцию которую надо выполнять: extensons={ ["customTransfer"]={ ["#"]=customTransfer --название функции } } Функция выглядит так ( Комменты описывают, что к чему и рекомендованы к прочтению для понимания) function customTransfer(context,extension) --[[ считываю номер, на который делается перевод ]] app.Read("TRANSF",nil,10,nil,1,5) if channel.READSTATUS:get() == "OK" then -- [[ Проверяю доступен ли абонент, на которого я делаю перевод. я использую другой сервер регистрации, но при использовании именно Asterisk как сервера регистрации наличие пользователя можно проверить так.]] app.chanIsAvail('SIP/'..chan.TRANSF:get()) if channel.AVAILCHAN:get()~='' then --[[ запоминаю кто сделал перевод (переменную канала CALLED_NUMBER я создал когда принимал входящий звонок (здесь ее нет). В ней лежит номер, на который поступил звонок (то есть перевод работает с тем кто принял звонок, а не с тем кто его инициировал)). Кладу во внутренюю БД Asterisk (можно redis, можно вообще все что угодно). Делаю это потому, что ChannelRedirect создаст новый канал, и уже не увидит переменных, созданных в этом канале. ]] channel.DB('transferedBy/'..channel.BRIDGEPEER:get()):set(channel.CALLED_NUMBER:get()) -- [[перевожу на новый канал, который уже в свою очередь обработает соединение и отправит в нужный контекст, который в свою очередь вызовет необходимую точку. То есть, по сути я имитирую сценарий создаваемый функцией трансфер (кэп тут)]] app.ChannelRedirect(channel.BRIDGEPEER:get(),'redirectSetup',channel.TRANSF:get(),1) --[[ закрываю канал того, кто переводил, так как он мне уже не нужен (автоматически кладу трубку)]] app.Hangup() else --[[ если считать номер не удалось, информирую об этом ПЕРЕВОДЯЩЕГО и соединяю переводящего и ожидающего пользователя. Переводящий может попробовать перевести еще раз]] app.NoOp("user unavailible") app.Playback(channel.UNAVAILIBLEONTRANSFER:get()) end else --[[ если пользователь недоступен, проигрываю сообщение ПЕРЕВОДЯЩЕМУ и соединяю переводящего и ожидающего пользователя. Переводящий может попробовать перевести еще раз]] app.NoOp("user unavailible") app.Playback(channel.UNAVAILIBLEONTRANSFER:get()) end end После того как канал был брошен в transfer и была выполнена проверка, его необходимо направить на принимающего пользователя. В контексте 'redirectSetup' настраивается вход в данную функцию (аналогично предыдущему) Сама функция выглядит следующим образом function redirectSetup(context,extension) app.NoOp("trying to redirect to "..extension) --[[ Эта переменная канала мне понадобится чтобы отправить звонок обратно, если принимающий пользователь не возьмет трубку, например или будет занят. Я храню ее в переменной канала так как в моем случае она путешествует по функциям диалплана и в общем то переменные канала это удобный способ хранить глобальные для канала переменные. В общем то ничто не мешает сохранить ее в переменной lua]] channel.__TRANSFEREDBY:set(channel.DB('transferedBy/'..channel.CHANNEL:get()):get()) --[[ В базе данных эта переменная больше не понадобится, поэтому мы можно ее удалить ]] channel.DB_DELETE('transferedBy/'..channel.CHANNEL:get()):get() --[[ Далее я отправляю вызов в основную функцию моего диалплана для обработки соединения, вместо нее вполне может быть просто app.Dial на необходимый extension ]] main(context,extension) end последний шаг — это организация возврата звонка при неответе/занятости абонента или по какой либо еще причине. Я думаю уже многие поняли что делать это нужно с помощью переменной TRANSFEREDBY Свой диалплан полностью выкладывать не буду. Приведу пример маленькой функции, чтобы не вводить в заблуждение — назову ее main. function main(context,extension) app.Dial("SIP/"..extension) if channel.DIALSTATUS:get()~="ANSWER" then app.Playback("olala") app.Dial("SIP/"..channel.TRANSFEREDBY:get()) end end Касательно возможностей данной организации: у меня диалплан в купе с данной функцией организован таким образом, что проверяет не только доступность локального номера, но и наличие мобильного номера, закрепленного за абонентом. Если абонент занят, предлагает ему оставаться на линии дожидаясь ответа или выйти из режима ожидания и перезвонить обратно тому, кто перевел (некий микс очереди и IVR), предлагает абоненту вернуться к тому кто перевел, если звонок на сотовый отправил на голосовую почту (у многих операторов данная услуга ничем не отличается от поднятой трубки. Они просто шлют 200 ответ и потом несут ересь...). последнее организовано тоже через customFeature. В общем-то все это достигается путем линейного программирования и включения головы. Вроде все. С наступающим тоагисчи Адекватных клиентов, и хороших исполнителей вам.
https://habrahabr.ru/post/318438/
habrahabr
Пост о самом главном
['Новый год', 'Рождество', 'Huawei']
Осталось совсем немного… Буквально через неделю-другую все вокруг погрузится в атмосферу торжества, и знакомый с детства предпраздничный трепет окутает улицы всех городов страны. И в...
Осталось совсем немного… Буквально через неделю-другую все вокруг погрузится в атмосферу торжества, и знакомый с детства предпраздничный трепет окутает улицы всех городов страны. И в преддверии новогодних приключений нам хотелось бы сказать об одной очень важной вещи. Для нашей компании Новый год и Рождество – безусловно, самые главные праздники. Ведь именно они считаются по-настоящему семейными, а Huawei – это не что иное, как огромная семья. И нам бы очень хотелось, чтобы вы посвятили грядущие праздники своим близким. Отложите дела в сторону и уделите время самому главному! Все, что мы производим, будь то коммуникационное оборудование или смартфоны, мы делаем с одной только целью – сделать людей ближе друг к другу, чтобы, невзирая ни на какие расстояния, вы и ваши близкие были рядом. Продукция Huawei не знает покоя: 365 дней в году наши смартфоны беспрерывно управляют потоками вашей информации, отправляя и принимая сигналы по всей планете, а каналы связи обеспечивают надежность передачи. Но в преддверии Нового года у нас есть к вам огромная просьба. Устройте вашему смартфону выходной. Отложите его в сторону, на один день, единственный раз в году, и проведите этот день с близкими вам людьми! Они гораздо больше заслуживают вашего внимания. Оторвите взгляд от экрана, чтобы не пропустить волшебство! Каким бы хорошим ни был ваш ноутбук или мобильный телефон, самые удивительные вещи происходят за его пределами. И наш ролик – тому подтверждение! А вы готовы к чудесам?
https://habrahabr.ru/company/huawei/blog/318636/