-Музыка

 -Поиск по дневнику

Поиск сообщений в it_is_it

 -Подписка по e-mail

 

 -Статистика

Статистика LiveInternet.ru: показано количество хитов и посетителей
Создан: 17.08.2005
Записей: 347
Комментариев: 103
Написано: 508




Записи содержат ненормативную лексику! Описание того, что я делаю на работе.


Запретить сайтам отключать меню правой кнопки мыши

Пятница, 08 Января 2016 г. 03:22 + в цитатник
095 (it_is_it) все записи автора В Firefox :

открываем новую вкладку, в адресной строке пишем: about:config
Жмём Enter, соглашаемся быть осторожными,
в появившейся строке поиска вбиваем: dom.event.contextmenu.enabled
если значение true, кликаем дважды по dom.event.contextmenu.enabled -> значение изменяется на false
- всё, теперь можете копировать защищёные картинки и прочий контент с сайта. )

http://forum.mozilla-russia.org/viewtopic.php?id=36226



Процитировано 1 раз

,kz!

Понедельник, 04 Января 2016 г. 20:35 + в цитатник

f[etnm//

Понедельник, 04 Января 2016 г. 17:43 + в цитатник

программа связь между клавишами и компом

Суббота, 02 Января 2016 г. 15:51 + в цитатник
Reeder (it_is_it) все записи автора KaraKEYoke Karaoke - программа для караоке и обучения игре на синтезаторе, МИДИ клавиатуре, пианино, фортепьяно

KaraKEYoke main screen

Вместе с KaraKEYoke Вы сможете не только петь свои любимые песни, но и легко научиться играть их, даже не изучая нот!

Для караоке или обучения можно загрузить любые МИДИ или караоке файлы для компьютера (*.mid, *.kar). Это могут быть песни, мелодии, упражнения, пьесы, этюды, которые легко найти и скачать в Интернете. Программа показывает нотную запись (нотный стан, музыкальную нотацию, партитуру).

Вы можете выбрать фрагмент любимой песни и быстро научиться играть на синтезаторе/MIDI клавиатуре этот фрагмент. Несколько режимов обучения подойдут для любого уровня, для детей, начинающих, для тех, кто не знает нот и не играл на клавишных инструментах раньше. Для обучения нужно подключить к компьютеру любой синтезатор, цифровое пианино, фортепиано или МИДИ клавиатуру. Обучающая программа КараКЕЙоке будет показывать Вам какие клавиши нужно нажимать и терпеливо ждать, когда Вы их правильно нажмёте. Если синтезатор имеет функцию подсветки клавиш (Casio LK серия), то нужные клавиши будут подсвечиваться прямо на нём.

Иногда для пения караоке необходимо усилить партию соло, чтобы получить хорошую опору для голоса. Для этого МИДИ и караоке плеер КараКЕЙоке позволяет выбрать нужный MIDI канал, поднять его громкость и сменить инструмент на более выразительный. Можно транспонировать ноты по октавам или изменять тональность всей композиции. Для КАРАОКЕ этот проигрыватель караоке можно использовать бесплатно.

Многие синтезаторы и цифровые пианино Casio LK-, CTK-, WK-, ... позволяют загружать в них специальные МИДИ файлы с песнями, например используя SD карту памяти. Такие файлы трудно найти, ведь синтезатор использует свой специальный формат SMF0. Теперь Вам не нужен конвертор, чтобы конвертировать MIDI и караоке файлы в SMF-0 формат, ведь программа КараКЕЙоке умеет сразу проигрывать песни на синтезаторе, и поддерживает множество настроек и режимов обучения.

Возможно программа КараКЕЙоке это хороший подарок для тех, кто не только любит петь караоке, но хочет получить дополнительное удовольствие от погружения в мир музыки, а может быть в дальнейшем начать серьёзное её изучение в музыкальной школе или с преподавателем, погрузившись в сольфеджио, арпеджио, аккомпанемент, ноты, аккорды, транспозиции, гаммы, сильные и слабые доли, размеры, легато, стаккато, паузы, фразы, партии, партируры, интервалы, мажорные и минорные тональности :)

В этом ролике робот Джонни учится играть на синтезаторе CASIO LK-270 с помощью программы KaraKEYoke.
http://karakeyoke.ru/software/karakeyoke/overview.html


Понравилось: 1 пользователю

Сети, связь - сильно быстрее и дешевле

Пятница, 01 Января 2016 г. 16:57 + в цитатник

rutor

Вторник, 29 Декабря 2015 г. 22:17 + в цитатник
095 (it_is_it) все записи автора // .. зайти на rutor можно только используя специальные средства, такие как АнтиЗапрет и AntiCenz. Ну и, конечно же, сайты доступны в Tor и I2P.

Загрузочные флешки и софт к ним

Четверг, 24 Декабря 2015 г. 22:11 + в цитатник
095 (it_is_it) все записи автора http://habrahabr.ru/post/240443/ - зри в коммент
http://remontka.pro/best-free-software/ - программы на каждый день
http://kolibrios.org/ru/index - Kolibri
http://habrahabr.ru/post/234443/ - Запуск VMWare образов на Zalman VE-300

CopyMik

Среда, 16 Декабря 2015 г. 13:48 + в цитатник
095 (it_is_it) все записи автора CopyMik - бесплатная программа для сложного копирования, переименования (включая транслитерацию), сжатия, разжатия, шифрования, дешифрования файлов и папок.

В отличии от robocopy и xcopy программа CopyMik имеет переименование, сжатие и шифрацию,
позволяет использовать несколько масок в каждом ключе.
Ключи разделены для файлов и папок.
Это позволяет, в большинстве случаев, отказаться от написания скриптов копирования.
CopyMik удобна при создании резервный копий, зеркальном отображении файлов с повторением структуры папок (дирректорий).
Позволяет исключить из копирования или переименовать в случае существования папки и файлы.
Поддерживает копирование прав доступа к файлам и папкам раздельно.
При копировании файлов возможно их шифрование или дешифровка, сжатие и разжатие, опционально шифруемые и сжимаемые файлы можно переименовывать как в прямом так и в обратном направлениях.
Доступно 12 различных алгоритмов шифрования что делает возможным последовательное шифрование несколькими различными алгоритмами (маниакальное шифрование), а это в свою очередь очень сильно затрудняет взлом и дешифровку.
Содержит много других удобных возможностей.
CopyMik 2.8 Beta Сборка 5 (Бесплатная)для Windows
rusmikleАТgmail.com Михаил Червоненко 2015
Последнее обновление: - 06.12.2015 22:30 (Germany)

Загрузить zip файл  |  Зеркало - Softodrom.ru
[/b]
http://superbasis.de/copymik/index.htm#rus

http://soft.softodrom.ru/ap/CopyMik-p25454

http://forum.ru-board.com/topic.cgi?forum=5&topic=48207

http://www.itsec.ru/forum.php?sub=11248&from=-1

ПО для резервного копирования:
https://ru.wikipedia.org/w/index.php?title=%D0%A1%...%B8%D1%8F&stable=0&redirect=no

Читать далее...

Метки:  

Vivaldi - Новый веб-браузер

Среда, 16 Декабря 2015 г. 12:45 + в цитатник

WinMerge

Среда, 16 Декабря 2015 г. 12:39 + в цитатник
095 (it_is_it) все записи автора Обзор инструментов для визуального сравнения папок и файлов и разрешения конфликтов слияния:
http://habrahabr.ru/post/150001/
-----------------------------------------------------------------------------------
WinMerge является Open Source инструментом сравнения и слияния для Windows. WinMerge может сравнивать как файлы, так и папки, отображая различия в визуальной текстовой форме, которые легко понять и обработать: http://winmerge.org/
WinMerge 2.14.0
-----------------------------------------------------------------------------------
WinMerge — свободное ПО с открытым исходным кодом для сравнения и синхронизации файлов и директорий, распространяемое на условиях лицензии GNU GPL для Microsoft Windows.
Основные возможности: https://ru.wikipedia.org/wiki/Winmerge
+
http://www.hardforum.ru/t81274-2/
-----------------------------------------------------------------------------------

Метки:  

Как отключить предложение обновиться до Windows 10

Среда, 16 Декабря 2015 г. 12:12 + в цитатник
095 (it_is_it) все записи автора "Если у вас Windows 7, то необходимо искать в списке обновления KB3035583, KB2952664, KB3021917.

Если у вас Windows 8, то необходимо искать в списке обновления KB3035583, KB2976978.

После удаления этих обновлений их вам снова предложат установить, для этого их нужно просто скрыть и всё.

Список обновлений:
KB:3021917
KB:2990214
KB:3050265
KB:2952664
KB:2977759
KB:3046480
KB:3035583

KB:3065987
KB:3075851
KB:3083324
KB:3112343
KB:3083710
----------------------
в моем случае достаточно было удалить KB3035583, обязательно потом его надо скрыть (правой кнопкой мыши по обновлению в списке - скрыть обновление), если после удаления его нет в списке - выполнить поиск новых обновлений, должно появится, потом скрыть."
----------------------
GWX Control Panel - удобное решение для пользователей операционок семейства Windows 7 и 8, с помощью которого очень легко избавиться от системного оповещения о получении Windows 10
https://yandex.ru/yandsearch?&clid=2186623&text=GWX%20Control%20Panel

FlashFolder

Среда, 16 Декабря 2015 г. 12:09 + в цитатник
095 (it_is_it) все записи автора Суть проблемы:
В Windows слишком мало возможностей для того, чтобы в процессе сохранения файла быстро найти нужную папку: https://glashkoff.com/obzor/flashfolder/

Программа абсолютно бесплатна. Можно устанавливать на рабочие компьютеры - лицензия GPLv2 разрешает.


Скачать
Версия для 32-битных операционных систем — ссылка (зеркало).


Версия для 64-битных операционных систем — ссылка (зеркало).


Официальный сайт программы здесь, но оттуда FlashFolder лучше не брать - там устаревшая версия, не работающая в Windows 7 и 8. Благодаря стараниям программиста Tim De Baets нам доступна исправленная версия FlashFolder, ссылки на которую приведены выше.


+
http://useful-faq.livejournal.com/19140492.html

Метки:  

Java-задолбала!!!!

Среда, 16 Декабря 2015 г. 00:27 + в цитатник
Gorely (it_is_it) все записи автора

всего навсего полгода назад довольно старый принт-сервер от НР через вэбморду позволял пользовать сканер от 1100а, и вот блядь когда эта прелестная функция в очредной раз в полгода понадобилась выясняется что Chrome уже вообще ее нахуй не поддерживает, а сама эта блядская ява просто не отображает интерфейс принтсервера!!!! и че бля - выкидывать полностью работающее устройство только потому что какие то пидары выкинули поддерждку старого кода? а с какого хуя вы ее выкинули? вы блядь место на дискете экономите????

сцуки


что поменялось с процами

Вторник, 15 Декабря 2015 г. 14:46 + в цитатник
Reeder (it_is_it) все записи автора

Intel Core i7 пяти поколений в близком частотном диапазоне

 

 

Топовые процессоры трех последних поколений микроархитектур Intel мы тестировали уже и as is, и с дискретной видеокартой, однако эти два материала, как нам кажется, все еще недостаточны для полного раскрытия темы. Первым «тонким моментом» являются тактовые частоты — все-таки при выпуске Haswell Refresh компания уже разделила жестко линейку «обычных» Core i7 и «оверклокерских», фабрично разогнав последние (что было не так уж и сложно, поскольку таких процессоров вообще говоря требуется немного, так что отобрать необходимое количество нужных кристаллов несложно). Появление же Skylake положение дел не только сохранило, но и усугубило: Core i7-6700 и i7-6700K это вообще очень разные процессоры, различающиеся и уровнем TDP. Таким образом, даже при одинаковых частотах эти модели могли бы работать по-разному с точки зрения производительности, а ведь и частоты совсем не одинаковые. В общем, делать выводы по старшей модели опасно, но в основном-то как раз везде изучалась она и только она. «Младшая» (и более востребованная) до последнего времени вниманием тестовых лабораторий избалована не была.

А для чего это может быть нужно? Как раз для сравнения с «верхушками» предыдущих семейств, тем более что там обычно такого большого разброса частот не было. Иногда и вообще не было — например, пары 2600/2600K и 4771/4770К в плане процессорной части в штатном режиме идентичны. Понятно, что 6700 в большей степени является аналогом не названных моделей, а 2600S, 3770S, 4770S и 4790S, но... Важно это лишь с технической точки зрения, которая, в общем-то, мало кого интересует. В плане распространенности, легкости приобретения и других значимых (в отличие от технических деталей) характеристик это как раз «регулярное» семейство, к которому и будет присматриваться большинство владельцев «старых» Core i7. Или потенциальных владельцев — пока еще апгрейд временами остается чем-то полезным, большинство пользователей процессоров младших семейств процессоров при необходимости увеличения производительности присматривается в первую очередь к устройствам для уже имеющейся «на руках» платформы, а только потом уже рассматривает (или не рассматривает) идею ее замены. Правильный это подход или не очень — покажут тесты.

Конфигурация тестовых стендов

Процессор Intel Core i7-2700K Intel Core i7-3770 Intel Core i7-4770K Intel Core i7-5775C Intel Core i7-6700
Название ядра Sandy Bridge Ivy Bridge Haswell Broadwell Skylake
Технология пр-ва 32 нм 22 нм 22 нм 14 нм 14 нм
Частота ядра std/max, ГГц 3,5/3,9 3,4/3,9 3,5/3,9 3,3/3,7 3,4/4,0
Кол-во ядер/потоков 4/8 4/8 4/8 4/8 4/8
Кэш L1 (сумм.), I/D, КБ 128/128 128/128 128/128 128/128 128/128
Кэш L2, КБ 4×256 4×256 4×256 4×256 4×256
Кэш L3 (L4), МиБ 8 8 8 6 (128) 8
Оперативная память 2×DDR3-1333 2×DDR3-1600 2×DDR3-1600 2×DDR3-1600 2×DDR4-2133
TDP, Вт 95 77 84 65 65
Графика HDG 3000 HDG 4000 HDG 4600 IPG 6200 HDG 530
Кол-во EU 12 16 20 48 24
Частота std/max, МГц 850/1350 650/1150 350/1250 300/1150 350/1150
Цена 18747 руб. (4) 26027 руб. (10) 28440 руб. (158) 30220 руб. (68) 30990 руб. (51)

Для пущей академичности имело бы смысл тестировать Core i7-2600 и i7-4790, а вовсе не 2700К и 4770К, но первый в наше время найти уже сложно, в то время как 2700К у нас под рукой в свое время нашелся и был протестирован. Равно как и 4770К тоже изучался, причем в «обычном» семействе он имеет полный (4771) и близкий (4770) аналоги, и вся упомянутая троица от 4790 отличается несущественно, так что возможностью минимизировать количество работы мы решили не пренебрегать. В итоге, кстати, процессоры Core второго, третьего и четвертого поколений оказались максимально близки друг к другу по официальному диапазону тактовых частот, да и 6700 отличается от них незначительно. Broadwell тоже можно было «подтянуть» к этому уровню, взяв результаты не i7-5775C, а Xeon E3-1285 v4, но только лишь подтянуть, а не полностью устранить различие. Именно поэтому мы решили воспользоваться более массовым (благо и большинство других участников такие же), а не экзотическим процессором.

Что касается прочих условий тестирования, то они были равными, но не одинаковыми: частота работы оперативной памяти была максимальной поддерживаемой по спецификациям. А вот ее объем (8 ГБ) и системный накопитель (Toshiba THNSNH256GMCT емкостью 256 ГБ) были одинаковыми для всех испытуемых.

Методика тестирования

Для оценки производительности мы использовали нашу методику измерения производительности с применением бенчмарков iXBT Application Benchmark 2015 и iXBT Game Benchmark 2015. Все результаты тестирования в первом бенчмарке мы нормировали относительно результатов референсной системы, которая в этом году будет одинаковой и для ноутбуков, и для всех остальных компьютеров, что призвано облегчить читателям нелегкий труд сравнения и выбора:

Процессор Intel Core i5-3317U
Чипсет Intel HM77 Express
Память 4 ГБ DDR3-1600 (двухканальный режим)
Графическая подсистема Intel HD Graphics 4000
Накопитель SSD 128 ГБ Crucial M4-CT128M4SSD1
Операционная система Windows 8 (64-битная)
Версия видеодрайвера графического ядра Intel 9.18.10.3186

iXBT Application Benchmark 2015

Как мы уже не раз писали, в этой группе немалое значение имеет видеоядро. Однако далеко не все так просто, как можно было бы предположить только лишь по техническим характеристикам — например, i7-5775C все же медленнее, чем i7-6700, хотя у первого как раз GPU намного мощнее. Впрочем, еще более показательно тут сравнение 2700К и 3770, которые в плане исполнения OpenCL-кода различаются принципиально — первый задействовать для этого GPU вообще не способен. Второй — способен. Но делает это настолько медленно, что никаких преимуществ перед предшественником не имеет. С другой стороны, наделение такими способностями «самого массового GPU на рынке» привело к тому, что их начали понемногу использовать производители программного обеспечения, что проявилось уже к моменту выхода на рынок следующих поколений Core. И наряду с небольшими улучшениями и процессорных ядер способно привести к достаточно заметному эффекту.

Однако не везде — вот как раз случай, когда прирост от поколения к поколению совсем не заметен. Впрочем, он есть, но такой, что проще не обращать на него внимания. Интересным тут является разве что то, что прошедший год позволил совместить такое увеличение производительности с существенно менее жесткими требованиями к системе охлаждения (что открывает обычным настольным Core i7 и сегмент компактных систем), однако не во всех случаях это актуально.

А вот пример, когда на GPU уже удалось переложить немалую часть нагрузки. Единственное, что может «спасти» в этом случае старые Core i7 это дискретная видеокарта, однако пересылки данных по шине эффект портят, так что i7-2700K и в этом случае не обязательно догонит i7-6700, а 3770 на это способен, но вот угнаться ни за 4790К или 6700К, ни за 5775С с любым видео уже не может. Собственно, ответ на иногда возникающий у части пользователей недоуменный вопрос — зачем в Intel уделяют столько внимания интегрированной графике, если для игр ее все равно мало, а для других целей давно достаточно? Как видим, не слишком-то и «достаточно», если самым быстрым иногда способен (как здесь) оказаться процессор с далеко не самой мощной «процессорной» частью. И уже заранее интересно — что мы сможем получить от Skylake в модификации GT4e ;)

Поразительное единодушье, обеспеченное тем, что этой программе не требуются ни новые наборы инструкций, ни какие-то чудеса на ниве увеличения многопоточной производительности. Небольшая разница между поколениями процессоров, все же, есть. Но выискивать ее можно разве что при в точности идентичной тактовой частоте. А когда таковая различается существенно (что мы имеем в исполнении i7-5775С, в однопоточном режиме отстающем от всех на 10%) — можно и не искать :)

Audition «умеет» более-менее все. Разве что к дополнительным потокам вычисления довольно равнодушен, но использовать их умеет. Причем, судя по результатам, на Skylake делает это лучше, чем было свойственно предыдущим архитектурам: преимущество 4770К над 4690К составляет порядка 15%, а вот 6700 обходит 6600К уже на 20% (при том, что частоты у всех примерно равные). В общем, скорее всего, в новой архитектуре будет ждать нас еще немало открытий. Небольших, но иногда дающих кумулятивный эффект.

Как и в случае распознавания текста, где именно 6700 отрывается от предшественников наиболее «резво». Хоть в абсолютном итоге и незначительно, но ждать на относительно старых и хорошо «вылизанных» алгоритмах такого прироста при учете того, что, по сути, перед нами энергоэффективный процессор (кстати — 6700К действительно намного быстрее справляется с этой задачей) априори было бы слишком оптимистично. Мы и не ждали. А практика оказалась интереснее априорных предположений :)

С архиваторами все топовые процессоры справляются очень хорошо независимо от поколения. Во многом, как нам кажется, потому, что для них-то эта задача уж очень уже простая. Собственно, счет уже идет на секунды, так что что-то здесь радикально улучшить практически невозможно. Если только ускорить работу системы памяти, но DDR4 имеет более высокие задержки, нежели DDR3, так что гарантированный результат дает разве что увеличение кэшей. Поэтому самым быстрым оказался единственный среди протестированных процессор с GPU GT3e — кэш-память четвертого уровня используется не только видеоядром. С другой стороны, не так уж и велик прирост от дополнительного кристалла, так что архиваторы просто та нагрузка, на которую в случае заведомо быстрых систем (а не каких-нибудь мини-ПК) можно уже не обращать внимания.

Плюс-минус пол-лаптя от Солнца, что, в общем, тоже подтверждает, что все топовые процессоры справляются с такими задачами одинаково, контроллеры в чипсетах трех серий примерно идентичные, так что существенная разница может быть обусловлена только накопителем.

А вот в таком банальном сценарии, как простое копирование файлов, еще и теплопакетом: модели с пониженным «разгоняются» достаточно вяло (благо формально и не за чем), что приводит к чуть более низким результатам, чем могло бы. Но в целом тоже не тот случай, ради которого может возникнуть желание менять платформу.

Что получаем в итоге? Все процессоры примерно идентичны друг другу. Да, конечно, разница между лучшим и худшим превышает 10%, но не стоит забывать о том, что это различия, накопившиеся за три с лишним года (а возьми мы i7-2600, так было бы 15% почти за пять). Таким образом, практического смысла в замене одной платформы на другую нет, пока старая работает. Естественно, если речь идет о LGA1155 и ее последователях — как мы уже убедились«перепад» между LGA1156 и LGA1155 куда более заметный, причем не только в плане производительности. На последних на данный момент платформах Intel что-то можно «выжать» использованием «стероидных» Core i7 (если уж все равно ориентироваться именно на это недешевое семейство), но не так и много: по интегральной производительности i7-6700K обгоняет i7-6700 на 15%, так что и его отрыв от какого-нибудь i7-2700K увеличивается почти до 30%, что уже более весомо, но все равно еще не принципиально.

Игровые приложения

По понятным причинам, для компьютерных систем такого уровня мы ограничиваемся режимом минимального качества, причем не только в «полном» разрешении, но и с его уменьшением до 1366×768: Несмотря на очевидный прогресс в области интегрированной графики, она пока не способна удовлетворить требовательного к качеству картинки геймера. А 2700К мы решили и вовсе на стандартном игровом наборе не проверять: очевидно, что тех его владельцев, кто использует именно интегрированное видеоядро, игры не интересуют от слова совсем. Кого интересуют хоть как-то, те уж точно как минимум какую-нибудь «затычку для слота» в закромах нашли и установили, благо наше тестирование по предыдущей версии методикипоказало, что HD Graphics 3000 не лучше, чем даже Radeon HD 6450, причем обоих практически ни на что не хватает. Вот HDG 4000 и более новые IGP уже какой-никакой интерес собой представляют.

Вот, например, в Aliens vs. Predator можно поиграть на любом из изучаемых процессоре, но только снизив разрешение. Для FHD же подходит только GT3e, причем неважно какой — просто в сокетном исполнении такая конфигурация на данный момент доступна лишь для Broadwell со всеми вытекающими.

Зато «танчики» на минималках уже на всем «бегают» столь хорошо, что стройная картина только в высоком разрешении и «вытанцовывается»: в низком даже непонятно — кто лучше, а кто хуже.

Grid2 при всей своей слабой требовательности к видеочасти все еще ставит процессоры строго по ранжиру. Но особенно хорошо это видно опять в FHD, где и пропускная способность памяти уже имеет значение. В итоге на i7-6700 уже можно разрешение не снижать. На i7-5775C тем более, причем и абсолютные результаты намного выше, так что если данная сфера применения интересует, а использование дискретной видеокарты по каким-либо причинам нежелательно, альтернатив этой линейке процессоров по-прежнему нет. В чем нет и ничего нового.

Лишь старшие Haswell «вытягивают» игру хотя бы в низком разрешении, а Skylake делает это уже без оговорок. Broadwell не комментируем — это не архитектурное, а, скажем так, количественное превосходство.

Более старая игра серии на первый взгляд аналогична, но тут уже и между Haswell и Skylake даже количественных отличий не наблюдается.

В Hitman — наблюдаются и заметные, но перехода количества в качество по-прежнему нет.

Как и здесь, где даже режим низкого разрешения может «вытянуть» только процессор с GT3e. У остальных — весомый, но все еще недостаточный даже для таких «подвигов» прогресс.

Минимальный режим настроек в этой игре относится очень щадящим образом ко всем слабосильным GPU, хотя HDG 4000 еще «хватало» лишь на HD, но не FHD.

И снова тяжелый случай. Менее «тяжелый», чем Thief, но достаточный для того, чтобы продемонстрировать наглядно, что никакая интегрированная графика не может считаться игровым решением.

Хотя в некоторые игры может позволить поиграть и с относительным комфортом. Впрочем, ощутимым только если усложнять IGP и количественно наращивать все функциональные блоки. Собственно, как раз в легких режимах прогресс в области GPU Intel наиболее заметен — примерно два раза за три года (более старые-то разработки вообще уже нет смысла рассматривать серьезно). Но из этого не следует, что со временем интегрированная графика сможет легко и непринужденно догнать дискретную сравнимого возраста. Скорее всего, «паритет» будет установлен с другой стороны — имея в виду огромную базу инсталлированных решений невысокой производительности, производители тех же игр на нее и будут ориентироваться. Почему раньше этого не делали? Вообще говоря, делали — если рассматривать не только 3D-игры, а вообще рынок, огромное количество весьма популярных игровых проектов было предназначено как раз для того, чтобы нормально работать и на достаточно архаичных платформах. Но определенный сегмент программ, «двигавших рынок» был всегда, причем именно он и привлекал максимум внимания со стороны прессы и не только. Сейчас же процесс явно близок к точке насыщения, поскольку, во-первых, парк разнообразной компьютерной техники уже очень велик, и желающих заниматься перманентным апгрейдом все меньше. А во-вторых, «мультиплатформенность» нынче подразумевает под собой не только специализированные игровые консоли, но и разнообразные планшеты-смартфоны, где, очевидно, с производительностью все еще хуже, чем у «взрослых» компьютеров, независимо от степени интегрированности платформ последних. Но для того, чтобы данная тенденция стала преобладающей, нужно, все же, как нам кажется достигнуть определенного уровня гарантированной производительности. Чего пока нет. Но над проблемой все производители работают более чем активно и Intel тут исключением не является.

Итого

Что же мы видим в конечном итоге? В принципе, как не раз было сказано, последнее существенное изменение в процессорных ядрах семейства Core состоялось почти пять лет назад. На этом этапе уже удалось достичь такого уровня, «атаковать» который напрямую никто из конкурентов не может. Поэтому основной задачей Intel является улучшение положения в, скажем так, сопутствующих областях, а также наращивание количественных (но не качественных) показателей там, где это имеет смысл. Тем более, что серьезное влияние на массовый рынок оказывает растущая популярность портативных компьютеров, давно обогнавших по этому показателю настольные и становящихся все более портативными (несколько лет назад, например, ноутбук массой 2 кг еще считался «условно легким», а сейчас активно растут продажи трансформеров, в случае которых большая масса убивает весь смысл их существования). В общем, разработка компьютерных платформ давно идет не по пути наилучшего удовлетворения потребностей покупателей больших настольных компьютеров. В лучшем случае — не в ущерб им. Поэтому то, что в целом в этом сегменте производительность систем не снижается, а даже немного растет, уже повод для радости — могло быть и хуже :) Плохо только то, что из-за изменений в периферийной функциональности приходится постоянно менять и сами платформы: это сильно подкашивает такое традиционное преимущество модульных компьютеров, как ремонтопригодность, но здесь ничего не попишешь — попытки сохранять совместимость любой ценой до добра тем более не доводят (сомневающиеся могут посмотреть на, к примеру, AMD AM3+).


облачная коммуникация

Вторник, 15 Декабря 2015 г. 14:45 + в цитатник
Reeder (it_is_it) все записи автора

Облачные сервисы NEC Univerge Blue предназначены для удовлетворения потребностей бизнеса в коммуникациях

Компания NEC представила Univerge Blue Business Cloud Services — набор облачных сервисов, нацеленных на удовлетворение растущих потребностей предприятий в коммуникациях. Основными критериями, заложенными при проектировании Univerge Blue, по словам производителя, были безопасность и постоянная доступность. Унифицированная платформа обеспечивает голосовую связь, мобильное подключение, обмен сообщениями, телеприсутствие, web-конференции и другие услуги.

Переход к облачным сервисам UCaaS привлекателен из-за снижения затрат и повышения гибкости

Как утверждается, переход к облачным сервисам привлекателен из-за снижения затрат и повышения гибкости. Особенно новая технология востребована в случае компаний с несколькими офисами, расположенными в нескольких местах.

Разработчик отмечает, что архитектура Univerge Blue характеризуется целостностью, включая как инфраструктурные уровни, так и уровень приложений. В свою очередь, Univerge Blue является частью более крупного решения, предлагаемого NEC и состоящего из серверов NEC Fault Tolerance, программно-определяемых сетей (SDN), ПО и вычислительных центров.

Доступность сервисов Univerge Blue производитель оценивает в 99,999%. Защита информации обеспечивается шифрованием. Сервисы могут быть развернуты как приватные, гибридные или общедоступные.

Отметим, что предложение NEC является частью растущего рынка унифицированных средств связи, доступных как сервисы (unified communications as a service, UCaaS). Средства UCaaS являются конкурентами традиционных решений, опирающихся на использование оборудования, которым располагает потребитель. Аналитики ожидают, что в ближайшие годы рынок UCaaS будет расти в несколько раз быстрее рынка традиционных решений.

Источник: NEC


игры для йуных погромистов

Вторник, 15 Декабря 2015 г. 14:43 + в цитатник
Reeder (it_is_it) все записи автора

Игры, которые учат программированию

IrinaInina 13 декабря в 16:13 34006


Образование стоит дорого. Хорошее образование стоит очень дорого. Но тем не менее возможность получить бесплатное и качественное образование есть у каждого. Компании и корпорации во всём мире вкладывают деньги в создание бесплатных образовательных продуктов. Отчасти, чтобы обеспечить себя квалифицированными кадрами в будущем. Отчасти, для преодоления бедности, предоставления всем равного доступ к качественному образованию. 

У каждого есть возможность воспользоваться специально созданной для обучения школьников средой программирования Scratch, которую разрабатывают специалисты одного из самых престижных технических учебных заведений США и мира — Массачусетского технологического института. Или игрой Minecraft, за которую Microsoft год назад заплатила $2,5 млрд и с помощью которой, в том числе, планирует обучать детей программированию. Или обучающими играми, которые создают энтузиасты и добровольцы во всём мире.

Препятствием для использования подобных ресурсов может быть неосведомлённость о их существовании или незнание языка. Действительно, англоязычных ресурсов и игр значительно больше. Но существуют и русскоязычные игры, обучающие программированию. 

Здесь собраны бесплатные русскоязычные браузерные игры, которые научат составлять алгоритмы и даже писать код. Они размещены в порядке усложнения. Последние из игр в этом списке предназначены для взрослых людей. Вряд ли можно стать программистом только играя. Но можно получить положительный заряд на старте, изучить основные алгоритмические конструкции и логику программирования, приобрести навыки планирования действий при решении практических задач.

Учитесь программировать. Учитесь думать


Code.org




Ресурс создан для детей от 4-х до 10-и лет, но, как утверждают его создатели, подойдет пользователям всех возрастов. Обучение начинается с самых азов — с обучения использованию мышки. Используется scratch-подобный язык состоящий из блоков. Играя ребёнок разберётся с азами программирования, узнает как алгоритм превращается в JavaScript-код и создаст свою собственную компьютерную игру. 

Minecraft




Minecraft — совместный проект Microsoft и Code.org. Игра рассчитана на детей от 6 лет и предполагает решение различных задач при помощи построения алгоритмов. Это позволяет детям освоить основы программирования, понять как работают его базовые механизмы. 

Minecraft действительно образовательная игра: она развивает пространственное мышление, математические и логические способности. И ещё игра учит чтению и письму, повышает общую грамотность. Впрочем, не только Minecraft имеет такой эффект, а любая деятельность, которой дети увлечены и которая мотивирует их к приобретению новых полезных навыков.

Скретч


 

Скретч — специальный визуальный язык программирования, который был разработан в MIT для обучения детей. Изучение Скретч проходит в игровой форме. Скретч развивает логическое и критическое мышление, воображение, дети учатся решать разноплановые задачи, у них появляются новые возможности для самовыражения и творчества. Разумеется, необязательно, что ваш ребенок в будущем станет программистом. Однако, обучение детей элементарным основам программирования поможет им развиваться быстрее и веселее.

Blockly




Blockly, как и Скретч, создаёт программу при помощи соединения блоков. Но если Скретч больше подходит для внеклассных занятий, Blockly можно использовать в школе. Эта игра позволяет создавать учебные задания, компоновать их в модули, проходя которые, ученик постепенно осваивает какую-то тему.
Вот, например, как выглядит созданная в Blockly головоломка по странам и флагам:



ПиктоМир




ПиктоМир, разработанный НИИСИ РАН по заказу Российской академии наук, — наш ответ зарубежным аналогам. В НИИСИ РАН уже разработали систему «КуМир», в которой с программированием знакомятся старшие школьники, но игрового элемента в ней нет. 

Сюжет игры: на картинке изображен космодром, с которого стартуют космические корабли, и при старте они выжигают покрытие. А поскольку там всё горячее и радиоактивное, то людей посылать восстанавливать покрытие нельзя, и туда посылают робота-вертуна (подозрительно похожего на R2D2). Этому роботу нужно задать программу, чтобы он сам не разбился о бордюрчик (робот в этом случае краснеет) и всё выгоревшее залил защитным составом.

Робот раскрашивает поля, а ребёнок учится составлять алгоритмы. Все подсказки выполнены с помощью графики, поэтому ПиктоМир можно предлагать детям, не умеющим читать, учёные постарались сделать действия понятными даже для малышей. 

Первые четыре уровня игры доступны всем, пятый уровень — головоломки для одарённых детей, шестой уровень — головоломки для родителей, чтобы им тоже было интересно.

/habracdn.net/habr/images/1450174332/bg-user2.gif"" target="_blank">https://habracdn.net/habr/images/1450174332/bg-user2.gif") 0% 50% no-repeat;">zesetup напоминает про игру Colobot.

Colobot




Колобот — 3d стратегия, разработаная компанией Epsitec в 2001. Игра призвана обучить детей (от 10 лет и старше) навыкам программирования в игровой форме. Геймплей заключается в создании программ для роботов. Цель — подготовить планеты для заселения и добычи полезных ископаемых.

Особенностью игры является возможность создавать программы, в соответствии с которыми в игре действуют роботы (задавая им алгоритмы самостоятельной работы и заменяя ими монотонные действия, которые может делать и сам игрок), поэтому считается, что игра способствует обучению программированию. Язык программирования, встроенный в игру, похож на C++ или Java, но имеется ограничение на размер программы — не более 20 000 символов, что не позволяет писать серьёзные программы вроде имитации искусственного интеллекта. К каждой миссии прилагается обширная справка с объяснением что необходимо сделать. Также зачастую там есть шпаргалка — готовая программа (или куски программы) с помощью которой можно решить поставленную задачу.

Существует русская локализация игры.



Microsoft Imagine




Microsoft Imagine предлагает средства для обучения и разработки, начиная с самой первой игры или приложения до облачных исследовательских проектов с использованием больших данных. Приложения распределены по уровням сложности. Самые простые из них доступны детям 9-10 лет, более сложные предназначены для старшеклассников и студентов. Использование только некоторых приложений доступно в браузере, для запуска остальных требуется установка бесплатного ПО и операционная система Windows. Ежегодно проводится конкурс Imagine Cup, в котором могут принять участие школьники, студенты и аспиранты из разных стран мира. Главным заданием участников является разработка идеи проекта или игры и создание её прототипа с помощью современных информационных технологий.

JavaRush




JavaRush — изучение программирования на Java в виде онлайн-игры. Каждому уровню соответствует отдельная солнечная система на звездной карте. Лекциям внутри уровня — планеты солнечной системы. Каждая открытая лекция – это перелёт на очередную планету. Когда все лекции открыты, корабль перелетает к следующей звездной системе.
Весь курс Java Core на JavaRush состоит из сорока уровней. Первые 10 уровней доступны всем, уровни 11 и выше доступны при наличии платной подписки.

На каждом уровне JavaRush 10-15 мини-лекций, так что 10 бесплатных уровней — это около 140 лекций и где-то 230 задач. Достаточно, чтобы вы определились, подходит вам JavaRush или нет.

Code Combat




Разработчики Code Combat предлагают учиться программированию, захватывая земли и побеждая врагов в лучших традициях RPG. 

Начинать играть можно «с нуля», не имея о программировании никакого представления. Пользователь может выбрать язык программирования, который хочет освоить: Python или JavaScript. Уровни игры выстроены как хороший курс программирования с нарастающей сложностью.

Вам предстоит стать волшебником, который c помощью программного кода меняет окружающий мир. На каждом уровне перед игроком ставится определенная задача — например, найти гриб, который поможет победить людоеда, повести в бой солдат или выбраться из темницы. В начале всё просто, вы пишете код и сразу видите на экране, как он будет выполняться. Потом задачи становятся более сложными, и вам приходится думать всё больше и больше. 

Игра имеет 80 бесплатных уровней и открытый программный код. Сотни игроков из разных стран приложили свой талант к тому, чтобы CodeCombat стал лучше. Именно благодаря этому мир воинов и магов оказался быстро переведён на разные языки, в том числе на русский. 
Нужно научиться программировать? Вам не нужны уроки. Вам нужно написать много кода и хорошо провести время, занимаясь этим. Это сущность программирования. Это должно быть весело. Не в том смысле, когда «уау, бейдж», а в том, когда «нет, мама, я должен закончить уровень». Вот почему Code Combat — это многопользовательская игра, а не курсы. Мы не остановимся, пока вы не сможете остановиться — но на этот раз это действительно хорошо. (из описания на сайте проекта)

UPD После 18 уровней в игре появляются две ветки — одна платная, вторая бесплатная. В игре 80 бесплатных уровней. По платной подписке доступны 60 дополнительных уровней.

Ещё статьи по теме:
12 игр, которые обучают детей программированию
Мой опыт обучения детей 8-10 лет программированию на Scratch
Приключенческая игра, в которую играют путем изменения её Javascript-кода
FightCode: танковые войны на JavaScript
Обучение программированию через игру или как быстро собрать весь мёд
Colobot и Ceebot

RuSIEM

Вторник, 15 Декабря 2015 г. 14:42 + в цитатник
Reeder (it_is_it) все записи автора

http://www.slideshare.net/OlesyaShelestova/rusiem/1 

RuSIEM

  1. 1. 2
  2. 2. Что такое SIEM SIEM – Security Information and Event Management • Собирает события с различных систем (операционные системы, средства защиты, бизнес-системы, базы данных, сетевая среда) • Приводит к общему формату для дальнейшей обработки • Анализирует разнородные данные и выявляет отклонения, нарушения, аномалии, выявляет угрозы на основе сигнатур, алгоритмов, математических методов и моделей • Фиксирует инцидент, чтобы он не остался незамеченным, скрытым • Уменьшает время реагирования на возникающие инциденты • *Предотвращает инциденты 3
  3. 3. Что такое SIEM SIEM это не панацея, это не замена AV/IPS/IDS/DLP/DPI! • SIEM – аггрегатор информации от различных источников • Получаемые данные слишком разнородны, поэтому приводятся к одному виду • Данные от источников как «сплетни». Поэтому они проверяются по нескольким факторам • Это «думалка», визуализация для полученной информации и быстрые поисковые механизмы • Кроме всего – это защищенное хранилище в котором факты о случившемся не будут удалены даже администратором. 4
  4. 4. Инциденты • Сетевые атаки • Вирусные эпидемии • Отключение средств защиты • Злонамеренные действия • Несанкционированный доступ • Использование служебного положения • Отказ в обслуживании • Сбои в работе • Аномалии и всплески • *Мошеннические действия • Несоответствие требованиям Законодательства и регуляторов 5
  5. 5. «Сопутствующие» варианты применения • Расследование инцидентов • Снижение числа ложных срабатываний от СЗИ • Антифрод • Инвентаризация активов • Обнаружение сбоев в работе ИТ инфраструктуры • *Прогнозирование инцидентов ИТ и ИБ • *Прогнозирование состояний активов 6
  6. 6. Зачем SIEM • Из за большого количества источников – не знаем что происходит в инфраструктуре • Смотреть логи чтобы «понять» - нет ни бюджета ни свободных сотрудников • Если рассматривать пословицу «Мальчик кричал волки» - то ваши СЗИ это куча съеденных мальчиков в единицу времени • Слова «Да узнаем когда это случится. Инциденты ведь происходят не часто» - следует воспринимать как «мне все равно что произойдет с компанией, работу другую найду». 7
  7. 7. А что происходит в инфраструктуре • Что то «упало». Идут ли бекапы? Или в случае вируса-шифровальщика вам восстановиться будет не из чего? • «Вася Пупкин» запустил Hamachi. Ваша DLP абсолютно бесполезна так как диск «Васи» подмаплен к домашнему компьютеру в зашифрованном тоннеле. На другом краю Земли над вашим Квартальным отчетом смеется группа китайцев. • «Маша» уже скачала фильм «Злые будни» но не оставлять же других без пира торрента. Интернет то безлимитный. Репликация базы с удаленным филиалом шла безумно долго. • Администратору Жене было не все равно заплатите ли премиальные и бонусы после обходного. Скрипт уже был вывешен и сработает автоматически ровно через 7 дней стерев все данные. Спишется все на злых хакеров. Логов ведь все равно не будет. • Новая внедренная IPS система работает «отлично». Посмотрите сколько писем шлет. Все «видит», обо всем «знает». Видите вот за сегодня 100500 событий. 8
  8. 8. Идеальный кейс в помощь 1. Пригласите хороших пентестеров или объявите «Bug bounty». 2. Не ожидайте стороннего воздействия хакеров. Пусть это будет внезапностью. Считайте что Вы не объявляли никаких конкурсов. Вы же не знаете в другие моменты времени что вас кто то решил взломать. Постфактум: • Обнаружили ли вы действия посторонних лиц? • Какой процент обнаружения? • Задайте вопрос нам – можно ли это обнаружить? 9
  9. 9. Нужна ли Вам SIEM? Для начала задайтесь вопросом – а вообще есть что защищать? Есть ли что то ценное и можно ли это защитить? 10
  10. 10. Вам НЕ_нужен_SIEM если: • У Вас совсем небольшая инфраструктура • Не планируется роста/слияния компаний • Совокупные нижеуказанные стоимости ниже 20% стоимости проекта: • потери_данных • стоимость_простоя • стоимость_восстановления • потери_преимущества • репутационные/регуляторные риски • Нет квалифицированных специалистов кто может хотя бы базово понять как закрыть уязвимость и как ее могут проэксплуатировать. Бюджет можно потратить разумнее купив «бюджетные» продукты и закрыв для начала часть рисков. Ну или open source решения. 11
  11. 11. SIEM не поможет Вам • В сокращении штата ИТ специалистов • *В автоматическом отражении сетевых атак • Ни в чем, если не обеспечите SIEM необходимыми данными • Ни в чем, если не будет «смотрящего эксперта»/процессов реагирования на инциденты. Утро ИТ/ИБ эксперта должно начинаться не с просмотра логов, а с чашечки кофе за просмотром инцидентов SIEM 12
  12. 12. От простого к сложному  Откуда, когда и почему блокировались учетные записи  Доступ к финансовым сервисам с анонимных сетей  Поток данных из продакшн зон в тестовую  Изменение конфигураций «не админами»  Повышение привилегий (локально, ldap, приложения, бизнес-системы)  Выявление несанкционированных сервисов (проброс в продакшн зону, несанкционированный прокси-сервер)  Обнаружение НСД (вход под учеткой уволенного сотрудника)  Hacker-profiling (поисковые запросы, попытки повышения привилегий и т.д.)  Отсутствие антивирусной защиты на новом установленном компьютере  Изменение критичных конфигураций с VPN подключений  Статистика работы удаленных пользователей 13
  13. 13.  Аудит изменений конфигураций (сетевых устройств, приложений, ОС)  Вход в систему под пользователем, отсутствующим в офисе  Аномальная активность пользователя (массовое удаление/копирование)  Обнаружение распределенной атаки или вирусной эпидемии  Обнаружение уязвимости по событию об установке софта  Оповещение об активной уязвимости по запуску ранее отключенной службы  Обнаружение распределенных по времени атаках (APTx)  Влияние отказа в инфраструктуре на бизнес-процессы (отказ базы данных – не сможем оказывать услугу)  …… От простого к сложному 14
  14. 14. Отличие от конкурентов  Тариф ноль за входящие  Отсутствует лицензирование по EPS и объему хранения  Нет ограничений по скорости потока и объему хранения  Извлечение бОльшего числа полей событий для глубокого детального анализа  Приведение событий в читаемый и понятный вид  Приведение полей к единому формату  Симптоматика, позволяющая понимать о чем событие  Обнаружение угроз и аномалий безсигнатурными методами  Наличие аналитических моделей и представлений, а не только RBR корреляция  Скорость разработки и возможность реализовать ваши «хотелки» Мы не моем посуду в стиральной машинке  15
  15. 15. Что у нас на входе • События с операционных, бизнес систем, AV, СЗИ, IDM, баз данных и т.п. (абсолютно любой источник, который может предоставить полезную информацию о состоянии и угрозе) • Сетевой поток (Flow, span/tap порт) • Экспертные данные (симптомы простые и составные, правила корреляции, аналитические пакетные задания, модели, риск-метрики, параметры нормализации событий и т.д.) • Данные от пользователя (описание границ инфраструктуры и объектов, запросы, дашборды, прочие настройки) • Фиды (CIF по умолчанию, возможны: *Kaspersky, OTX, Cisco …) • *Данные по инвентаризации, топологии, уязвимостях, открытых портах, конфигурациях 16
  16. 16. Что на выходе • Инциденты по правилам корреляции • *Инциденты в результате построения и анализа моделей : • *Поведенческая • Скоринговая • *Baseline • *Регрессионная • *Кластерная • Транзакционная • *Семантическая • Инциденты в результате анализа «умными» роботами (для определения многофакторных слабозаметных развивающихся во времени угроз) • Данные для поисковых запросов и аналитики • Скоринговые метрики для акцентирования внимания экспертов • Влияние на соответствие политикам и стандартам 17
  17. 17. Развеем «мифы» и сплетни  С октября 2015 по январь 2015: Мы использовали kibana,logstash, Чтобы: Быстро стартануть Научить разработчиков. В предыдущей компании на аналогичном проекте я учила на Splunk-е ;) Уменьшить стоимость конечного решения для Заказчика Посмотреть – насколько это будет работать и применимо 18
  18. 18. Что мы усвоили • SMB рынок большой, но мы не желаем делать siem из г... и веток • У выбранной связки уйма неработающих элементов, низкая производительность и неприменимость для решения задач больше чем log management. • Доработка open source механизмов до работающего стабильного релиза обходится дороже собственной разработки • И да. Мы 2 раза поменяли команду собственной разработки доводя до идеальной  19
  19. 19. Что имеем сейчас • Собственный агент управляемый с сервера для локального и удаленного сбора Windows event log, событий с таблиц и представлений MsSQL, Oracle, текстовых файлов … • Написанный с нуля интерфейс для взаимодействия с пользователем • Корреляцию первой версии • Высокопроизводительные инпуты/аутпуты и обработчики • API • Симптоматику • Трансляторы • Рабочую масштабируемую архитектуру хранения и обработки • Набитую руку на кейсах пилотных внедрений • Обученную команду первоклассных разработчиков Утопические идеи по разработке собственной базы данных оставим для других  20
  20. 20. На чем построено решение • ОС серверов решения – (Ubuntu Server 14.*/RH-like) X64 на реальном или виртуальном оборудовании. Разворачивается из OVF или образа • Агент (пока только под Windows системы) – собственная разработка с защищенным хранилищем и управлением с сервера. Для сервера подписки событий Windows может использоваться дополнительный сервер с win OS и агентом • Базы данных – Hadoop + Elasticsearch + секрет:) • MQ: Redis, 0mq, Kafka Apache • Прием событий – собственные инпуты на с++ и API для агента • Анализ сетевого трафика – доработанное open source решение • Нормализация событий – собственные парсеры • Симптоматика – свое решение • Корреляция – свое решение • Интерфейс – свое решение • Аналитика – свое решение • Фиды – внешние + наших экспертов 21
  21. 21. • Для Заказчика - black box • Вся настройка – из веб-интерфейса • Доступ к консоли – с браузера по https • LDAP аутентификация • Ролевая модель доступа • Кастомизируемый интерфейс • Возможность добавления пользовательских сущностей (правил, запросов, симптомов …) • Горизонтальное увеличение производительности и вертикальное масштабирование • *Возможность автоматического обновления продукта (база знаний, правила корреляции, батчи, фиды, новые фичи …) Подробности о продукте 22
  22. 22. Минимальная одно-нодовая конфигурация • Физический сервер или гипервизор • 1 сервер • ОЗУ от 16 GB • Процессор 2x2.4 GHz, суммарно не менее 4х ядер • HDD 100GB под систему + под данные. На что то постарше тестов желательно RAID/SSD 23
  23. 23. Оптимальная Enterprise конфигурация: • Минимально 1 нода для сбора и обработки событий • 1 нода для встроенной аналитики и работы с интерфейсом • Опционально: 1 нода для работы с трафиком (span/tap) • Опционально: 1 нода для API к фидам 24
  24. 24. Планы развития (август 2015) • Интеграция с PaloAlto • Интеграция с Kaspersky SC, Symantec EndPoint • Интеграция с Cisco FireSIGHT (eStreamer) • Допишем ролевую модель • Корреляция v.2.0 • Доработаем свои парсеры • Добавим в релиз аналитическую модель • Переработаем работу с источниками и агентами • Добавим раздел работы с трафиком • Группировка весов в симптоматике • Наполнение контента (корреляция, симтоматика, списки) 25
  25. 25. Планы развития (по октябрь 2015) • Инвентаризация и управление активами • Активное обнаружение активов • Регрессионная модель • Составная симтоматическая модель • Расширенное пассивное обнаружение активов • Интеграция со сканерами уязвимостей • Добавление механизмов обнаружения аномалий и угроз • Динамические активы • Workflow для фиксации и работы с инцидентами • Улучшенный интерфейс и дашборды 26
  26. 26. Планы развития (ближайшие направления) • Расширение управления продуктом через web консоль • Нормализация событий и подключение новых источников интеграторами через web консоль • Управление конфигурациями в разрезе влияния на соответствие стандартам и политикам • Интеграции с вендорами для более точного, полного и оперативного обнаружения угроз • Интеграция с Service Desk системами 27
  27. 27. Варианты внедрения RuSIEM • All-in-One SIEM решение • Только LM • SOC • Снижение стоимости лицензий имеющихся SIEM систем за счет фильтрации событий • Антифрод • Аналитическая система 28
  28. 28. Контактная информация: Максим Степченков m.stepchenkov@it-task.ru Олеся Шелестова oshelestova@rusiem.com Официальный дистрибьютор: СПАСИБО ЗА ВНИМАНИЕ (Далее – более техническая часть) 105082, Россия, г. Москва ул. Большая Почтовая, 55/59с1 Телефон: +7 (495) 972-98-26 E-mail: info@it-task.ru 29
  29. 29. Техническая часть 30
  30. 30. Лишь некоторые принципы в разработке • Пользовательские и системные сущности • Модульность системы • Взаимозаменяемость модулей. Любых. Даже БД. • Буферизация данных между модулями во избежание потерь данных и сглаживания всплесков • Вертикальная скалируемость • Горизонтальное увеличение производительности • Отсутствие каких либо узлов и архитектуры «звезда» 31
  31. 31. Нормализация • Все поля сводятся к единому формату • Формат «модели» с вложенными объектами и свойствами • Вложенность рекомендуется до 4-5 уровней • Наименования объектов – вне зависимости от источника. То есть user.name это имя пользователя и не важен тип источника. Свойство учетной записи определяется другими атрибутами. 32
  32. 32. Нормализация
  33. 33. Производительность одной ноды • Приемники событий - до 100 000 EPS суммарно • Обработчики – от 5 000 EPS на 1 ядро процессора в 1 поток • Агрегаты – от 4 000 EPS на 1 ядро процессора в 1 поток • Сохранение в БД – от 5 000 EPS на 1 ядро процессора Производительность кластера не имеет ограничений. Все тесты производились на реальных событиях при полном разборе полей в JSON формате от источников: MS Windows, Linux Syslog, Bluecoat Proxy, Stonegate. Производительность на элементарном разборе коротких событий как LM - свыше 100 000 EPS 34
  34. 34. Дашборды
  35. 35. Разделы Группировка и быстрый поиск Интервал времени Количество событий в интервале Авторефреш Настройка представления Выбор представления Текущий фильтр запроса Навигация по событиям
  36. 36. Симптоматика и события
  37. 37. Фильтрация запроса Предварительная фильтрация запроса Настройка представления Поиск с использованнием симтоматики Настройка полей предварительного и детального просмотра событий Настройка полей грида событий Настройка представлений
  38. 38. Правила корреляции
  39. 39. Инциденты (пока без воркфлоу)
  40. 40. Мониторинг и управление системой
  41. 41. Управление агентами RuSIEM
  42. 42. Простая симптоматика
  43. 43. Списки
  44. 44. Настройки системы
  45. 45. Аналитика • Будет скоро  • Задания будут крутиться в фоновом режиме, near real-time, обрабатывая имеющиеся данные • В первых релизах не будут предоставляться пользователю возможность управления/изменения аналитических тасков. Пользователю лишь будут доступны результаты в виде инцидентов или простых событий • Задания работают как по трафику так и по простым событиям • В первых версиях будут учитываться скоринговые, регрессионные показатели (например, «топ-10 ip адресов имеющих сегодня трафик в сеть DMZ отличный от прошлой недели», «активы, имеющие иные соединения на порт назначения чем на прошлой неделе». 

СУДЯ ПО ВАЛУ НОВОСТЕЙ В IT СКОРО РЕЗКО ИЗМЕНИТСЯ ВСЁ 2

Вторник, 15 Декабря 2015 г. 14:40 + в цитатник
Reeder (it_is_it) все записи автора
Машинный интеллект идёт к вам
Как там Махатма Ганди говорил? Сначала они тебя не замечают, потом смеются над тобой, затем борются с тобой. Потом ты побеждаешь. Я смотрю на внимание, которым пользуется сегодня мой всплывший доклад по deep learning полугодовой давности (http://ailev.livejournal.com/1234198.html), и понимаю, что deep learning и связанные с ним распределённые представления тихонько двигаются по этому жизненному циклу: раньше их никто не замечал, потом посмеивались над моими странными интересами, теперь усиленно отрицают происходящее. Дальше мне осталось победить, это будет в следующем году. ;-) 

Машинный интеллект идёт к вам: он уже нашёл вашу страну, нашёл ваш город и теперь ищет вашу улицу. Не читайте этот пост на ночь, плохо будете спать.

Тёплый мясной человеческий интеллект легко расстался с мыслью, что самолёт летает лучше человека, но тяжело расстаётся с мыслью, что рак лёгких и переломы компьютер-рентгенолог распознаёт лучше, чем бригада топ-рентгенологов (Enlitic benchmarked its performance against the publicly available, NIH-funded Lung Image Database Consortium data set, demonstrating its commitment to transparency. In detection of fractures, Enlitic achieved 0.97 AUC (the most common measure of predictive modeling accuracy), more than 3 times better than the 0.85 AUC achieved by leading radiologists and many times better than the 0.71 AUC achieved by traditional computer vision approaches. -- http://www.enlitic.com/press-release-10272015.html). Это совсем не IBM Watson, как можно было бы ожидать, это Enlitic (http://www.enlitic.com/news.html). 

Меняется и организация "клинических испытаний". Данных медицинских уже много, вот мозгов (мокрых или кремниевых, это неважно), которые с ними могут справиться, мало. Так что легко проверять работоспособность алгоритмов на уже имеющихся базах медицинских данных -- например, вот данные для компьютеров, желающих посоревноваться с рентгенологами: http://imaging.cancer.gov/programsandresources/informationsystems/lidc. Тут никакой опыт, стаж и статус не помогает, тут спорт -- и молодые спортсмены (competitors, "соревнователи" -- именно так переводится "конкуренты" на английский) имеют все шансы выиграть у старичков, даже если это старички-люди, а не старички-алгоритмы. Правила бенчмаркинга активно обсуждаются, в зачёт идут только конкретные результаты. Вот пример: http://dswalter.github.io/blog/machine-learnings-first-cheating-scandal/.

Подождите полгода, и вы узнаете о приложениях, в которых работают новые алгоритмы. Иногда эти приложения будут от лидеров соответствующего рынка, иногда эти приложения будут от совсем маленьких малоизвестных стартапов и будут знаменовать становление нового рынка. Инвестпузырь надувается, надувается быстро, но помним о том, что самые крупные инвестиции и проекты приходят обычно уже после того, как пузырь лопнул -- пена одномоментно уходит, но нормальная жизнь потом продолжается. Первый интернет-сайт был сделан в 1991 году, пузырь доткомов лопнул в 2000 году, но рост интернета так и не замедлился. Фейсбук был, например, основан только в 2004 году, через четыре года после того, как лопнул интернет-пузырь, хотя Гугль ещё в 1998 -- за пару лет до этого.

Завтра начнётся конференция по экономике машинного интеллекта (Machine Intelligence, обратите внимание на смену термина с "искусственного интеллекта") --http://deeplearning.net/2015/12/01/conference-on-the-economics-of-machine-intelligence-dec-15/. This meeting is not a computer science conference. The focus is on the business opportunities that ML is spawning: what has already happened, trends, and how the future may unfold.

Лидеры рынков и сами рынки при крутых технологических прорывах обычно меняются. С приходом машинного интеллекта лидеры рынков могут меняться быстрее, чем обыватели и даже специалисты на этих рынках будут успевать отслеживать и осознавать эту смену. Да что там лидеры рынков, сами рынки будут появляться и исчезать в мгновение ока. Компаний, использующих deep learning или другие технологии machine learning, уже множество, объявленных инвестиций давно больше $1млрд. 

Проинвестированные компании работают в самых разных отраслях, ибо интеллект приложим повсеместно. Спецов по deep learning, наверное, уже и сейчас больше работает в каких-то прикладных бизнесах больше, чем в специализированных компаниях. А специализированные компании? Напомню только одну из классификаций (http://techcrunch.com/2015/11/26/machine-intelligence-in-the-real-world/):
-- "паноптикумы" (собирают всевозможные наборы данных, чтобы потом продавать их владельцам алгоритмов -- Planet Labs, Premise and Diffbot)
-- "лазеры" (вертикальные нишевые компании, хорошо разбирающиеся с одним типом данных -- Tule Technologies, Enlitic, InVenture, Conservation Metrics, Red Bird, Mavrx and Watson Health)
-- "алхимики" (сервисы с алгоритмами -- Nervana Systems, Context Relevant, IBM Watson, Metamind, AlchemyAPI (acquired by IBM Watson), Skymind, Lucid.ai and Citrine).
-- "шлюзы" (сервисы с алгоритмами, но специализируются на каком-то одном типе данных, в отличие от всеядных "алхимиков" -- Clarifai, Gridspace, Orbital Insight, Descartes Labs, Deep Genomics and Atomwise).
-- "волшебные палочки" (пользовательские приложения с интеллектом, резко позволяющие снизить планку квалификации работников -- Textio, RelateIQ (acquired by Salesforce), InboxVudu, Sigopt and The Grid)
-- "штурманы" (связанные с реальным "железом" навигаторы-автопилоты, интеллектуальный транспорт и логистика -- Blue River Technologies, Airware, Clearpath Robotics, Kiva Systems (acquired by Amazon), 3DR, Skycatch, Cruise Automation and the self-driving car groups at Google, Uber, Apple and Tesla).
-- "агенты" (киборги-помощники -- Clara, x.ai, Facebook M, Digital Genius, Kasisto and Howdy).

В декабре 2015 опубликовано довольно много прорывных работ по алгоритмам машинного обучения, это означает, что через полгода компании будут предлагать прорывные сервисы и продукты.

Вот, например, на одном из тестов уже удалось превзойти человеческий уровень качества в распознавании речи (речь была без шума и искажений, без акцента, но ещё в начале этого года такое достижение казалось делом далёкого будущего): http://arxiv.org/abs/1512.02595v1. Работа посвящена даже не столько демонстрации рекордного качества распознавания, сколько приёмам по ускорению и упрощению вычислений для онлайн-сервиса распознавания речи. Более того, для демонстрации подхода было выбрано два абсолютно разных языка (английский и мандарин) и заявлено, что никаких спецов по языку для реализации распознавания новых языков не нужно. В статье намёк, что результаты уже работают на основных серверах этой немаленькой компании.

Проблема обучения очень глубоких сеток уже во многом решена. Вот, например, обучение сеток глубиной 150 и даже 1000 слоёв -- http://arxiv.org/abs/1512.03385, такие глубокие сетки уменьшают чуть ли не на треть ошибку распознавания объектов на картинках, при этом вычислительная сложность не растёт. Это Microsoft, так что потребители в той или иной форме получат эти результаты быстро.

Deep learning занимаются всё больше народу (эти профи ещё не имеют самоназвания типа "глубокие учителя" или "инженеры нейронных сетей", но скоро что-то такое появится), говорят они на птичьем языке (вот отчёт одного из победителей соревнований -- нужно было распознать платный контент, замаскированный как настоящий, много ли вы поймёте из отчёта? http://blog.kaggle.com/2015/12/03/dato-winners-interview-1st-place-mad-professors/), но этот птичий язык сейчас учат толпы. Только на последней конференции NIPS 2015 очно было около 4000 человек, вдвое больше, чем в прошлом году. Только из Гугля там было 140 человек -- http://googleresearch.blogspot.ru/2015/12/nips-2015-and-machine-learning-research.html

Один из обзоров трендов года: http://opendatascience.ru/%D1%82%D1%80%D0%B5%D0%BD%D0%B4%D1%8B-deep-reinforcement-learning-nips-2015/, там в том числе и такой тренд, что исследования и использование сливаются, ибо ведутся на одном и том же софте. И интересный софт продолжает и продолжает появляться, например MXNet явно хочет стать более гибкой библиотекой машинного обучения, чем последние наработки от гигантов рынка -- http://arxiv.org/abs/1512.01274, всё за счёт того, что embedding of both symbolic expression and tensor operation is handled in a unified fashion. 

И "железо" потихоньку подтягивается, это важно, ибо мощность "железа" сейчас один из лимитирующих факторов в стоимости работы (http://www.nextplatform.com/2015/12/07/gpu-platforms-emerge-for-longer-deep-learning-reach/): 

На рынок готовится прийти и другое железо, например EIE chip -- http://www.nextplatform.com/2015/12/08/emergent-chip-vastly-accelerates-deep-neural-networks/, as the benchmarks show, the energy efficiency is better by between 3,000X on a GPU and 24,000X on CPU.

Растёт интерес и к другим типам алгоритмов машинного обучения, нежели deep learning. Например, вероятностное программирование (тут довольно много ссылок по теме:http://ailev.livejournal.com/1211950.html) позволяет учить компьютер маленьким количеством данных, "с первого предъявления" -- http://www.technologyreview.com/news/544376/this-ai-algorithm-learns-simple-tasks-as-fast-as-we-do/. Both humans and the software draw new characters after seeing one handwritten example, and then asking a group of people to judge whether a character was written by a person or a machine. They found that fewer than 25 percent of judges were able to tell the difference. 

Где следить за новостями? Всё равно у вас на это не будет времени (ибо новостей слишком много), но вот несколько мест:
-- http://vk.com/deeplearning (русскоязычная группа deep learning вконтакте, сейчас почти 3тыс. человек)
-- http://www.wikitract.com/ (краткое содержание интересных статей, это что-то типа вики. В разы меньше работ, чем в группе вконтакте -- пытаются отбирать "важнейшие").
-- https://www.semanticscholar.org/ -- специализированный поисковик, там можно фильтровать по датам

 


Судя по валу новостей в IT скоро резко изменится ВСЁ

Вторник, 15 Декабря 2015 г. 14:20 + в цитатник
Reeder (it_is_it) все записи автора

http://ailev.livejournal.com/1229731.html

Глубокое обучение: алгоритмы ничто, приложение всё

В deep learning уже довольно много народу, это уже как интернет года эдак 1995, когда была основана AltaVista (Google был основан только в 1998 году, за два года до лопанья пузыря). Тренд уже более чем заметен, появились картинки, на которых "секретную историю кремниевой долины" (слайд 2 в http://steveblank.com/secret-history/) дополняют послеинтернетой волной смартфонов и уж далее deep machine learning (хотя так внутри самой тусовки и не говорят: там либо machine learning, либо deep learning, но прибежало много новых людей, и тамошний междусобойчик уже никогда не будет "консистентным"). Вот какая теперь история Долины (http://www.computervisionblog.com/2015/11/the-deep-learning-gold-rush-of-2015.html?m=1):


Периодизация там такая: "2010-2015 Deep learning comes to the party, 2015-2020 Deep learning Revitalizes Robotics". Я бы заметил, что нейронные сетки оживят не только робототехнику, но и многое другое -- но уж робототехнику-то точно: видеть мир, слышать и понимать речь, управляться с телом -- это всё вполне выучивается, а 1ТFLOPS с размерами кредитной карточки доступен уже сегодня (http://devblogs.nvidia.com/parallelforall/nvidia-jetson-tx1-supercomputer-on-module-drives-next-wave-of-autonomous-machines/ -- на такой штуке даже мне захотелось попрограммировать, слюна потекла. Это вам не смертьдуино на 16МHz!). 

А тут и новая волна подступает, недовольных GPU -- они демонстрируют чудеса производительности по обработке видео на FPGA. Вот типичная работа по "вниманию/attention и характерности/особенностям/saliency" (специально даю ссылку на видео, а не статью -- там работа с видепотоком, а не анализ статики, всё не слишком заумно, более-менее попсовый отчёт -- распознают пробегание людей в поле зрения камеры, увеличивают возможности силовиков и даже простых граждан по поимке всех плохих в пользу всех хороших):https://youtu.be/S9qUl2zQFsc. Таких работ сейчас огромное количество, deep learning стремительно теряет статус rocket science и становится нормальным ремеслом для тысяч и тысяч инженеров глубокого обучения по всему миру (хотел написать "программистов", но потом сдержался. Это не программисты, им матан нужно знать лучше, чем языки программирования. Но они и не математики, физикам ведь тоже матан нужно знать, но физики тоже не математики. И самоназвания у них ещё устойчивого нет, типа "вебмастеров" раннего интернета). 

Получив зоркие глазки от deep learning, интернет-магазины перестраивают свои интерфейсы. Вот обувные магазины, например, пытаются решить задачи обувного поиска: http://blogs.wsj.com/digits/2015/11/17/can-artificial-intelligence-sell-shoes/, или прямо можно искать по встреченной на улице обувке -- https://www.cortexica.com/, или к обувке подбирать одежду или к одежде обувку прямо по картинкам --http://arxiv.org/abs/1509.07473, а то и брать любую фотографию в газете, распознавать на ней вещи бренда и превращать их в ссылку на страничку каталога в магазине -- http://www.deepomatic.com/

Вообще -- обувь хороший пример, ибо она вся крайне разная, и нет общепринятой системы классов, так что на ней тренируются даже сами люди из deep learning -- см. "обувной хакатон": https://github.com/LenaTash/ShoeFetish.ai, а ещё сетки могут выдавать очень точную 3D модель ноги, что существенно облегчает все задачи кастомизации -- можно по трём фотографиям ступни на смартфоне и стельку на 3D-принтере напечатать ортопедической точности без личного присутствия -- http://www.sols.com/, и примерку готовой обуви делать дистантно, по фотографии: http://techjaw.com/2015/02/13/the-shoe-fitting-app-set-to-revolutionise-the-footwear-industry/

Применения машинного обучения самые разнообразные. Вот, например, небольшой обзорчик трёх приложений: определение объема заполнения мусорного контейнера по фотографии его внутренностей (а затем можно на 40% сократить маршрут мусоровоза за счёт пропуска полупустых контейнеров), определение нарушителей правил стоянки в курортной зоне (патрули идут целенаправленно к нарушителям, а не проводят время приклееными к мониторам), оценка вероятности прохождения судебного иска, издержек на него и длительности процесса -- всё это основано на deep learning, http://www.datanami.com/2015/11/18/three-unique-ways-machine-learning-is-being-used-in-the-real-world/

Это всё небольшие новости. Новости побольше -- это что рак на рентгеновских снимках deep learning находит лучше, чем консилиум рентгенологов: http://singularityhub.com/2015/11/11/exponential-medicine-deep-learning-ai-better-than-your-doctor-at-finding-cancer/

Тут нужно понимать, что сам алгоритм deep learning -- это крайне небольшой кусочек. Ибо любое приложение варится из него, как суп из топора. Нужно для этого алгоритма найти подходящую решаемую проблему, развернуть для него инфраструктуру работы с данными (идеально -- сделать "пылесос", который высасывает целевые данные отовсюду -- типа как Гугль со своим краулером или фейсбук, которому свои данные несут полтора миллиарда человек в день), интегрировать в какое-то полезное людям приложение. Если у вас много данных и есть алгоритмы deep learning, то вы можете выйти за пределы ограничений человеческого мышления и решать буквально нечеловеческие задачи. Так что сейчас у предпринимателей в deep learning ровно такая же задачка, как у получивших ответ "42" -- нужно теперь найти, это ответ на какой вопрос! Этот вопрос найти не так легко, как кажется. Deep learning отвечает на множество самых разных вопросов, но не за все ответы на вопросы люди готовы платить деньги.

Когда данные есть в изобилии и результаты работы алгоритма обучения пользуются спросом на рынке, настроить и обучить нейронную сеть -- это уже не проблема, это обычная рабочая задача. Венчурные капиталисты уже начали жаловаться, что к ним приходят толпами авторы "общих алгоритмов обучения чему угодно" -- примерно так же, как на заре веба любой вебмастер становился через некоторое время владельцем собственного state-of-the-art веб-движка (даже я не миновал сей участи когда-то, тоже разработал Коммунивер, но счастья это мне не принесло: движков таких на рынке было много, а вот приложить его к чему-то большому и красивому мне не удалось -- я не заметил, что людям нужны не вебсайты, а дневники/блоги с возможностью "дружить". Хотя я был от этого в одном шаге, с этим Community ware -- в 1998 году, за много лет до social web!). Так что акцент сегодня стремительно перемещается с самого deep learning на его приложения. За алгоритмы уже не платят (хотя DeepMind с их алгоритмами и был куплен Гуглем за $400млн.), платят только за приложения. Алгоритмы уже ничто, приложения -- всё.

А поскольку никакого профита от "движков deep learning" (как когда-то и от веб-движков) не намечается, то их исходники раскрывают, массово. 

На прошлой неделе много шуму было по поводу выкладывания в открытый доступ профессиональных библиотек deep learning от Гугля (TensorFlow, http://tensorflow.org/) и Майкрософта (http://www.dmtk.io/). В связи с этим было много разговоров на тему "какая должна быть идеальная библиотека глубокого обучения". Я бы хотел указать в этой связи на вот эту страницу: https://mxnet.readthedocs.org/en/latest/program_model.html и реализующую тамошние рассуждения фреймворк mxnet https://github.com/dmlc/mxnet -- Lightweight, Portable, Flexible Distributed/Mobile Deep Learning with Dynamic, Mutation-aware Dataflow Dep Scheduler; for Python, R, Julia, Go, and more.

Mxnet для Julia тут: https://github.com/dmlc/MXNet.jl (можете поглядеть, например, как на mxnet/Julia пишется генератор текста с LSTM RNN, знаменитый пример посимвольной работы с текстом от Karphathy -- http://mxnetjl.readthedocs.org/en/latest/tutorial/char-lstm.html).


Кстати, основные разработчики Julia получили на пару лет грант на $600тыс., чтобы побыстрее появилась версия 1.0 с дебаггером, профайлером, IDE и улучшениями в уже и так немаленьких библиотеках -- https://www.moore.org/newsroom/in-the-news/2015/11/10/bringing-julia-from-beta-to-1.0-to-support-data-intensive-scientific-computing. Никакого государства, никаких DARPA и прочих "институтов развития". Частный фонд.

информация по ремонту железа

Четверг, 26 Ноября 2015 г. 14:37 + в цитатник


Поиск сообщений в it_is_it
Страницы: 17 16 15 [14] 13 12 ..
.. 1 Календарь