|
|
rss_habr
Бросить всё и уйти в IT: три истории наших сотрудников, кардинально сменивших профессиюПятница, 14 Октября 2022 г. 18:32 (ссылка)
https://habr.com/ru/post/693444/?utm_source=habrahabr&utm_medium=rss&utm_campaign=693444
rss_habr
Мониторинг в Apache NiFi. Часть перваяПонедельник, 10 Октября 2022 г. 09:55 (ссылка)
Apache NiFi динамично развивается и на сегодняшний день обладает достаточно большим набором возможностей, позволяющим отслеживать состояние потоков данных, ошибки и предупреждения, возникающие в процессорах и на кластере, а также состояние кластера. Первая статья посвящена мониторингу потоков данных с помощью инструмента GUI NiFi. В последующих материалах мы рассмотрим задачи отчетности, опишем примеры сбора метрик и визуализации при помощи таких популярных систем, как Prometheus и Grafana. Читать далееhttps://habr.com/ru/post/692154/?utm_source=habrahabr&utm_medium=rss&utm_campaign=692154
rss_habr
Особенности построения хранилища данных на базе ClickHouse в Yandex CloudПятница, 16 Сентября 2022 г. 10:48 (ссылка)
В данной статье делимся опытом внедрения решения на базе СУБД ClickHouse и сервисов Yandex Cloud. Мы не коснёмся тонких настроек ClickHouse или его масштабирования, но затронем достаточно интересные на наш взгляд темы: • как загружать данные из On-premise в облачный ClickHouse с использованием сервисов Yandex Cloud – Functions, Object Storage, Message Queue; • как обрабатывать/преобразовывать данные в облачном ClickHouse – очищать и строить витрины; какие «подводные камни» нам встретились на этом пути. Читать далееhttps://habr.com/ru/post/688126/?utm_source=habrahabr&utm_medium=rss&utm_campaign=688126
rss_habr
Как быстро разрабатывать сервисы обработки данных в реальном времени с помощью PySpark Structured Streaming и KafkaПонедельник, 04 Июля 2022 г. 16:03 (ссылка)
Данная статья обобщает базовые шаги по установке и началу работы с PySpark Structured Streaming при участии брокера сообщений Kafka. Предполагается, что читатель уже знаком с языком программирования Python и сервисом Kafka. При помощи PySpark Structured Streaming можно быстро разрабатывать масштабируемые сервисы обработки данных в реальном времени. Такой подход позволяет в короткие сроки сделать выгодное предложение клиенту, вовремя заметить аномалию в системе или же отображать актуальные данные. Читать далееhttps://habr.com/ru/post/674944/?utm_source=habrahabr&utm_medium=rss&utm_campaign=674944
rss_habr
Создание документации по проекту с помощью Сonfluence APIСреда, 06 Апреля 2022 г. 10:31 (ссылка)
В этой статье мы хотели бы поделиться кейсом о том, как собрать документацию по проектам заказчика с помощью Сonfluence. Скорее всего вы знаете, что такое Confluence и для чего он нужен. Если нет, коротко скажем, что это пространство/сайт, где вы копите все знания о вашей деятельности в организации. То есть, например, выполняя какой-либо проект, параллельно ведете свой раздел в Confluence, чтобы новый сотрудник смог быстрее в нем разобраться. Также это мощный инструмент для различной аналитики, ведения статистики, но, если вам потребуются дополнительные инструменты и «фишки», нужно будет их оплатить, так как они не будут доступны в бесплатной версии. Специалист Neoflex из подразделения Big Data Solutions рассказывает о проблеме, с которой он столкнулся: При введении своего раздела в Confluence стараешься сразу же описывать документацию для клиента (руководство администратора), а вот забрать/экспортировать страницу в Word получается только по одной странице, и приходилось объединять все это руками в один документ. Поэтому я приступил к реализации своего микросервиса по сбору документов и созданию документации. Зная такие инструменты как Selenium и язык программирования Python, мною была написана рекурсивная функция от нужного отдела по всем его дочерним объектам. В ходе выполнения наткнулся на большое количество проблем: например, отсутствие id в url, принадлежность одной страницы другому разделу, медленная работа, несоответствие стилей и т.д. Вся работа строилась на простом алгоритме: проходить все страницы, сохранять необходимый текст в тегах в html файл для дальнейшего преобразования в DOCX. Почему пришлось отказаться от данного подхода: Читать далееhttps://habr.com/ru/post/659319/?utm_source=habrahabr&utm_medium=rss&utm_campaign=659319
|
LiveInternet.Ru |
Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат О проекте: помощь|контакты|разместить рекламу|версия для pda |