-Подписка по e-mail

 

 -Поиск по дневнику

Поиск сообщений в zerg_from_hive

 -Сообщества

Участник сообществ (Всего в списке: 2) Домашняя_Библиотека Чортова_Дюжина
Читатель сообществ (Всего в списке: 3) Золотые_блоги_Лиру Домашняя_Библиотека Чортова_Дюжина

 -Статистика

Статистика LiveInternet.ru: показано количество хитов и посетителей
Создан: 05.09.2006
Записей:
Комментариев:
Написано: 63701


Plan 9 и машины под Window$

+ в цитатник

Cообщение скрыто для удобства комментирования.
Прочитать сообщение


Аноним   обратиться по имени Суббота, 23 Мая 2009 г. 19:40 (ссылка)
Привет! Идея интересная, надо попробовать. Может подскажешь, вменяемую документацию на plan9? А то я уже запарился наугад тыкать. Например, как сделать cpu сервер? Во всех доках советуют редактировать cpurc, а дальше что? Все равно грузится termrc.
Ответить С цитатой В цитатник    |    Не показывать комментарий
zerg_from_hive   обратиться по имени Понедельник, 25 Мая 2009 г. 11:25 (ссылка)
Аноним, у-у-у... вот с документацией, особливо на русском, сложнее. Цитирую:
"Man-страницы предоставляют документацию об инструментарии и обзор; они доступны в онлайне и на страницах Plan 9 Wiki. К несчастью, множество изменений было в «4-й редакции», что делает часть информации устаревшей; так что убедитесь в совпадении версий."
http://ru.wikibooks.org/wiki/Plan9
Поэтому приходится рыться не только в документации и манах, но и в списках рассылки плановодов.
А про cpu -- так тут нужно правильное ядро и правильный конфиг. Не только cpurc (причем оригинальный cpurc лучше вообще НЕ трогать), но и plan9.ini, в котором нужно указать разные варианты загрузки. Лично я собирал ядро с поддержкой И cpu, И файл-сервера, И auth-сервера:
cd /sys/src/9/pc
mk pccpuf
9fat:
cp 9pccpuf /n/9fat/
а потом уже редактировал plan9.ini, чтобы можно было выбирать в меню при загрузке, что именно грузить: терминал или cpu-сервер.
Ответить С цитатой В цитатник
Аноним   обратиться по имени Понедельник, 25 Мая 2009 г. 17:57 (ссылка)

Ответ на комментарий zerg_from_hive

Кстати. mk pccpuf, не работает. Сработал только mk 'CONF=pcpuf'.
ОС безусловно очень интересная, но при отсутствии нормальной документации, и сообщества... Тяжело.
Для начала, есть идея сделать backup server для фирмы. Есть машина в ней 6 винтов, 2 по 40г, 4 по 1Тб. 2 по 40 в raid1 на него систему, 4 винта то 1Тб место для backup-а. В какой конфигурации это все собрать, пока представляю слабо. :) Ща не могу понять как систему поставить на софтовый миррор. Сейчас читаю все что нахожу по venti, но понимание что это, и как с этим работать пока нет...
Ответить С цитатой В цитатник    |    Не показывать комментарий
zerg_from_hive   обратиться по имени Понедельник, 25 Мая 2009 г. 19:00 (ссылка)
Аноним, тьфублин, просклерозил. Разумеется, mk 'CONF=pccpuf'. А вот насчет бэкап-сервера как раз и я подумывал, ибо полезно. 8-)
Вот как быть с зеркалом для фоссила -- не знаю, да и не уверен в целесообразности. А вот зеркало для venti -- ИМХО самое то. Или какой-нить 5-й RAID. Проверять, правда, пока не на чем -- винтов для RAID-а под рукой нет, но КАК сооружать venti на рейде, кажется, где-то попадалось.
Сообщество, кстати, есть. В том числе и токийская группа пользователей Плана-9 и Инферно -- TIP9UG, у них на сайте (http://www.tip9ug.jp) тоже полезные вещи и полезную инфу найти можно.
Ответить С цитатой В цитатник
Аноним   обратиться по имени Вторник, 26 Мая 2009 г. 12:35 (ссылка)

Ответ на комментарий zerg_from_hive

Почему не имеет смысла? При сдыхании винта на котором система, все вырубается... Если будет миррор, то достаточно сменить винт, и все ок.
http://plan9.escet.urjc.es/magic/man2html/3/fs - Единственное что нашел по рейду. На счет raid5 это реально? Как что либо записать на venti? Там висит какой-то сервис на порту, что с ним потом делать неясно. Доки как создать venti я нашел, а вот как использовать нет. :)
Ответить С цитатой В цитатник    |    Не показывать комментарий
zerg_from_hive   обратиться по имени Вторник, 26 Мая 2009 г. 12:59 (ссылка)
Аноним, дело в том, что фоссил -- по сути нечто вроде буфера для венти. Если venti-хранилища НЕТ -- тогда фоссил работает как автономное хранилище, а если venti ЕСТЬ -- начинается самое интересное, включая снапшоты файловой системы. И если вдруг фоссил посыплется или сдохнет диск с фоссилом -- можно загрузиться хотя бы с LiveCD, отформатировать новый fossil-раздел и накатить последний из живых снапшотов (я тут как-то постил процедуру восстановления, проверенную собственноручно. 8-) А вот если уже с venti-хранилищем что-то случится... 8-( Правда, сами плановоды у себя в Bell Labs, если не путаю, делают бэкапы на BluRay-диски -- на всякий случай. 8-)
Как-то попадалась занятная инфа про дисковый массив AoE (ATA over Ethernet), так говорят, что внутри у этого чуда техники таки План-9 и стоит. Стало быть, не только академическая система получилась, но и в промышленном использовании она уже вполне применима:
http://www.pentarh.com/wp/2008/08/01/sr1521-aoe-target/
Ответить С цитатой В цитатник
Аноним   обратиться по имени Вторник, 26 Мая 2009 г. 13:32 (ссылка)

Ответ на комментарий zerg_from_hive

Правильно ли я понимаю, на venti можно хранить только снапшоты с файловой системы fossil?
Ответить С цитатой В цитатник    |    Не показывать комментарий
zerg_from_hive   обратиться по имени Вторник, 26 Мая 2009 г. 14:16 (ссылка)
Аноним, да как сказать... скорее venti и является НАСТОЯЩИМ хранилищем данных, в т.ч. и снапшотов. А fossil -- промежуточный буфер ускоренного доступа. Где-то так. 8-)
Кстати, зеркалировать диски с venti можно точно таким же образом, как и описано. /dev/sd*/data в любом случае присутствует. Это примерно как во FreeBSD с /dev/ad0s1c (раздел c представляет собой ВЕСЬ слайс).
А данные с fossil'а автоматически переносятся на venti. Просто venti-раздел может располагаться и не на особо быстродействующем устройстве, но его размер должен быть БОЛЬШЕ, чем у раздела с fossil. По кр. мере в идеале. 8-)
В манах по venti пишется, что эта файловая система делится на три дисковые структуры: data log (ТОЛЬКО для добавления), хранящий данные всех записанных блоков; индекс для ускорения поиска данных по т.н. меткам (scores); т.н. bloom filter с кратким списком меток, присутствующих в индексе. И data log, как основное хранилище, как раз и должен находиться на каком-нибудь RAID-массиве (ИМХО желательно аппаратном) для повышения устойчивости. А делится этот data log на секции, называемые аренами, причем он может состоять из НЕСКОЛЬКИХ дисков, на каждом из которых находится от одной до нескольких арен. Разбивка на арены служит исключительно для упрощения бэкапа, потому и размер этих арен делается не очень большим. Размер индексной области рекомендуется около 5% от размера активного data log. В общем, man venti -- там про это подробно написано. 8-)
Там еще рекомендуется избегать переполнения индексного раздела, а если таковое произошло -- остановить сервер и добавить дисковое пространство для индексов.
Кстати, venti имеет оч-ч-чень приятственную особенность: одинаковые блоки НЕ дублируются. 8-) Поэтому снапшоты будут занимать не так много места, как может показаться. А вообще чем-то venti ИМХО напоминает сановскую ZFS, хотя они и совершенно различны.
Ответить С цитатой В цитатник
Аноним   обратиться по имени Вторник, 26 Мая 2009 г. 15:26 (ссылка)

Ответ на комментарий zerg_from_hive

Стало яснее. То есть 2 по 40 не нужны, а из 3 по 1Тб можно 1 винт на fossil и 2 винта на mirror venti. Итого 1 Тб полезного объема. Или ставить на 2 по 40 linux в миррор + 3 по 1Тб в 5 raid. Итого 2Тб полезного объема. Все верно, или я что то напутал?
Ответить С цитатой В цитатник    |    Не показывать комментарий
zerg_from_hive   обратиться по имени Вторник, 26 Мая 2009 г. 16:28 (ссылка)
Аноним, в общем-то МОЖНО и fossil на 2х40 соорудить, вреда не будет. А вот RAID-5 лучше всего таки АППАРАТНЫЙ. Хотя бы для арен, а индексы можно держать и на отд. винтах, в случае чего эти индексы и пересоздать можно (хотя процесс и не самый быстрый. 8-). И получится 3ТБ самого что ни на есть полезного и отказоустойчивого объема (условно 3 терабайтника под данные + 1 под контрольные суммы).
А контроллер для аппаратного рейда уже имеется?
Ответить С цитатой В цитатник
Аноним   обратиться по имени Вторник, 26 Мая 2009 г. 16:44 (ссылка)

Ответ на комментарий zerg_from_hive

В том то и дело что в плане9 драйверов очень мало, а драйверов sata raid так и вообще, по ходу, нет.
Ответить С цитатой В цитатник    |    Не показывать комментарий
Аноним   обратиться по имени Вторник, 26 Мая 2009 г. 18:18 (ссылка)

Ответ на комментарий zerg_from_hive

Так, допустим мы имеем 3 винта под арены и 1 винт под индексы. В случае отказа винта под индексы понятно, их можно пересоздать. А вот что будет если откажет любой из трех винтов под арены?
Ответить С цитатой В цитатник    |    Не показывать комментарий
zerg_from_hive   обратиться по имени Вторник, 26 Мая 2009 г. 18:29 (ссылка)
Аноним, а ничего не будет, если это аппаратный RAID-5. 8-) Можно будет просто подоткнуть здоровый диск и перестроить массив. Поэтому плановоды и рекомендуют рейд для арен.
Ответить С цитатой В цитатник
zerg_from_hive   обратиться по имени Вторник, 26 Мая 2009 г. 18:52 (ссылка)
Аноним, кстати о дисках, корпусах и проч.:
http://www.avelon.ru/detail_15070.htm
Порадовал список совместимых осей:
Windows • A/UX • AIX • BSD • Dynix • FreeBSD • GNU • Linux • HP-UX • IRIX • Mac OS X • Minix • NetBSD • NeXTSTEP • OpenBSD • PC-BSD • Plan 9 • Plan B • QNX • SCO OpenServer • Solaris • System V • Tru64 • BSD/OS • Xenix • ClosedBSD.
Plan 9 и Plan B таки тоже присутствуют.
Ответить С цитатой В цитатник
Аноним   обратиться по имени Вторник, 26 Мая 2009 г. 19:03 (ссылка)

Ответ на комментарий zerg_from_hive

Plan 9 supports a few SATA controllers in their native AHCI mode, as opposed to the IDE-compatibility mode that some of them offer.

Вот что написано в факе, так что надежды на raid 5, походу, нет.
Так что, что там рекомендуют плановоды не совсем понятно.
Ответить С цитатой В цитатник    |    Не показывать комментарий
zerg_from_hive   обратиться по имени Вторник, 26 Мая 2009 г. 19:45 (ссылка)
Аноним, man sdahci:
"AHCI controllers are detected automatically. Currently Intel and AMD controllers are detected. Intel controllers need to have AHCI enabled in the BIOS. For `ich' parts this typically means enabling enhanced mode and AHCI. For ESB (Enterprise South Bridge) -based parts, only enhanced mode needs to be enabled. Intel ich9-based AHCI does not support hot swapping and drives must be connected to the lowest-umbered free port."
Т.е. да, не все контроллеры поддерживаются, но Intel и AMD вроде как работоспособны. Вышеприведенный пример, кстати, тоже был на интеловской матери.
Ответить С цитатой В цитатник
Аноним   обратиться по имени Вторник, 26 Мая 2009 г. 20:24 (ссылка)

Ответ на комментарий zerg_from_hive

В том то и дело, что контроллеры то работают. Но, только не в режиме рейда. Просто лично пробовал, делаешь миррор plan9 диска не видит, переводишь в режим контроллера план диски находит. :(
Ответить С цитатой В цитатник    |    Не показывать комментарий
Аноним   обратиться по имени Четверг, 28 Мая 2009 г. 11:18 (ссылка)

Ответ на комментарий zerg_from_hive

Есть ли возможность к одной машине подключить несколько cpu других, так что бы задача делилась на все процессоры?
Ответить С цитатой В цитатник    |    Не показывать комментарий
zerg_from_hive   обратиться по имени Четверг, 28 Мая 2009 г. 15:31 (ссылка)
Аноним, вот про несколько cpu не в курсе, не пробовал. А какие именно задачи интересуют? Например?
Просто существуют и т.н. grid-вычисления:
http://www.citforum.ru/operating_systems/plan9/9grid/
(навскидку то, что вспомнилось)
Ответить С цитатой В цитатник
Аноним   обратиться по имени Понедельник, 01 Июня 2009 г. 01:22 (ссылка)

Ответ на комментарий zerg_from_hive

Привет!
Может подскажешь, как расшарить папку под план9? Так что бы ее можно было подцепить из под линукса. mount -t 9p -o name=glenda 192.168.0.100 /mnt, выдает mount: В соединении отказано. Куда копать?
Ответить С цитатой В цитатник    |    Не показывать комментарий
Аноним   обратиться по имени Четверг, 04 Июня 2009 г. 21:55 (ссылка)

Ответ на комментарий zerg_from_hive

Привет еще раз. Не могу ни где найти твой мейл. Что бы не засорять каменты, напиши мне по адресу root81{sobachka}gmail.com Есть дело.
Ответить С цитатой В цитатник    |    Не показывать комментарий
Комментировать К дневнику Страницы: [1] [Новые]
 

Добавить комментарий:
Текст комментария: смайлики

Проверка орфографии: (найти ошибки)

Прикрепить картинку:

 Переводить URL в ссылку
 Подписаться на комментарии
 Подписать картинку