Чтобы одновременно выполнять одну лабу вам надо обоим находиться в одном POD'e.
мы пробовали добавить двух пользователей в один под, как только создаешь второго юзера с таким же под, у второго пользователя этот под меняется на другой
Чтобы одновременно выполнять одну лабу вам надо обоим находиться в одном POD'e.
мы пробовали добавить двух пользователей в один под, как только создаешь второго юзера с таким же под, у второго пользователя этот под меняется на другой
да и ещё момент, кто подскажет, как работать вдвоём в одной лабе? если топологию мы создаём вместе переодически перегружая, то если один человек запускает ноду у второго она остаётся в состоянии выключена.
Вдвоём работать можно только из под одной учётки. То есть, из под одной учётки делать изменения в топологии через web, а в консоли цепляться к железкам одной и той же лабы. Из под разных учёток в одной и той же лабе работаться не получится хоть лаба и видна в обеих учётках, но настройки сохраняются относительно учётной записи.
По поводу Failed create network (11). если я правильно понял, и если UNL у Вас на Убунте, то попробуйте стартовать сервер с ядра специально запиленного под UNL. Такой ошибки вылетать не будет и будет работать кстати говоря протокол Etherchannel. Ядро называется примерно так img-3.16.7-ckt8-unetlab
По поводу вывести железки в реальную сеть, то вот:
# The primary network interface auto eth0 iface eth0 inet manual
auto pnet0 iface pnet0 inet static bridge_ports eth0 bridge_stp off address адрес_реальной_сети netmask 255.255.255.0 gateway шлюз_соответственно dns-nameserver ну и ДНСы
Будут вопросы пиши, может чем ещё помогу. Лучше в >> ВК <<
Добрый день. Использую UNetLab version: 1.0.0-12 Запускаю коммутатор Cisco IOS Software, Solaris Software (I86BI_LINUXL2-ADVENTERPRISEK9-M). Если делаю все порты no shutdown, то состояние этих портов Ethernet is up, line protocol is up (connected). Но они все disconnect (т.е. я их не присоединял через network). У всех так? Или только у меня? Спасибо
Всем привет. Я тут новенький. Была у меня проблема интеграции открытия VNC из браузера на Mac OS. Если кому интересно как решить, пишите. Вообще можно любой URL открывать в любой программе.
Здравствуйте, на unetlab 1.0.0-14 возникла проблема с serial интерфейсами, пользователь admin может настроить ip адреса и пустить пинг между интерфейсами, но у остальных пользователей интерфейсы имеют состояния up/down поэтому пинг не проходит. Конфигурация одинаковая, тестировалось под разными пользователями в разных лабах. Подскажите, пожалуйста, в какую сторону смотреть.
Новая EVE не встала на PC из iso образа доступного для скачивания. Не видит раздел или не создаёт его что-ли, копались копались и так нифига не решили проблему.
Добрый день. Использую UnetLab 1.0.0-12 поверх VMWare ESX. QEMU version: 2.4.0 UnetLab говорит, что НЕТ поддержки Intel VT-x. IOL-образы (L2,3) работаю замечательно из Unetlab (/opt/unetlab/addons/IOL). "самодельный" qemu-образ (hda.qcow2) Windows7 успешно запускается через командную строку (/opt/qemu-2.0.2/bin/qemu-system-x86_64 -m 1024 -boot b -vnc :0 -hda hda.qcow2) к запущенной windows7 можно подключаться через VNC (всё работает как надо). образ лежит в НУЖНОЙ папке UnetLab (/opt/unetlab/addons/qemu/win-7) при этом Windows7-виртуалка НЕ запускается из UnetLab (я командую "start", Unetlab пишет "started" во всплывшем уведомлении, но виртуалка не запускается). Вопрос к "опытным": в чём причина таких странностей?
Добрый день. Начинаю осваивать UNL. Столкнулся с проблемой.. Добавил два маршрутизатора, добавил сеть. Как только назначаю сеть интерфейсу одного из маршрутизаторов и нажимаю "Сохранить", сеть пропадает. Подскажите в чем может быть проблема? Спасибо.
Вопрос к "опытным": в чём причина таких странностей?
Посмотрите в .vmx файле параметр vhv.enable = "true"
Спасибо за совет. Обязательно посмотрю. Используемый ESX5.1 - не мой, производственный и весьма нагруженный. мне там лишь UnetLab из образа развернули, а он как-то "наполовину" работает... Правильно ли я понимаю, что наличие в .vmx-файле параметра "vhv.enable = true" - лишь программное позволение использовать аппаратную виртуализацию? Есть подозрение, что аппаратная виртуализация (Intel VT-x) "не включена" на самой хост-машине (ESX) и по этому что-то сбоит. Но тогда почему внутри UnetLab виртуальная машине успешно стартует с "командной строки" (из образа hda.qcow2), но не стартует при команде из интерфейса "схемы/модели" UnetLab?
Ребята, прошу помощи.
Переполз с GNS на EVE. И сразу траблы, на самом ровном месте. Собрал схему. Все устройства завелись. Но нет связанности ( не пингуются м/у собой). Ладно, списал на кривые руки. Новую дабу сделал с 2 VPC. Но они тоже не пингуются между собой. Наверно простая глупая ошибка, но моего интеллекта не хватает это решить. Подскажите..
Добрый день. Начинаю осваивать UNL. Столкнулся с проблемой.. Добавил два маршрутизатора, добавил сеть. Как только назначаю сеть интерфейсу одного из маршрутизаторов и нажимаю "Сохранить", сеть пропадает. Подскажите в чем может быть проблема? Спасибо.
Абсолютно аналогичная ситуация. Уже и загрузку с ядром собраным под UNL, включил. Но результат аналогичный вашему. Неужели не существует решения этой проблемы?!
eto all-in-one pack dlya win x86 i x64. Ustanavlivaet vse chto nujno na client side, wireshark, vnc, reg files etc
Pod linux client toje budet scripts - v rabote i komu nujno est pdf how-to dlya MAC OS
В пдф ссылка на скрипт UNL_WiresharkV2, если кто-то разворачивает на сервере и ходит не по IP, а по доменному имени, скрипт криво парсит доменные имена, например, при наличие дефиса. я чуть поправил скрипт автора:
on open location this_URL set get_date to do shell script "date +%Y%m%d-%H%M%S" set cap_URL to this_URL set AppleScript's text item delimiters to {"/"} set new_cap_HOST to text item 3 of cap_URL set new_cap_INT to text item 4 of cap_URL set capturefile to new_cap_INT & "-" & get_date tell application "Terminal" activate do script "mkfifo /tmp/" & capturefile do script "wireshark -k -i /tmp/" & capturefile do script "ssh root@" & new_cap_HOST & " tcpdump -U -i " & new_cap_INT & " -s 0 -w - > /tmp/" & capturefile end tell end open location
Здравствуйте, столкнулся с проблемой - настроил viosl2, сначала не получалось запустить, но после добавления строк в vmx unetlab-а свитч запустился нормально. Пытаюсь подключиться, открывается putty.exe и черный экран, никак не реагирует. Как думаете, в чем может быть проблема?
Добрый день. Завернул 802.1Q трафик от рутера к рутеру через VPLS, на базе MikroTik CHR. Если бриджевать ethernet порт и vpls, то трафик снифиться шарком нормально и его видно, например MPLS метка транспортная с S=0, потом клинетская с S=1 и дальше идет ethernet и все что поверх. Если же бриджевать vlan с VPLS, то трафик ходит также прекрасно, но шарк его не видит =( mpls FT указывает на dst и порт, который я снифаю. Но исходящий из порта трафик также не видно. Весь остальной служебный трафик видно. Это баг или я что то не понимаю? И в середине между P роутерами эти ICMP тоже не видно.
Добрый день. Завернул 802.1Q трафик от рутера к рутеру через VPLS, на базе MikroTik CHR. Если бриджевать ethernet порт и vpls, то трафик снифиться шарком нормально и его видно, например MPLS метка транспортная с S=0, потом клинетская с S=1 и дальше идет ethernet и все что поверх. Если же бриджевать vlan с VPLS, то трафик ходит также прекрасно, но шарк его не видит =( mpls FT указывает на dst и порт, который я снифаю. Но исходящий из порта трафик также не видно. Весь остальной служебный трафик видно. Это баг или я что то не понимаю? И в середине между P роутерами эти ICMP тоже не видно.
В ходе расследования стало ясно, что это баг. Соединенные vlan'ами транковые порты создают между роутерами логическую связь вне топологии. Хостам из подсети не нужны никакие VPLS, потому что их данные выходят из транка с заголовком 802.1Q и идут напрямую в другой роутер, не важно что между ними. Все стоящие между ними роутеры можно выключить и связь все равно сохранится. Наверно, прошу поправить... VPLS работает ровно только при бриджевании обычного ethernet порта и vpls интерфейса, к чему я, скорее всего, и вернусь(... И еще один баг: при объединении в бридж независимого(не slave) ethernet порта(на нем IP адрес) и vlan интерфейса, в который добавлен другой независимый ethernet порт, при подключении интерфейса сервера UNL pnet0 к не slave ethernet порту(на котором IP адрес) CHR, становится невозможным связываться с шлюзом. В домашней сети, при таком же подключении, связь сохраняется: не slave ethernet порт(на нем IP) в бридже с vlan, внутри которого другой ethernet порт. Slave становится и ethernet порт(на нем IP) и vlan, объединенные в бридж. Все работает отлично. В лабе же связь сохраняется только при подключении VPC компов. Тоже прошу поправить.
Найдено еще два бага: 1) Если пинговать хост от локального интерфейса виртуального роутера за VPLS трубой, то ответы есть, но шарк их не видит; 2) Если пинговать тот же хост от интерфейса домашнего роутера, то ответы в CLI есть, но дамп не видит reply и говорит no response found!. Хосты домашней сети успешно отдают и получают icmp пакеты до хоста в лабе за VPLS, и шарк их видит внутри стека mpls меток, как и должно быть. Наверное это тоже нужно поправить, потому что трафик существует.
Ребята помогите. пытаюсь дать интернет в лабе через nat vmnet0 и через мост тоже самое, с роутера eve пингуется и с компа, но не пингуется шлюз eve и соответственно комп, с компа пингуется eve и также не пингуется шлюз, а с eve пингуется все. ОС ubuntu 16.04. На windows 7 полет нормальный, хочется на убунту, но в ней слаб пока
кто подскажет, почему не пингуется простейшая сеть из двух vpc хостов, соединенных напрямую? соединяю выключенные ноды, раз 5 выключал-включал пинг не проходит
Комментарии
По поводу Failed create network (11). если я правильно понял, и если UNL у Вас на Убунте, то попробуйте стартовать сервер с ядра специально запиленного под UNL. Такой ошибки вылетать не будет и будет работать кстати говоря протокол Etherchannel. Ядро называется примерно так img-3.16.7-ckt8-unetlab
По поводу вывести железки в реальную сеть, то вот:
# The primary network interface
auto eth0
iface eth0 inet manual
auto pnet0
iface pnet0 inet static
bridge_ports eth0
bridge_stp off
address адрес_реальной_сети
netmask 255.255.255.0
gateway шлюз_соответственно
dns-nameserver ну и ДНСы
Будут вопросы пиши, может чем ещё помогу. Лучше в >> ВК <<
Использую UNetLab version: 1.0.0-12
Запускаю коммутатор Cisco IOS Software, Solaris Software (I86BI_LINUXL2-ADVENTERPRISEK9-M).
Если делаю все порты no shutdown, то состояние этих портов Ethernet is up, line protocol is up (connected).
Но они все disconnect (т.е. я их не присоединял через network).
У всех так? Или только у меня?
Спасибо
Использую UnetLab 1.0.0-12 поверх VMWare ESX.
QEMU version: 2.4.0
UnetLab говорит, что НЕТ поддержки Intel VT-x.
IOL-образы (L2,3) работаю замечательно из Unetlab (/opt/unetlab/addons/IOL).
"самодельный" qemu-образ (hda.qcow2) Windows7 успешно запускается через командную строку
(/opt/qemu-2.0.2/bin/qemu-system-x86_64 -m 1024 -boot b -vnc :0 -hda hda.qcow2)
к запущенной windows7 можно подключаться через VNC (всё работает как надо).
образ лежит в НУЖНОЙ папке UnetLab
(/opt/unetlab/addons/qemu/win-7)
при этом Windows7-виртуалка НЕ запускается из UnetLab
(я командую "start", Unetlab пишет "started" во всплывшем уведомлении, но виртуалка не запускается).
Вопрос к "опытным": в чём причина таких странностей?
Начинаю осваивать UNL. Столкнулся с проблемой..
Добавил два маршрутизатора, добавил сеть. Как только назначаю сеть интерфейсу одного из маршрутизаторов и нажимаю "Сохранить", сеть пропадает.
Подскажите в чем может быть проблема?
Спасибо.
Правильно ли я понимаю, что наличие в .vmx-файле параметра "vhv.enable = true" - лишь программное позволение использовать аппаратную виртуализацию?
Есть подозрение, что аппаратная виртуализация (Intel VT-x) "не включена" на самой хост-машине (ESX) и по этому что-то сбоит.
Но тогда почему внутри UnetLab виртуальная машине успешно стартует с "командной строки" (из образа hda.qcow2), но не стартует при команде из интерфейса "схемы/модели" UnetLab?
Переполз с GNS на EVE. И сразу траблы, на самом ровном месте. Собрал схему. Все устройства завелись. Но нет связанности ( не пингуются м/у собой). Ладно, списал на кривые руки. Новую дабу сделал с 2 VPC. Но они тоже не пингуются между собой. Наверно простая глупая ошибка, но моего интеллекта не хватает это решить. Подскажите..
Неужели не существует решения этой проблемы?!
я чуть поправил скрипт автора:
on open location this_URL
set get_date to do shell script "date +%Y%m%d-%H%M%S"
set cap_URL to this_URL
set AppleScript's text item delimiters to {"/"}
set new_cap_HOST to text item 3 of cap_URL
set new_cap_INT to text item 4 of cap_URL
set capturefile to new_cap_INT & "-" & get_date
tell application "Terminal"
activate
do script "mkfifo /tmp/" & capturefile
do script "wireshark -k -i /tmp/" & capturefile
do script "ssh root@" & new_cap_HOST & " tcpdump -U -i " & new_cap_INT & " -s 0 -w - > /tmp/" & capturefile
end tell
end open location
И еще один баг: при объединении в бридж независимого(не slave) ethernet порта(на нем IP адрес) и vlan интерфейса, в который добавлен другой независимый ethernet порт, при подключении интерфейса сервера UNL pnet0 к не slave ethernet порту(на котором IP адрес) CHR, становится невозможным связываться с шлюзом. В домашней сети, при таком же подключении, связь сохраняется: не slave ethernet порт(на нем IP) в бридже с vlan, внутри которого другой ethernet порт. Slave становится и ethernet порт(на нем IP) и vlan, объединенные в бридж. Все работает отлично. В лабе же связь сохраняется только при подключении VPC компов. Тоже прошу поправить.
1) Если пинговать хост от локального интерфейса виртуального роутера за VPLS трубой, то ответы есть, но шарк их не видит;
2) Если пинговать тот же хост от интерфейса домашнего роутера, то ответы в CLI есть, но дамп не видит reply и говорит no response found!. Хосты домашней сети успешно отдают и получают icmp пакеты до хоста в лабе за VPLS, и шарк их видит внутри стека mpls меток, как и должно быть.
Наверное это тоже нужно поправить, потому что трафик существует.
eve пингуется и с компа, но не пингуется шлюз eve и соответственно комп, с компа пингуется eve и также не пингуется шлюз, а с eve пингуется все. ОС ubuntu 16.04. На windows 7 полет нормальный, хочется на убунту, но в ней слаб пока