CookBook v19
  • Новости лентой
  • Кадры решают все
  • Многабукаф
    • Заметки
      • Powershell notes
      • Роботы - HR отаке, или почему нам не пишут и не звонят.
      • Приметы и верования
      • Изменения цифрового ландшафта и прочий терраформ
      • Мои факапы
    • Декларация, эбаут и донаты
  • Наши коллеги и иное (обновляемый список блогов)
  • Зачем и почему
    • Введение, или мне это зачем
    • О мотивации
    • Про донаты
  • Э:Эксплуатация
    • А:Автоматизация
    • А:АУЕ Консалтинг
    • А:Антивирус
    • B:Backup (RPO - RTO)
    • И:ИБ как форма ИБД
    • И:Импортозамещение
    • И:Инвентаризация
    • Л: Логи
    • L: Linux
    • М:Мониторинг
    • О: Обновления
    • П:Провайдеры
    • С:Сертификация
    • С:Специальный Секретный Софт
    • S: Sysinternals
    • S: Syslog and SNMP trap
    • Т: Тестирование
      • Тестирование СХД
      • Подбор СХД для себя для начинающих.
    • У:Учеба
  • --- Начало осмотра ---
  • Найм и увольнение
    • Построение карьеры в IT
    • Сегментация бизнеса и методы управления
    • Чего хочет бизнес в разных сегментах
    • Резюме
    • От HR до найма
      • 1. HR или я Вам перезвоню
      • 2. Руководители
      • 3. Про Сову в секретных газпромах. Мнение.
    • Нематериальная мотивация или что спросить на интервью
      • Мнение про интервью
    • Действия при приходе на работу — прием дел, актуализация, документирование, аудит
    • Три конверта
    • Увольнение
    • Школьники и обратное - Профдеформация и вопросы мышления в целом.
  • От ASIC до ПГС
    • От песка до ASIC
    • Модель ОСИ - OSI/DOD в целом
    • Инженерные системы здания
      • Вентиляция и кондиционирование
      • ИБП / UPS, Электропитание
      • Нужно больше тока!
      • Пожаротушение
      • Вопросы для самопроверки по ПГС
  • Физика СКС / LAN / Wifi / GSM
    • Зачем надо знать теорию или про мультиплексирование
    • От GSM к 5G
      • RAN
    • Теория - 1. Физика.
    • Теория-2, математика в чипах.
    • Физика СКС.
  • Уровень доступа к сети
    • Список литературы и Прочее полезное
    • Сети - начальный уровень и уровень доступа
    • Вопросы про уровень доступа
    • Тестирование сети и оптимизация
  • Сети не для людей
    • Сети - L1. ToR и прочее CORE с OOB
    • Сети - L2. Switch
    • Сети - L2. Wifi. CAPWAP
    • Сети-L3. Route и NAT
    • Резервирование L3 и ASA
    • Сети - L4. Сервисы. DHCP - DNS - MX
    • NLB - Network load balancind и shaping с netfllow
    • Мониторинг сетей
    • QinQ и это все
    • Программирование для сетевых инженеров или CCNA по Python
    • v1000, SDN и прочий NSX
    • WAN - оптимизация
    • BRAS - Broadband remote access server
    • Магистрали и провайдеры - абонентский уровень
    • Провайдерское прочее
    • Net - Vendors - specific
      • HPE
      • Avaya
      • Juniper
      • Arista
      • Juniper
      • Huawei
      • Microtic
      • Встраиваемые модули для сетевого оборудования.
      • Other
  • VPN, работа из дома, сетевая безопасность и NGFW
    • VPN
    • Работа из дома (Remote access)
    • Импортозамещение в ИБ
  • СХД и сети хранения
    • Литература, курсы и прочее
    • RAID, RAIN, DAS, NAS, SAN и прочий ATS
    • FC, NPIV, iSCSI, FCoE и прочий MPiO
      • Latency
      • SAN-FC как технология.
    • SSD и NVME
      • Не все SSD одинаково полезны - S2D
    • CEPH и GLUSTER
    • MS S2D
    • Metro и Long-distance
    • Общая информация по СХД
  • СХД - расширенный вариант (14)
  • Сервера (hardware)
    • ПЭВМ и его компоненты
    • Обычные и привычные сервера. Первый запуск, общие вопросы.
    • Blade, мезонины, Virtual Connect FlexFabric Module
    • Нестандартное - кассы, весы, принтеры этикеток
    • Большой, толстый, но все равно x86 - Bull, Kunlun
    • IBM System Z, HPE Superdome, прочий Cray
    • HCI - Hyper-converged
    • Особенности контрактов на обслуживание
    • Управление и мониторинг: IPMI, OneView и все такое
    • Вопросы по ЭВМ
    • Импортозамещение в ПЭВМ и серверах
  • Операционные системы
    • MS Windows в целом
      • WIN Sysprep and Vmware
      • Windows without AD and Hyper-V
      • Безопасность в Win
      • Powershell
      • Windows troubleshooting
      • Ограничения и проблемы S2D и ReFS
    • Windows on ARM
    • Linux / BSD / Unix
      • Linux дистрибутивы и что внутри
      • Запуск, управление и пакеты
      • cmd (bash)
      • Сети
      • LAMP, SQUID и SQL
      • Обучение Linux
      • Памятка Linux админу по основным утилитам диагностики
      • Безопасность или миллионы красных глаз
      • Российские Linux
      • Вопросы "администратору" LINUX
  • Microsoft - services
    • Active Directory
      • Group policies (GPO) и GPO - loopback
      • Using PowerShell for Active Director
    • MS PKI - AD CS
    • WSUS
    • WSUS для понимающих
    • Если WSUS не хватает
    • SCCM, SCOM, SCDPM, SCSM, SCVMM, SCO, SCEP, DPM
  • Виртуализация
    • Переезды: P2V и V2V
    • Переезд с физики в VDI (Horizon и не только), или Planner
    • Network function virtualization (NFV)
    • Виртуализация, 1С и кривые руки
    • Виртуализация оборудования
    • Реальные проблемы виртуализации
    • Hyper-V
      • Сети в Hyper-V
      • Переезд в Hyper-V
      • MS S2D
      • S2D - не все SSD одинаково полезны
    • Vmware
      • Книжки и бложики и полезности
      • Несортированные полезности
      • Стандартные ошибки при работе с Vmware
      • Esxi troubleshooting
      • vCPU, vRAM, и прочее V
      • VM - HDD
      • Vmware и local NVMe (RDM не нужен)
      • Мониторинг одиночного хоста eSXI
      • Vmware IOmeter
      • Shared Memory против виртуального 10G
      • Vmware tools execute invoke command
      • Vmware update
      • Powercli
      • Vmware и ARM - Raspberry
    • KVM и XEN
    • OpenStack
    • Fusion Sphere
    • Hyper-converged infrastructure (HCI)
      • MS S2D
      • MS Azure pack и Azure stack
    • Вопросы по теме виртуализации
  • SQL и NOSQL
    • MS SQL
  • Backup
    • MS VSS
    • MS SQL Backup
    • Oracle SQL backup
  • Офисные технологии
    • SMB и прочий CIFS (и AGDLP)
    • Базовое офисное ПО и оборудование
    • Офисная телефония и видео
  • E-mail
    • General
    • Антиспам
    • MS Exchange
  • Миграция на Exchange 2019
    • Общая подготовка к миграции на Exchange 2019 часть 1 - общая
    • Миграция на Exchange 2019 часть 2 – подготовка к переносу сервисов
    • Миграция на Exchange 2019 часть 3 – подготовка к переносу почтовых ящиков
    • Миграция на Exchange 2019 часть 4 – подготовка к удалению сервисов 2013 / 2016
  • Mobile Device Management
  • Security (Инфобезопасность)
  • ЦОД и облака - управление развертыванием
    • Terraform, Consul, Serf, Vault
  • DEVOPS, CI-CD и IaC
  • Управление не железом
    • Управление проектами - CRM и прочий MS Project
    • Управление процесссами
    • Софт-скиллы
    • Управление карьерой
  • Serious business - OPEX, CAPEX, ROI, TCO
    • Лекция про процессы и управление в целом
Powered by GitBook
On this page

Was this helpful?

  1. Виртуализация

Виртуализация, 1С и кривые руки

PreviousNetwork function virtualization (NFV)NextВиртуализация оборудования

Last updated 4 years ago

Was this helpful?

  • Виртуализация применительно к разному ПО, в том числе и к 1С.

  • Проблемы многопоточности и vCPU scheduler применительно к данному (1с) ПО.

  • Как следствие - Проблемы с тестом Гилева (1c) в виртуальной среде.

  • Проблемы криворуких специалистов по настройке и тюнинху(ТМ) его же.

Надо понимать, что современное ПО для виртуализации является достаточно сложным, в том числе по причине необходимости обеспечения очередей задач на процессоре, повышения и понижения приоритета исполнения задач, синхронности их исполнения в случае многопроцессорности (а где вы сейчас одноядерные процессоры видели?), и много чего еще – о чем рассказывают в выше упомянутых Data Center Virtualization Fundamentals [V6]

VMware vSphere: Install, Configure, Manage [V6]

При этом часть ПО просто не умеет параллелиться, и как результат – исполняется в один поток. Наиболее часто проблемы с этим возникают у 1С 8.2, и частично у 1С 8.3. Разрабатываемая 1С 8.4, может быть, не будет иметь таких проблем – но не факт.

С другой стороны проблемы есть так называемый тест Гилева – это фамилие такое. Само наличие этого теста – это хорошо, можно посмотреть относительных попугаев. С другой стороны однопроцессорный однопоточный тест показывает ровно то самое, чего и должен показывать – процессор Core i5 (даже не i7) плюс память без REG/ECC с частотой 2.7 – выигрывает у Xeon 2.3 и памяти Reg+ECC – каковая память работает еще и с меньшей частотой. Причем выигрыш по этому тесту может быть раза в 2-3 – например, можно получить 20 баллов на сервере и 40 на рядовом рабочем ПК.

С третьей стороны есть лютая дичь на самом сайте 1С – например: На многопроцессорных системах на одном сервере должно работать больше одного процесса rphost .. Поэтому при работе на многопроцессорных системах (все современные многопроцессорные системы Intel и AMD имеют NUMA архитектуру), в зависимости от характера нагрузки, может наблюдаться неравномерная загрузка процессоров/ядер. В некоторых случаях может оказаться загружена только какая-то часть доступных ядер CPU, при этом другая часть будет простаивать.

Конечно будет – NUMA не занимается разбросом на «только ядра», хотя о этом надо писать отдельно, а к тому как эта Numa будет выглядеть после Esxi уже в гостевой ОС - надо подступать только после серьезного расширения сознания знакомства с теорией и практикой работы вверенной материальной части.

С четвертой стороны есть рекомендации того же Гилева, которые местами оправданы, местами – такая же лютая дичь, как и у оптимизаторов, которых он ругает. Примеры дичи –

«Снимки» надо выключать — они замедляют.

не надо их "выключать" - на них как бы работает резервное копирование VM. Так что выключить их не выйдет. Другое дело, что в ряде случаев хранить N-цать снимков не нужно.

Использовать только физические диски под данные, а не виртуальные.

Совет потрясающий своей прямизной. Для начала, в нормальной среде (а не домашней машине, на Vmware WS - куда стоит ссылка) - на хосте ВООБЩЕ может не быть своих дисков - все лежит на СХД. Пусть даже пусть есть - предлагается что, тащить с хоста физический диск (без raid) в виртуалку и там собирать RAID средствами винды? RLY? Если с СХД - это как? В Vmware протаскивать диск с хранилки и отдавать его опять же как физику? Так не будет, будет какой-то Raid на СХД, который отдается LUN-ом в ту же Vmmare, откуда уже нарезается на тома VMFS. Другое дело, что конечно лучше бы все это дело мониторить по нагрузке - может там на массив очередь на минуту и все уже давно лежит, и tempdb хранить как-то отдельно.

Конечно, можно сделать VSAN или завести Nutanix, или еще какое data locality, но это и сложно и дорого.

Вендоры виртуальных систем честно указывают примерный процент замедления относительно физических серверов от 9 до 24 % Сильно меньше и когда как. Процент замедления / штраф / накладные расходы на виртуализацию конечно есть, но зависят от процессора "в целом", количества io операций по сети/диску, и прочая прочая. Но может оказаться и больше – На практике я получал падение производительности вплоть до 40% от номинала из-за влияния гиперактивного ввода-вывода виртуальной машины по сети и дисковой системе.

Передача по сети между двумя виртуальными машинами на одной физической машине медленней протокола Shared Memory

Медленней ли ... Тут особо не поспорить – кроме как с терминологией. Shared Memory не «быстрее», а имеет меньшую латентность, да и в случае двух VM на одном хосте данные все равно идут через память. НО 99% 1сников не умеют в 9k/ MTU 9000/Jumbo frame. Дело в размере блока, которым SQL оперирует - он, как ни странно, не равен 1514 байт, поэтому при TCP/IP много чего фрагментится и кадр 9к желателен крайне для SQL и его клиента

И это еще вопрос – а что будет при использовании RDMA или InfiniBand?

Для виртуальных серверов ESXi 6.0 с 1с сервером не используйте сетевые интерфейсы типа WMXNET3, использовать только типа e1000e

На Hyper-V кстати то же самое.

Отключить дедупликацию памяти для EXSi - Transparent Page Sharing на хосте VMware ESXi

На все вышеперечисленное накладываются унаследованные привычки «а давайте возьмем сервер побольше», выражающиеся в заявках от отдела 1С – «дайте в виртуалку больше процессоров». Ок, не жалко – только не поможет, а в некоторых случаях скорее повредит. Конечно, MS SQL отлично работает в многопроцессорной среде – чего нельзя сказать про 8.2 / 8.3 «в общем случае». Опять же, хороший 1С –ник стоит ДОРАГА, хороший варе/гитлеро вед – аналогично ДОРАГА, а в наличии хороших Xen/Openstack – водов в количестве больше 20 (просто двадцати) в РФ я не уверен. Именно хороших – админов локалхоста под линуксом плюс минус половина от всех админов локалхоста с 60% побед. Такие заявки приводят к добавлению в виртуалку 20-40 процессоров, и внезапной просадке производительности «еще больше». Следующим шагом выступает «а отдайте все что есть на хосте», плавно переходящее «ваше * говно тормозящее, только винда, никакой виртуализации». Окей, но результаты тоже не начинают мгновенно поражать воображение – хотя если взять не сервер, а десктоп с Core i7-7700 (3.6) / Core i7-7700K (4.2) или сервер с Intel® Xeon® Processor E5-1630 v4 / Intel® Xeon® Processor E5-1650 v4 и включить Turbo Boost (3.7/4) – то может оказаться и неплохо. Но на них и виртуализированная среда бы работала куда быстрей – особенно если выключить энергосбережение везде, включить Turbo Boost и подстроить NUMA.

Процессоры на момент написания текста -

Intel® Xeon® Processor E5-1630 v4 / E5-1650

На 2020 год можно посмотреть в сторону:

Intel® Xeon® Gold 6226R Processor - 16 ядер, 2.9 гГц

Intel® Xeon® Gold 6234 Processor - 8 ядер, 3.3 гГц

Было бы неплохо перейти от теории к практике, и проверить эти рассуждения на практике, сначала на тестовой среде / нагрузочном тестировании при настройках «искаропки», потом в донастроенном окружении, как физическом, так и виртуальном, и при разном физическом окружении – серверном/десктопном. Но пока что такого тестирования я не видел.

Причина такого совета абсолютно не понятна. WMXNET3 - виртуальная (как и e1000e кстати) сетевая карта 10G, с оптимизацией под работу Vmware. Может кто-то прочитал про проблемы с VM Chimney (TSO - TCP Offload) и RSS (Receive Side Scaling) с точностью до наоборот – там надо бы выкинуть e1000e и провести прочее колдунство.

Poor network performance or high network latency on Windows virtual machines (2008925) TSO (TCP Segmentation Offload) /Receive Side Scaling (RSS)

Understanding TCP Segmentation Offload (TSO) and Large Receive Offload (LRO) in a VMware environment (2055140)

Не надо нагружать хост так, чтобы там включались ухищрения с памятью. И аккуратней с переподпиской. Transparent Page Sharing при этом – не самая большая беда. Вот когда все начинает в своп валиться – это да. Опять же, есть тексты про Understanding Memory Resource Management in VMware ESX Server и про Memory Ballooning

При этом на самом сайте Гилева – ругают Кухара Богдана (хотя, казалось бы – Кумары/Кухаря живут чуть-чуть юго-восточней, в огромном количестве, ЕВПОЧЯ).

Intel® Xeon® Gold 5222 Processor - 4 ядра, 3.8 гГц

https://mylearn.vmware.com/mgrreg/courses.cfm?ui=www_edu&a=one&id_subject=64758
https://mylearn.vmware.com/mgrreg/courses.cfm?ui=www_edu&a=one&id_subject=60901
https://its.1c.ru/db/metod8dev#content:5903:hdoc
https://habrahabr.ru/post/225183/
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2008925
https://www.vmware.com/support/vsphere5/doc/vsphere-esxi-55u2-release-notes.html
https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2008925
https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2055140
http://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/perf-vsphere-memory_management.pdf
http://www.gilev.ru/secret1c/
http://ark.intel.com/products/family/91287/Intel-Xeon-Processor-E5-v4-Family
https://ark.intel.com/content/www/us/en/ark/products/series/192283/2nd-generation-intel-xeon-scalable-processors.html