Quantcast
Channel: VMware Communities : All Content - All Communities
Viewing all 180923 articles
Browse latest View live

VMware, linked clone crash

$
0
0

Hi. I write this for make a question about linked clones.

Some hours ago i created a new golden image with windows 10 for a new pool.

I installed all the programs & configurations that we will use. Then i installed Horizon agent v7.4, and finally, i installed VMware Optimization OS.

Next i went to horizon to create my new pool & it created succesfully, without errors, the sysprep ran perfectly.

Finally i proceeded to make some tests to the pool.

I logged with a entitle user & for some minutes the VM works normally, then the machine gets freezed & vSphere sends the warning "vSphere HA restarted this virtual machine" & the machine proceed to restart.

 

 

At the same time Connection Server shows "inaccessible agent".

 

This ocurr in all the VM of the pool repeatedly.

 

Anyone has idea what's going on?

Thanks.


Trying to move back to Fusion from Parallels

$
0
0

I am trying too get familiar with Fusion again - been 4 or 5 years probably.  I am experiencing that my mouse, at least in full screen, kind of sticks to an area.  Maybe it is where it last was used, but when I click on the VM, the mouse might be bottom left, but when the windows gets focus, the mouse is still upper right and it is driving me nuts.  I would assume this is a setting that just allows the mouse to be where het mouse is on the screen, not change when the windows gets focus.  Can anybody help me figure this out?  By the way, moving back so I don't have to pay a license every year for my VM tool, and it looks like Fusion will work with 2 to 3 years of OS upgrades.

Intel I series and AMD cpu support

$
0
0

Hi.

 

Nowhere can I find information on which processors Vmware Worstation Player supports. I would be interested in the Intel I series and the AMD A series.

VxRail: QuantaモデルでのLED点灯 よくあるお問い合わせ

$
0
0

VxRail(Quanraモデル)でLEDオレンジ点灯の場合、よくあるお問い合わせについてのご紹介です。

NodeのLEDがオレンジ点灯している場合で、業務影響がない場合は、まず以下を確認してみてください。

(青点滅の場合もあります。)

 

<パターン①>BMC Web Login Failed

BMCのWeb UIへログインする際、パスワードの入力ミスなどでログイン失敗した場合、LEDが点灯します。

https://support.emc.com/kb/494761

 

<パターン②>Memory Correctable Error

修正可能なエラーであるため、即座に交換対応等が必要なイベントではありません。

頻発する場合や、システムに影響が出る場合においてはDELL EMCへお問い合わせください。

https://support.emc.com/kb/494831

 

<パターン③>BMCでのハードウェア情報取得不可

BMCの一時的なハングアップなどにより、ハードウェア情報を取得できないため、障害として誤検知

https://support.emc.com/kb/513649

 

 

▼症状・現象

 

・Node LED点灯

1.png

 

・VxRail Managerから警告表示

2.png

 

・VxRail Managerでのイベント検知

Event CodeMessage
MYSTIC028005Hardware health changed - node status (system status LED amber)

3.png

 

 

 

▼確認項目

ESXiホストからipmitoolコマンドでBMCのSELを確認する

(SSH有効化手順についてはESXi、vCenter、PSCのSSH有効化を参照)

/tmp/vspexblue/bin/ipmitool sel elist

 

 

下記のようなイベントの有無で判断する

<パターン①>BMC Web Login Failed

   2 | 04/06/2018 | 07:16:17 | OEM record df | c11ec75a00000002020a0a265b

   3 | 04/06/2018 | 07:16:21 | OEM record df | c51ec75a00000006000a0a265b   <- OEM record dfのイベントで下11桁目が6のイベントはWeb login failedを示す。

   4 | 04/06/2018 | 07:16:42 | OEM record df | da1ec75a00000001020a0a265b

   5 | 04/06/2018 | 07:49:05 | OEM record df | 7126c75a00000003020a0a265b

 

 

<パターン②>Memory Correctable Error

  13 | 05/12/2018 | 10:46:44 | Memory #0x87 | Correctable ECC | Asserted

  14 | 05/13/2018 | 16:18:15 | Memory #0x87 | Correctable ECC | Asserted

 

 

<パターン③>BMCでのハードウェア情報取得不可

  33 | 03/26/2018 | 20:29:32 | Drive Slot HDD0 | Drive Present | Asserted

  34 | 03/26/2018 | 20:29:32 | Drive Slot HDD1 | Drive Present | Asserted

  35 | 03/26/2018 | 20:29:35 | Fan Fan4_0 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

  36 | 03/26/2018 | 20:29:35 | Fan Fan4_1 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

  37 | 03/26/2018 | 20:29:35 | Fan Fan5_0 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

  38 | 03/26/2018 | 20:29:35 | Fan Fan5_1 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

  39 | 03/26/2018 | 20:29:37 | Fan Fan0_0 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

  3a | 03/26/2018 | 20:29:37 | Fan Fan0_1 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

  3b | 03/26/2018 | 20:29:37 | Fan Fan1_0 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

  3c | 03/26/2018 | 20:29:37 | Fan Fan1_1 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

  3d | 03/26/2018 | 20:29:37 | Fan Fan2_0 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

  3e | 03/26/2018 | 20:29:37 | Fan Fan2_1 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

  3f | 03/26/2018 | 20:29:37 | Fan Fan3_0 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

  40 | 03/26/2018 | 20:29:37 | Fan Fan3_1 | Lower Critical going low  | Asserted | Reading 0 < Threshold 600 RPM

同時刻にすべてのFANの回転速度が0rpmになっている。

 

 

 

▼対処

下記を参照し、BMCのリセットを行ってください。

VxRail: BMCリセット・SEL削除手順

 

リセット後、数分経ってから、VxRail Manager上のステータス及びLEDの状態を確認してください。

改善ない場合はSELのクリア実施してください。

 ※SELクリア前に下記を参照してVxRail Managerログバンドルを取得することを推奨します。

  VxRail: VxRailログバンドル作成

Unrecognized Ethernet and Multimedia Controllers after moving to Fusion 11.5

$
0
0

I had a copy of Windows 10 running as the guest OS on Fusion 8.x and all was well.  My IT department gave me a new Macbook with Fusion 11.5 and I moved the vm over.  Now I have an ethernet controller and multimedia audio controller showing up in Device Manager as "Other Devices", without proper drivers.  No matter what I do, I can't get audio or network to work.  The only way I've been able to get around things is to plug in a USB wi-fi dongle and connect it up to the VM so I can have a network connection.

 

Any thoughts?

3D App works in Parallels, "Out of Memory" in Fusion

$
0
0

I'm trying to switch back to Fusion after using Parallels for a few years.  I'm using a 2019 MacBook Pro 16" with an external 4K display.  The MacBook lid is always closed.

 

In Fusion, when this app (Altium Designer) tries to render a 3D model of a circuit board, the app pops up an "Out of Memory" error.  If I open the same file in Parallels it works fine.  Both VMs have the exact same settings, 8GB RAM, 1GB of VRAM.  I've tried increasing VRAM in Fusion up to 3GB but it doesn't help.  I've tried a clean install of Windows 10, as well as importing the Parallels VM, same issue.

 

The only differences I can see between the two machines when I'm inside windows is how they declare the available VRAM.  When running dxdiag, Windows reports 4MB VRAM, 1024MB shared for a total of 1028MB.  When running Parallels Windows dxdiag reports 1024MB VRAM and 1024MB Shared for a total of 2048MB.

 

When I increase Fusions VRAM the 4MB remains unchanged, only the Shared increases.

 

Could this be the issue?  Is there a way to tell Fusion to increase the VRAM and not the Shared memory?

 

Thanks in advance for any help.

VIO 6 - VDS - DHCP Issue

$
0
0

Greetings-- New to VIO (doing a POC) and deployed a VIO6 environment in vSphere 6.7 with vDS (no NSX).  Have a dedicated /24 for our compute network and I'm struggling with IP addressing.  I have an external DNS/DHCP environment and intended on using it with DDNS but it's not a requirement.  I created my compute network and said no DHCP.  The VMs get DHCP from my external servers just fine, but VIO is still "assigning" what it thinks it should have out of that /24 and not honoring what my external DHCP is handing out.  So, I tried turning off my external DHCP server and selecting the option for DHCP Agents, which it creates them, but the compute instance VMs don't seem to be pulling addresses from them.

 

Any ideas?  Is this even possible in VIO6 with a vDS setup?

 

Thanks,

Sizing for NSX-V VIB modules for distributed Logical Switching/FW/Routing requires per ESX host

$
0
0

Hi all,

 

I am trying to find out how much capacity each NSX-V VIB module for
distributed Logical Switching/FW/Routing requires per ESX host.

We are assuming our new infra system would consume logical resources
up to maximum configurations for NSX-V (ESG:2,000, DLR:1,000, DLSW:10,000 etc).

Thus if the configuration reaches to limitation, just wanted to figure
out how much CPU/Memory need to be ensured separately from ESX OS and Guest VMs.

Any input would be grateful for me.


vSphere APIを活用しよう(ただしPowerCLIを除く)

$
0
0

日本の vExpert 有志による Advent CalendarのイベントにvExpert一年生として今年から参加させていただきました。

この投稿は、vExperts Advent Calendar 2019 - Adventarの 2日目です。

2日目のブログでは、vSphereの管理をより便利にするためのAPI関連Tipを紹介します。

 

vSphereの管理インタフェースについて

まず最初にvSphereを管理するためにどんな管理インターフェースを使っているかのおさらいです。

とりあえず思い浮かんだものを列挙してみました

    • vSphere Client (HTML5)
    • vSphere WebClient (Flash)
    • vSphere Client (C#)
    • Host Client
    • PowerCLI
    • DCUI
    • VAMI GUI (PSC/VCSA)
    • Shell/SSH
    • ESXi CGI (??? 正式名称をしらないです。。)
    • MOB
    • RVC
    • vSphere API (Python/Java/RESTAPI 他)

まず最も基本であり、親しみがあるインターフェースはvSphere GUI (HTML5/Flash/C#) でしょう。

私自身はvmware サポート関係の仕事なので、実際のユーザがどのように管理しているのかはよく知らないのですが、おそらくDCUI/VAMI/SSHなどは、トラブルシューティング以外の場面では、ほとんど使われないのではないか、と想像してます。

 

vExpertになるような方々が多く愛用されているのは、おそらくPowerCLIなのではないか、と思います。vSphereのGUIにログインすることなく、vSphereへの命令や参照をスクリプト化することができ、GUIでの作業と比較して、正確さ、迅速さ、自動化、などの多大なメリットがあります。

 

一方で、それ以外のAPI (pythonやRESTAPI)などは、vSphereと連携する製品での実装は多くみられますが、実際に運用管理の場面で一から作成することは非常に少ないのではないか、と思います。今回はこれらのマイナーなAPIのなかでも、curlとwgetだけを使って利用できるもの(RESTAPI、MOB、ESXi CGI)に焦点を当ててご紹介したいと思います。

 

PowerCLIを使わない理由

私自身はPowerCLIをほぼ使いません。

PowerCLIを使うのはPowerCLIでしかできない作業をする場合のみです。(独立SSO vCenter間のvMotionなど)

PowerCLIを使わない理由は、一言でいえば私がvSphereサポートを生業にしているためです。

私の職場では、トラブルシューティングの際に、ログ解析だけでなく、実際にお客様環境にログインして事象を調査したり、ログを採取したり、といった作業があります。

そういった作業の際に、PowerCLIを使うことができたら非常に便利だなぁと思うのですが、いかんせんお客様環境のため、PowerCLIがインストールされているとは限りません。

PowerCLIどころか、FlashやJava(JRE)といった、GUI作業に必要なツールすらInstallされていないことが多々あります。

また、場合によってはWindows PCのようなDesktop端末が存在せず、LinuxベースのCUIのみの管理端末しかないことも多く存在します。

つまり先に列挙した例でいうと、

    • vSphere Client (HTML5)>>> ブラウザがないので使えない
    • vSphere WebClient (Flash)   >>> ブラウザがあってもFlashがなくて使えない
    • vSphere Client (C#)  >>>> Install されてない
    • Host Client >>>> ブラウザがないので使えない
    • PowerCLI   >>>> Install されてない
    • DCUI   >>>> アクセス手段がない
    • VAMI GUI (PSC/VCSA)  >>>> ブラウザが使えない
    • Shell/SSH
    • ESXi CGI (??? 正式名称をしらないです。。)
    • MOB
    • RVC
    • vSphere API (Python/Java/RESTAPI 他)

 

つまり、メジャーどころの管理インターフェースのほとんどが利用できない環境で、障害対応をしなくてはなりません。

そのような非常に制限の厳しい状況下で調査やログ採取をするために利用要件の少ないAPIの活用が必要でした

 

なぜCurlとWget?

理由はシンプルです。この二つのコマンドはVCSAを含む多くのLinux端末にデフォルトで搭載されているからです。

そういった端末にSSHで接続さえできてしまえば、API経由で必要な情報を抽出できます。

利用要件はSSHに必要なネットワークアクセスと、認証情報と、Puttyの実行ファイルだけで済みます。

 

 

vSphere RESTAPIをつかってみよう

さて、前置きが長かったですがようやく本題です。まずはcurlコマンドで簡単に利用できるRESTAPIの使い方から紹介します。

私がRESTAPIを学び始めた当初は、比較的難しい開発向けの情報しか見つからず、RESTAPIでできる参照&命令の把握や、リクエスト方法のフォーマットや認証IDの取得方法がわからずとても苦労しました。

しかしながら現在は非常に便利なapi explorerというものがデフォルトで提供されています。

api explorerは一言で言ってしまえば、

「あなたの代わりにRESTAPIのcurlコマンドを作成してれるツール」

です。

どういうことなのか、さっそく見てみましょう。

 

 

API ExplorerにCurlコマンドを生成してもらう

 

api explorerにはvCSAにHTTPSでアクセスした際のランディングページの以下の場所から移動できます。

1.PNG

アクセスすると、操作対象によっていくつかAPIの選択肢が出ますが、vSphere関連の参照&命令がしたい場合はvcenterを選んでください。

2.PNG

 

vcenter API配下には、RESTAPIのパス毎に使用方法の説明などが記載されていますが、とりあえず例としてVMの一覧を取得してみましょう。

まずはpath名がVMのところを展開してください。そうするとメソッドがいくつか表示され、それぞれのメソッドの説明が見えるはずです。

その中で一番上のGET メソッド(仮想マシンの情報を表示する命令)をさらに展開すると具体的なRequest方法の説明が読めますが、

ここではとりあえず、一番下にある「TRY IT OUT!」のボタンを押してみましょう。(下図参照)

3.PNG

 

そうすると、実際にこのRESTAPIを実行するためのCurlコマンドとその実行結果を表示してくれます。

※API Explorerが生成するCurlコマンドにはデフォルトで-kが入ってませんので、証明書関連のエラーが想定される場合は-kを足してください。

 

4.PNG

 

ここで表示されるCurlコマンドをコピペして実行すれば、実際の環境でもそのまま使えるというわけです。めちゃめちゃ便利ですね。

しかし、ちょっと待ってください。実行結果をよく見ると、エラーになっています。

エラーの原因は"This method requires authentication."です。

当然ながら、vCenterから情報を抽出するためには認証が必要なので、認証情報を提供する必要がありました。

 

RESTAPIに必要な認証情報を取得する

結論から言うと、RESTAPIのリクエストヘッダに、session idを入れて送信する必要がありました。

セッションIDは以下のCurlコマンドで取得可能です。

 

curl -k -X POST --header 'Content-Type: application/json' --header 'Accept: application/json' --header 'vmware-use-header-authn: test' --header 'vmware-api-session-id: null' -u 'administrator@vsphere.local' 'https://<vcenter ip>/rest/com/vmware/cis/session'

 

↑のコマンドを実行すると、administrator@vsphere.localのパスワードが求められますので、入力してあげると、以下のような感じでSession IDが返されます。

 

5.PNG

 

ここで得たSession IDを、最初に実行したCurlコマンドの vmware-api-session-id に入力してあげればOKです。具体的には以下のようになります。

 

6.PNG

 

↑のコマンドを実行すると対象vCenterで管理される仮想マシンの情報がJsonのフォーマットで入手できます。

 

 

以上が、vSphere REST APIの簡単なご紹介でした。

REST APIは比較的若い機能なのでまだまだできることが限られますが、使いやすいさやスクリプト化のしやすさもあるので今後も拡張されると思います。

なれない方には難しい点がまだあると思いますが、この記事とAPI Explorerを使えばだいぶ簡単にCurlコマンドまでは落とし込めるようになったのではないかと思います。

 

 

ESXi CGI ??? の使い方

ESXi CGIってなんやねん!?と思う方も多いと思いますが、私も正式な呼び名を知らないのでご容赦ください。

ようするに、https://<esxi ip>/host やhttps://<esxi ip>/folderでアクセスできる機能のことを勝手にそう呼んでいるだけです。

ESXiに対する直接の操作になりますので、vCenterが機能していない環境でも利用可能です。

この機能を利用すると以下のことが可能です。

    • /folder にアクセスすることでデータストア上のファイルの閲覧とダウンロード
    • /host にアクセスすることで、ESXiの主要なログファイルや構成ファイルを取得可能
    • vm-supportを取得可能

 

/folderの使い方

特に説明の必要はないと思います。

https://<esxi ip>/folder にアクセスして、ログインも済ませればあとなLook & Feelで使えると思います。

ブラウザの右クリックから対象ファイルのURLも取得可能です。

 

/hostの使い方

/folderと同様に、/hostにアクセスすれば使えます。

限られたファイルしか閲覧できませんが、ESXiへのSSHが不要な点がメリットです。

Curlコマンドを使って簡単に対象のファイルを入手できます。

 

vm-supportの取得方法

以下のコマンドで入手可能です。

wget https://ip/cgi-bin/vm-support.cgi --user <> --password <> --no-check-certificate -O<output file name>

 

この方法は、https://kb.vmware.com/s/article/1967でも紹介されています。

vm-supportの取得方法はいくつかやり方がありますが、個人的にはこの方法が一番楽だと思います。

 

MOBの使い方

MOBはvCenterとESXiの両方に対して使える機能です。

vCenterはデフォルトで有効ですが、ESXi6.0以降のESXiではデフォルトで無効になっているので利用前に有効化する必要があります。

有効化の方法はこちらをご参考にしてください。(https://www.virtuallyghetto.com/2015/02/quick-tip-vsphere-mob-is-disabled-by-default-in-esxi-6-0.html

 

こちらの使用方法もとても簡単です。URLに情報を取得したいmoidを指定してあげればOKです。

例えば以下のような形になります。

https://<esxi/vcenter ip>/mob/?moid=ha-host     

 

自分がアクセスしたいオブジェクトのURLを知るためにはブラウザでアクセスするのが一番簡単です。

いちどvcenter/esxiのmobブラウザのホーム(/https://ip/mob)にアクセスしてブラウザからたどっていって、対象のオブジェクトを見つけたらその時のURLを記録するだけです。

7.PNG

 

このURLに対してcurlやwgetをしてあげればこのページの情報が入手できます。※ただしHTMLフォーマットになります。

 

今回紹介した方法の中では、mobから得られる情報が一番多いです。しかしながら出力がHTMLになってしまうという使いにくさと、メソッドを実行する際のちょっと特殊な方法をとる必要があるため、使用には難易度が高いです。

メソッドの実行に関して今回はご紹介はしませんが、もしご興味がある場合は私の過去のブログをご参考にしていただければと思います。

     CurlコマンドでESXiのSSHを有効化する方法

     ※ポイントとしては、MOBのURLにたいして 直接Curlを実行するだけではメソッドを実行することはできず、Mobブラウザに隠されているHidden 要素のSessionIDをPOSTしてあげる必要があります。

 

 

 

おわりに

今回の記事ではマイナーなAPIや管理インターフェースから情報やログファイルを入手する方法を紹介しました。

どれもこれもPowerCLIと比べると便利さや機能性に欠けますので、ユーザ目線ではあまり役に立たないかと思います。

しかしながら、Curlならではの良さもありますので、もしお役に立てそうな場面がありましたら是非とも活用してみてください。

あと、サポートの人たちはこんな感じで苦労しながら調査していることを少しでも思い出していただけたら、調査用の端末には十分な性能とアプリケーションをご準備いただけますと幸いです。

 

以上、vSphere APIのTipでした。

明日の vExperts Advent Calendar 2019 - Adventarは、interto さんです。よろしくお願いします。

I want to prepare for 1V0-701

$
0
0

Hello all,

 

Please help me. I am just a beginner in vmware certification. I am preparing for vmware Desktop & Mobility. I need Q&A for exam preparation. Please help me to get it.

Vmware Converter - Conversion FAILS WITH RHEL 7 from Hyper-V if VM is offline

$
0
0

Hello,

 

I'm trying to migrate some RHEL 7.6 from Hyper-V to VmWare Esxi, conversion is done with stopped virtual machines, but when I try to start in vmware, I allways have a 'dracut timeout' message.

 

This is our environent, and this is how I was trying to convert.

RHEL 7.x computers are virtual machines that are running under Hyper-V (Windows 2012 R2), are Generation 2 (UEFI boot), using dynamic disk. Before conversion virtual machines are stopped.

VmWare converter connects to Hyper-V and I select stopped computer, the conversion process from 'VmWare converted' ends without errors.  And target vmware computer is set to Linux-rhel 7, and Uefi...

 

Until here all is fine...

 

But, when computer starts on VmWare, it allways fails with a 'dracut-initqueue timeout' message... 

 

I've tried to convert with live virtual machine, but for some reason LVM volumes are converted to standard partitions and then we need to reconstruct later..

For this reason I'm trying to convert from Hyper-V when Virtual machines are offline, but seems that doesn't work with Rhel 7

 

There is any solution? Does is possible to convert a Linux Red hat 7 when virtual machine is stopped/offline, there is a way to fix this?

 

Regards

Can I use nVidia Quadro P4000 in vSGA mode?

$
0
0

Hi everyone,

 

So I recently installed ESXi Hypervisor 6.5 on a Dell EMC Server PowerEdge T440.

We then procured an nVidia Quadro P4000. Upon scouring the forums and the internet, I do not see anywhere that this GPU can be used in a shared-VM set up. The VIB drivers page for ESXi 6.5 say they are only applicable to GRID GPUs.

 

I was however able to set it in dedicated GPU mode by using PCI-passthrough. But this is the least favored situation. It would be best if I were able to share the GPU across multiple VMs. Is that not possible?

No SSH/PING to guest VMs on Fusion 11.5.1 running on MacOS X Catalina

$
0
0

It was always possible to ssh or ping guest vms from the host (MacOS X for me) at least till last year since then i haven't used Fusion.. But after upgrading to Catalina and Fusion 11.5.1 nothing works (also the menu entry connect to ssh doesn't work). Regardless what network i use (share with my mac, custom whatever) no chance!

 

Any idea why this behaviour? It should

NSX-V VTEP Offload to NIC

$
0
0

Hi all,

 

Regarding NSX-V VTEP Offload to NIC, as far as I see, there are few articles and information over the internet so any advices on this feature would be appreciated!!

 

I managed to find how to set up and what default setting is as below.

However I have no idea with configuration criteria of RSS/TSO/VXLAN Offload Do you have any information on them?

In the first place, does someone leverage enabling these NIC offload features with NSX-V? If so, any considerations to introduce them?

VMware® NSX for vSphere (NSX) Network Virtualization Design Guide says to recommend to use VXLAN
Offload feature for Edge Cluster but I wonder if ESXs on Prod VM HA cluster does not requires to enable them?

 

It is recommended to use hosts with higher core densities to support the required 

Edge VM sizing (2 vCPU to 4 vCPU). Higher clock speed should also be considered
for VXLAN offload while NIC choices made based on the need for 
higher bandwidth.

 

Host Specification Guideline for Edge Cluster

  • Highly recommended to use NIC that supports VXLAN
    TSO offload and
    RSS support for desired line rate performance.

 

 

[root@esxi:~] esxcli system module parameters list -m vmnic10
Name                  Type           Value  Description
--------------------  -------------  -----  ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
DRSS                  array of uint         Number of RSS Queues associated with default queue: 0 (Disabled), 2 (min), 4 (max). Default: Disabled
RSS                   array of uint         Number of RSS Queues: 0 (Auto) or 1 to 4 (fixed queue number). Default: Auto
debug_mask            uint                  Enabled debug mask (default: 0)
dropless_fc           uint                  Pause on exhausted host ring. 0: Disable (Default) 1: Disable
enable_dcbx           uint                  Enable DCBX. 0: Disable 1: Enable (Default)
enable_fwdump         uint                  Enable/Disable the firmware dump file. Set to 1 to enable firmware dump, Set to 0 to disable firmware dump [Default]
enable_lro            uint                  Enable/Disable the TPA (LRO) featureSet to 0 to disable TPA, Set to 1 to enable TPA [Default]
enable_vxlan_filters  uint                  Enable/Disable the VXLAN Rx filters.Set to 0 to disable VXLAN Rx filtersSet to 1 to enable VXLAN Rx filtersDefault: 0
fairness_threshold    uint                  When set to 1 will enable the fairness threshold; 0 by Default
hw_vlan               uint                  Enable/Disable VLAN removal/insertion by hardware. 0: Disabled and 1: Enabled. Default: 1
max_vfs               array of uint         Number of VFs to be enabled for each pci function. Default:0, Valid values: 0:Disable, 1 to 64
mtu                   uint                  MTU when the driver is loaded. Range: 0-9000. (default: 1500)
offload_flags         uint                  Offload flags: 1 (cso) 2(tso) 4(vxlan offload) 8(Geneve offload). Default: 15
rss_engine_nr         array of uint         Number of RSS Engines: 0 (Disabled) or 1 to 4 (fixed NUmber of RSS Engines). Default: 1
rx_filters            int                   Define the number of RX filters per NetQueue-1: use the default number of RX filters based on availability:0: Disable use of multiple RX filters; 1,2,3,...: Will force the number of RX filters to use for NetQueue; Default: -1
rxqueue_nr            uint                  Number of Rx Queues: 0 (Auto) or 1 to 10 (fixed queue number). Default: Auto
rxring_bd_nr          uint                  Number of RX BD Buffers: 4096(min) 16384(max), must be power of two. Default: 4096
tx_to_delay           uint                  Time interval (in seconds) to wait for before considering a Tx queue stuck and triggering a tx timeout. Default:5, Disable:0 (use netdev tx timeout), Minimum:5
txqueue_nr            uint                  Number of Tx Queues: 0 (Auto) or 1 to 10 (fixed queue number). Default: Auto
txring_bd_nr          uint                  Number of TX BD Buffers: 4096(min) 16384(max), must be power of two. Default: 4096

[root@esxi:~] esxcfg-module -i qfle3
esxcfg-module module information
input file: /usr/lib/vmware/vmkmod/qfle3
License: ThirdParty:QLogic_Proprietary
Version: 1.0.86.0-1OEM.670.0.0.8169922
Name-space:
Required name-spaces:
  com.vmware.vmkapi@v2_5_0_0
Parameters:
  DRSS: array of uint
   Number of RSS Queues associated with default queue: 0 (Disabled), 2 (min), 4 (max). Default: Disabled
  RSS: array of uint
   Number of RSS Queues: 0 (Auto) or 1 to 4 (fixed queue number). Default: Auto
  debug_mask: uint
   Enabled debug mask (default: 0)
  dropless_fc: uint
   Pause on exhausted host ring. 0: Disable (Default) 1: Disable
  enable_dcbx: uint
   Enable DCBX. 0: Disable 1: Enable (Default)
  enable_fwdump: uint
   Enable/Disable the firmware dump file. Set to 1 to enable firmware dump, Set to 0 to disable firmware dump [Default]
  enable_lro: uint
   Enable/Disable the TPA (LRO) featureSet to 0 to disable TPA, Set to 1 to enable TPA [Default]
  enable_vxlan_filters: uint
   Enable/Disable the VXLAN Rx filters.Set to 0 to disable VXLAN Rx filtersSet to 1 to enable VXLAN Rx filtersDefault: 0
  fairness_threshold: uint
   When set to 1 will enable the fairness threshold; 0 by Default
  hw_vlan: uint
   Enable/Disable VLAN removal/insertion by hardware. 0: Disabled and 1: Enabled. Default: 1
  max_vfs: array of uint
   Number of VFs to be enabled for each pci function. Default:0, Valid values: 0:Disable, 1 to 64
  mtu: uint
   MTU when the driver is loaded. Range: 0-9000. (default: 1500)
  offload_flags: uint
   Offload flags: 1 (cso) 2(tso) 4(vxlan offload) 8(Geneve offload). Default: 15
  rss_engine_nr: array of uint
   Number of RSS Engines: 0 (Disabled) or 1 to 4 (fixed NUmber of RSS Engines). Default: 1
  rx_filters: int
   Define the number of RX filters per NetQueue-1: use the default number of RX filters based on availability:0: Disable use of multiple RX filters; 1,2,3,...: Will force the number of RX filters to use for NetQueue; Default: -1
  rxqueue_nr: uint
   Number of Rx Queues: 0 (Auto) or 1 to 10 (fixed queue number). Default: Auto
  rxring_bd_nr: uint
   Number of RX BD Buffers: 4096(min) 16384(max), must be power of two. Default: 4096
  tx_to_delay: uint
   Time interval (in seconds) to wait for before considering a Tx queue stuck and triggering a tx timeout. Default:5, Disable:0 (use netdev tx timeout), Minimum:5
  txqueue_nr: uint
   Number of Tx Queues: 0 (Auto) or 1 to 10 (fixed queue number). Default: Auto
  txring_bd_nr: uint
   Number of TX BD Buffers: 4096(min) 16384(max), must be power of two. Default: 4096

[root@esxi:~] localcli network nic software list
NIC      IPv4 CSO  IPv4 TSO  Scatter Gather  Offset Based Offload  VXLAN Encap  Geneve Offload  IPv6 TSO  IPv6 TSO Ext  IPv6 CSO  IPv6 CSO Ext  High DMA  Scatter Gather MP  VLAN Tagging  VLAN Untagging
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
vmnic10  off       off       off             off                   off          off             off       off           off       off           off       off                off           off

 

simultaneous infrastructure operations and the amount of shared storage?

$
0
0

I would like to know whether the simultaneous infrastructure operations' count is related to the amount of shared storage or not.

 

 

for VMmark 3.1, i'm planning to use iSCSI or SAN storage for the tests and if the simultaneous infrastructure operations is 4 in my lab environment, then should the amount of shared storage match this number(prepare 4 shared storage)?

Or the simultaneous infrastructure operations does not concern the  amount of shared storage at all?

is it only concern about the number of "DeployVMinfo"?

 

thanks in advance


vRops 8 admin account

$
0
0

After upgrading to vrops 8

I have to keep resting the admin account password to logon.

using

$VMWARE_PYTHON_BIN $VCOPS_BASE/../vmware-vcopssuite/utilities/sliceConfiguration/bin/vcopsSetAdminPassword.py --reset

 

 

after one logon with the account any new attempts fail with incorrect logon.

 

has anyone else seen this? 

Fusion 11.5 Windows 10 & Mac OS10.15.1. Unable to print from Windows

$
0
0

I have seen similar discussions here before on this but for me, none of the solutions work.

 

I have a Brother laser printer connected via USB to my iMac, running the latest O/S. Prints fine from Mac apps. I recently purchased Fusion 11.5 as my older version was incompatible with Catalina. Everything works fine except for printing. The only print devices that Windows can access is MS Print to PDF, MS XPS Document Writer, OneNote & Send to OneNote 2016.

 

I have reinstalled Fusion. I have reinstalled VMware Tools. I have reinstalled the Virtual Printer. Each time, shutting down and restarting as advised. Nothing!

 

I have tried adding a printer, but none could be found. I tried turning off and on the share Mac printer setting.

 

Then I decided to try removing the printer port and then re-adding it. Now it got interesting. I shut down the virtual machine, went to setting and clicked "Remove Printer Port". It warned me the this would disable automatic printer support. I thought that seeing as I didn't have any, I had nothing to lose. So I clicked 'remove' and it told me I did not have permission to do that. Five times it told the same thing then eventually it decided to do it. I then added the printer device back, restarted the VM, went to print something and... nothing again. Tried all the reinstalls again, still nothing.

 

Here's hoping somebody out there can spot which loop I forgot to climb through to make this 'automatic' process work - please!

Conectar NAS Synology a vSphere

$
0
0

Buenos días aver si me pueden ayudar,

 

Tengo un NAS Synology con DSM instalado. He configurado el ISCSI y el LUN en DSM siguiendo los pasos del tutorial de la siguiente página: (La parte donde conecta el NAS a un Windows no lo he hecho porque en mi caso no quiero conectarlo a ningún Windows)

 

Crear una iSCSI LUN en nuestro NAS Synology y conectarnos a ella [Diciembre 2019]

 

Hecho esto también he configurado un ESXI para añadir el NAS siguiendo los pasos del tutorial de la siguiente página:

 

DiskStation Manager - Knowledge Base | Synology Inc.

 

El problema llega cuando estoy en el paso 6, ya que hecha toda la configuración anterior refresco la pagina pero no me aparece el servidor de Synology, de modo que no puedo continuar con la configuración para añadir un nuevo Almacén de Datos.

 

¿Alguna idea de donde puede estar el fallo?

 

Gracias de antemano por la ayuda.

Could not establish secure channel for SSL/TLS with authority using PowerCLI.

$
0
0

I've already set the invalid certificate action to ignore.

Able to connect to vcenter using the web or desktop client just fine,

vShere6.5→vShere6.5U2適用方法について

$
0
0

お世話になっております。

 

お手数ですが標記の件、質問させて下さい。

 

==環境==============================================

全環境のESXi、vCenterのバージョンが現在、vShere6.5U無し

■A拠点

※HA#1

ESXi#1

仮想マシン数台

ESXi#2

仮想マシン数台

 

※HA#2

ESXi#3

  VCSA

  仮想マシン数台

ESXi#4

仮想マシン数台

ESXi#5

仮想マシン数台

 

残り2環境ありますが、A環境のVCSAが無いパターンとなります

全環境FCスイッチ経由で共有ストレージに接続されています

==================================================

質問1

vShere6.5-vShere6.5U2適用する場合

適用前の事前バックアップは以下の認識で良いでしょうか。

 VCSA:オンラインスナップショット

 ESXi:vim-cmd hostsvc/firmware/backup_configによる構成バックアップ

→U2適用後、稼働に問題があった場合の戻しを想定しています。

 

質問2

作業の大枠は以下の流れで合っていますでしょうか。

 構成のバックアップ

 vCenter Serverのアップグレード

 vCenter Serverの再起動

 vMotionで仮想マシンを退避

 メンテナンスモード

 ESXiアップデート

 ESXi再起動

 メンテナンスモード戻し

 vMotionで仮想マシン退避

 メンテナンスモード

 ESXiアップデート

 ESXi再起動

 メンテナンスモード戻し

 vMotionで仮想マシンを元の配置に戻す

 

残りの環境(vcenterが無い環境)も同様に実施する(vcenterの作業は無し)

 

質問3

気になる点として

・質問2でHA環境から外す必要は無いでしょうか。

・ESXiはSANスイッチ経由での接続になっていますが特に考慮は不要でしょうか。

 

その他、懸念点・考慮点があればご教授頂けますでしょうか。

 

以上、よろしくお願いします。

Viewing all 180923 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>