안녕하세요.

 

DVS는 vCenter에 연동되어서 관리 수정 삭제가 가능합니다.

하지만 ESXi SSH접속해서 DVS를 강제로 삭제 가능 합니다.

 

아래처럼 switch 리스트 확인. 

DVS - Distribute Switch 

 

[root@esxi01:~] esxcfg-vswitch -l
Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks
vSwitch0         4850        4           128               1500    vmnic0

  PortGroup Name                            VLAN ID  Used Ports  Uplinks
  VM Network                                0        0           vmnic0
  Management Network                        0        1           vmnic0

DVS Name         Num Ports   Used Ports  Configured Ports  MTU     Uplinks
DVS              4850        1           128               1500

  DVPort ID                               In Use      Client
  58                                      0
  59                                      0
  60                                      0
  61                                      0
  14                                      0
  22                                      0


[root@esxi01:~] net-dvs -d DVS
[root@esxi01:~] esxcfg-vswitch -l
Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks
DvsPortset-0     4850        1           128               1500

  PortGroup Name                            VLAN ID  Used Ports  Uplinks

Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks
vSwitch0         4850        4           128               1500    vmnic0

  PortGroup Name                            VLAN ID  Used Ports  Uplinks
  VM Network                                0        0           vmnic0
  Management Network                        0        1           vmnic0

DVS Name         Num Ports   Used Ports  Configured Ports  MTU     Uplinks
Listing failed for DVSwitch: DvsPortset-0, Error: Unable to get MTU: Status(bad0007)= Bad parameter
[root@esxi01:~]

 

 

안녕하세요.

 

오늘은 [VMware vCenter][#19]- vCenter에서 ESXi 연결 끊김 - 해결 방법에 대해서 알아보겠습니다.

 

아래 사진처럼 갑자기 ESXi 2호기, 3호기가 연결이 끊어졌고 다시 연결 버튼을 클릭해서 연결되지 않습니다. 

 

추측

 

  • hostd / vpxa 프로세스 중지 또는 응답 없음
  • RAM 부족 / datastore 꽉참으로 인해 ESXi 서비스 비정상
  • /var/log 꽉참 (로그 저장 공간 문제)
  • ESXi root 파티션 (system storage) 손상 또는 I/O 오류
  • 최근 업데이트나 패치 실패
  1. hostd 서비스 중단
    • ESXi 관리의 핵심 프로세스입니다.
    • 과부하, 스토리지 지연, 로그가 꽉 찬 경우 등으로 멈출 수 있습니다.
  2. vpxa 서비스 이상
    • vCenter에서 ESXi를 관리할 때 사용하는 agent입니다.
    • vCenter와의 세션 꼬임으로 중단될 수 있습니다.
  3. 디스크 또는 datastore 접근 지연
    • 스토리지 latency가 심하거나 NFS/iSCSI 연결이 끊겼을 때 발생합니다.
  4. /var/log 혹은 /tmp 파티션 가득 참
    • ESXi 시스템 영역이 가득 차면 hostd가 응답하지 않습니다.
  5. vCenter → host 통신 포트(443, 902, 8309 등) 차단
    • 방화벽 또는 내부 네트워크 이슈로 포트 통신이 안 될 때도 나타납니다.
    •  

 

ESXi 호스트 1호기/2호기/3호기 직접 접속 시도

 

아래처럼 에러 메시지가 뜨면서 접속이 실패 합니다.

503 Service Unavailable (Failed to connect to endpoint: [N7Vmacore4Http16LocalServiceSpecE:0x0000004389c6ddd0] _serverNamespace = / action = Allow _port = 8309)

 

 

1. ESXi 호스트에 SSH로 접속합니다.

hostd 또는 vpxa 데몬이 죽은거 같습니다. 상태를 확인 합니다.

테스트한 결과 hostd 데몬이 중지되었습니다. 

/etc/init.d/hostd status
/etc/init.d/vpxa status


[root@esxi01:~] /etc/init.d/hostd status
hostd is not running.
[root@esxi01:~] /etc/init.d/vpxa status
vpxa is running

 

 

2. hostd 데몬을 재시작 합니다.

/etc/init.d/hostd restart


[root@esxi01:~] /etc/init.d/hostd restart
watchdog-hostd[1173239]: Terminating watchdog process with PID 1051315
sh: you need to specify whom to kill
hostd started.

 

3. ESXi 1호기가 제대로 동작하는지 https://ESXi 접속해봅니다.

 

4. 이번에는 ESXi 2호기/3호기를 재부팅해보겠습니다.

 

 

지금까지 [VMware vCenter][#19]- vCenter에서 ESXi 연결 끊김 - 해결 방법 글을 읽어주셔서 감사합니다.

안녕하세요.

 

오늘은 [VMware vCenter][#18]- Traffic Shaping 에 대해서 알아보겠습니다.

 

VMware의 Traffic Shaping(트래픽 셰이핑) 은 네트워크 트래픽의 속도를 제어하거나 일정하게 유지하기 위한 기능입니다.
쉽게 말해, 가상머신이나 VMkernel 트래픽의 대역폭을 제한하거나 부드럽게 만드는 기능이에요.

 

1. 개념

Traffic Shaping = 네트워크 속도 제한 및 조절 기능

  • 특정 Port Group (VM Network, vMotion 등) 또는 Distributed Port Group (VDS) 에 설정합니다.
  • 패킷이 너무 많이 한꺼번에 나가지 않게 제어하여 네트워크 혼잡을 방지하고, 다른 트래픽과의 공정한 대역폭 사용을 보장합니다

2. 적용 위치

스위치                                                 종류                                                             트래픽 셰이핑 적용 위치 비고

VSS (Standard Switch) Outbound (나가는 트래픽만) 가능 호스트 → 외부로 나가는 트래픽 제어
VDS (Distributed Switch) Inbound + Outbound 둘 다 가능 더 세밀한 제어 가능 (vCenter 필요)

 

3. 주요 설정 항목

항목                                                   의미                                           설명

Average Bandwidth 평균 대역폭 (bps 단위) 기본적으로 허용되는 평균 속도
Peak Bandwidth 최대 대역폭 (bps 단위) 순간적으로 허용되는 최대 속도
Burst Size 버스트 크기 (bytes 단위) 순간적으로 초과 전송할 수 있는 데이터 양

 

4. 설정 예시

설정                                                  항목 값                                                           설명

Average Bandwidth 10,000,000 bps (10 Mbps) 평균적으로 10Mbps로 제한
Peak Bandwidth 20,000,000 bps (20 Mbps) 순간적으로 20Mbps까지 허용
Burst Size 102400 KB 최대 100MB까지 순간 전송 허용

 

5. 쉐이핑 동작 방식

 

  • ESXi 호스트는 전송할 트래픽을 내부 큐(queue)에 담습니다.
  • Traffic Shaping 설정값에 따라
    • 평균 속도를 넘지 않게 일정하게 내보냅니다.
    • 필요 시 버스트 크기 내에서 일시적으로 더 빠르게 전송합니다.
  • 설정된 대역폭을 초과한 트래픽은 대기하거나 드롭(drop)됩니다.

6. 설정 방

VSS 기준

  1. Networking → vSwitch0 → Port Group 선택
  2. Edit Settings
  3. Traffic Shaping → Enabled
  4. Average / Peak Bandwidth / Burst Size 입력
  5. Apply

VDS 기준

  1. Networking → Distributed Port Group
  2. Manage → Settings → Policies → Traffic Shaping
  3. Inbound / Outbound 각각 설정 가능

 

VSS (Standard Switch)의 한계

항목                                                     설명

단위 Port Group 단위로 설정
VM별 제어 ❌ 불가능
Inbound Shaping ❌ 불가능 (Outbound만 가능)
적용 대상 해당 Port Group에 연결된 모든 VM에 동일하게 적용

 

즉, VSS에서는 “이 포트그룹에 연결된 VM은 모두 평균 20Mbps로 제한” 이런 식으로만 가능합니다.
개별 VM마다 다르게 제한하려면 VDS를 써야 합니다.

 

VDS장점

VDS(VMware vSphere Distributed Switch) 에서는 트래픽 셰이핑을 개별 Port Level (즉, VM 단위) 로 설정할 수 있습니다.

기능                                                                       설명

Port-level Shaping VM NIC(포트)마다 별도로 Traffic Shaping 설정 가능
Inbound / Outbound 모두 가능 양방향 속도 제어 가능
QoS / NIOC 지원 Network I/O Control로 리소스 우선순위 조정 가능

 

 

 

그럼 설정해보겠습니다. VSS 기준입니다.

 

1. vCenter에 접속합니다.

2. 아래 사진처럼 동그라미 부분이 포트그룹입니다. 

테스트를 위해서 Managerment Network 햄버거 버튼을 클릭 후 수정 버튼을 클릭합니다. 

 

 

3. 체크하고 사용으로 변경후 아래처럼 평균 대여폭, 최대 대여폭 버스트 크기를 수정 가능합니다.

수정후 OK버튼을 클릭합니다. 

 

지금까지 [VMware vCenter][#18]- Traffic Shaping  글을 읽어주셔서 감사합니다.

안녕하세요.

 

오늘은 [VMware vCenter][#17]- VMkernel Adapter에 대해서 알아보겠습니다.

 

VMware에서 VMkernel Adapter (VMkernel Port, 또는 VMkernel Network Adapter)ESXi 호스트 자체의 통신용 네트워크 인터페이스입니다.
즉, 가상머신이 아닌 ESXi 시스템 자체가 네트워크를 통해 통신할 때 사용하는 포트입니다.

 

일반 가상머신(VM)Port Group (예: VM Network) 에 연결되어 외부 네트워크와 통신합니다.

ESXi 호스트 자체도 vMotion, NFS, iSCSI, 관리 트래픽 등을 위해 네트워크가 필요합니다. 이때 사용하는 것이 바로 VMkernel Adapter 입니다.

 

주요 용도

용도                                                      설명

Management Network vSphere Client나 vCenter에서 ESXi 호스트에 접속할 때 사용
vMotion VM을 다른 호스트로 실시간 이동할 때 사용되는 네트워크 트래픽
vSAN VMware vSAN 클러스터 내부의 데이터 동기화 트래픽
Fault Tolerance (FT) FT 활성화된 VM의 복제 트래픽용
NFS / iSCSI / vVols 스토리지 연결을 위한 네트워크
Provisioning 클론 생성, OVF 배포 등 트래픽 분리용

 

실제 예시

이름                        역할                                               IP 주소                                          VLAN              스위치

vmk0 Management 192.168.0.10 10 vSwitch0
vmk1 vMotion 192.168.1.10 20 vSwitch1
vmk2 vSAN 192.168.2.10 30 vSwitch2

 

1. 그럼 VMkener 어탭터를 생성해 보겠습니다.

호스트 IP -> 구성 -> VMkernel 어탭터 -> 네트워킹 추가 버튼을 클릭합니다. 

 

2. VMkerner 어탭터를 선택하고 Next버튼을 클릭합니다. 

 

3. 기존 스위치를 선택하고 Next버튼을 클릭합니다.

 

4.포트속성에서 네트워크 레이블은 vMotion 그리고 vMotion기능을 사용할수 있게 선택하고 next버튼을 클릭합니다. 

 

5. 정책 IP주소를 선택하고 IP주소를 입력합니다. 

 

6. Finish버튼을 클릭합니다. 

 

7. 아래처럼 vmk1이 생성되었고 vMotion용으로 사용 가능 합니다. 

 

 

이런 형식으로 VMkernel를 계속 생성 할수 있습니다.

지금까지 [VMware vCenter][#17]- VMkernel Adapter 글을 읽어주셔서 감사합니다. 

안녕하세요.

 

오늘은 [VMware vCenter][#16]- VSS - Virtual Standard Switch에 대해서 알아보겠습니다.

ESXi 호스트 개별 단위에서 네트워크를 관리하는 가상 스위치입니다.

DVS - Distribute Virtual Switch 사용없이 단순히 VSS를 사용하는 경우 ESXi 호스트별로 각각 VSS가 동작합니다.

ESXi 호스트별끼리 통신은 외부 스위치를 통해서 가능 합니다.

 

동작 방식은 아래와 같습니다. 우선 용어부터 정리합니다

 

구성                                                                           요소 설명

Port Group 가상 머신(VM)들이 연결되는 논리적 포트 그룹 (VLAN 지정 가능)
Uplink ESXi의 물리 NIC(pNIC)를 연결하는 포트
VMkernel Port 관리 트래픽, vMotion, NFS, iSCSI 등과 같은 시스템 트래픽용 포트
Security / Traffic Shaping / Teaming 설정 각 포트 그룹별로 보안, 부하분산 정책을 설정 가능

 

VDS랑 VSS비교

항목                                        VSS (Standard Switch)                           VDS (Distributed Switch)

관리 단위 호스트별 개별 설정 vCenter에서 중앙 집중식 관리
vCenter 필요 여부 ❌ 불필요 ✅ 필요
설정 복제 수동으로 각 호스트에 설정 자동으로 모든 호스트에 적용
고급 기능 기본 기능만 제공 고급 QoS, NetFlow, Port Mirroring 등
적용 환경 소규모/단일 호스트 환경 중대형 클러스터 환경

 

1. vCenter에 접속합니다.

호스트 > 구성 -> 네트워킹 -> 가상스위치를 선택합니다. 

현재 구성되어진 가상스위치가 보입니다. 

 

2. 네트워크 추가를 클릭합니다. 

 

3. 아래처럼 VMkernel를 생성, 표준 스위치, 포트그룹, 물리직 네트워크 어탭터를 스위치에 연결도 가능 합니다. 

 

4. 테스트를 위해서 VSS스위치를 생성해보겠습니다.

아래처럼 클릭하고 Next버튼을 클릭합니다. 

 

5. 기존 표준스위치를 선택하고 포트그룹을 생성 할수도 있고, 새 표준 스위치를 생성하고 포트그룹을 할당 할수 있습니다. 

새 표준 스위치를 선택하고 Next버튼을 클릭합니다. 

 

6. 외부통신없이 내부용으로 사용할려면 피지컬 랜 인터페이스 없이 그냥 다음 버튼을 클릭합니다. 

 

7. 경고창 무시하고 확인 버튼을 클릭합니다.

 

8. 네트워크 레이블이 포트그룹을 의미 합니다.

webtier를 입력하고 VLAN ID는 없이 그리고 Next버튼을 클릭 합니다. 

 

9. Finish 버튼을 클릭해서 생성합니다. 

 

10. 아래처럼 vSwitch1이 생성 되었습니다. 

물리적 어탭터를 할당하지 않아서 어탭터 없음으로 표시 됩니다.

 

 

11. VM 편집에 들어가서 Network Adapter를 확인해 봅니다.

 

11. 찾아보기를 클릭합니다. 

12. webtier 포트그룹을 선택하고 확인 버튼을 클릭합니다. 

 

이렇게 사용 가능 합니다. 

VSS는 ESXi 호스트에서 단독으로 실행중인 Virtual 스위치입니다.

 

13. 테스트를 위해서 다른 VMware ESXi 호스트 VM에서 편집을 누르고 webtier 포트그룹이 있는지 확인해봅니다.

찾아보기 클릭합니다. 

webtier 포트그룹이 없습니다. 

 

당연히 VMware ESXi 호스트에 가상 스위치도 한개 밖에 없습니다.

 

이번에는 DBtier 포트그룹을 vSwitch1에 추가해보겠습니다.

 

네트워킹 추가버튼을 클릭합니다. 

아래 처럼 선택하고 next버튼을 클릭합니다. 

 

 

DBtier를 입력하고 Next버튼을 클릭합니다. 그리고 Finish 버튼을 클릭 합니다. 

 

아래처럼 vSwitch1에 포트그룹이 생성 되었습니다 

 

 

지금까지 [VMware vCenter][#16]- VSS - Virtual Standard Switch  글을 읽어주셔서 감사합니다. 

안녕하세요. 

 

오늘은 CentOS 7에서 SSH 서버(원격 접속용) 를 설치하고 실행하는 방법을 아래에 단계별로 설명드릴게요.

 

1. SSH 서버 설치

sudo yum install -y openssh-server

 

2. SSH 서비스 시작 및 자동 실행 설정

sudo systemctl start sshd
sudo systemctl enable sshd

 

3. SSH 상태 확인

[root@localhost ~]# sudo systemctl status sshd
● sshd.service - OpenSSH server daemon
   Loaded: loaded (/usr/lib/systemd/system/sshd.service; enabled; vendor preset: enabled)
   Active: active (running) since Fri 2025-10-17 21:33:51 EDT; 16min ago
     Docs: man:sshd(8)
           man:sshd_config(5)
 Main PID: 1180 (sshd)
   CGroup: /system.slice/sshd.service
           └─1180 /usr/sbin/sshd -D

Oct 17 21:33:51 localhost.localdomain systemd[1]: Starting OpenSSH server dae...
Oct 17 21:33:51 localhost.localdomain sshd[1180]: Server listening on 0.0.0.0...
Oct 17 21:33:51 localhost.localdomain sshd[1180]: Server listening on :: port...
Oct 17 21:33:51 localhost.localdomain systemd[1]: Started OpenSSH server daemon.
Oct 17 21:34:25 localhost.localdomain sshd[9338]: Accepted password for root ...
Hint: Some lines were ellipsized, use -l to show in full.
[root@localhost ~]#

 

4. putty 를 사용해서 접속 테스트

 

 

지금까지 [CentOS7][#3]- ssh 서버 설치 글을 읽어주셔서 감사합니다. 

'리눅스 > CentOS7' 카테고리의 다른 글

[CentOS7][#2]- centos7 EOL yum update 하기  (0) 2025.10.18
[CentOS7][#1]- IP 수동 설정  (0) 2025.10.18

안녕하세요.

 

오늘은 CentOS7은 이미 EOL되었습니다. 

yum 커맨드를 사용 하더라도 아래처럼 에러 메시지가 표시 되면서 yum 커맨드를 사용 할 수 없습니다.

 

could not resolve host: mirrorlist.centos.org

CentOS 7은 2024년 6월 30일부로 EOL(End of Life) 되었기 때문에,
공식 미러 서버(mirrorlist.centos.org)가 더 이상 서비스되지 않습니다.
그래서 yum 명령 시 아래와 같은 오류가 뜨게 됩니다 👇

 

repo를 변경해서 해결 할수 있습니다. 

 

1. 기존 repo 백업

sudo mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup

 

2. 새 repo 파일 생성

sudo vi /etc/yum.repos.d/CentOS-Base.repo

 

3. 아래 내용 복사 후 붙여넣기

# CentOS-Base.repo for CentOS 7 Vault

[base]
name=CentOS-7 - Base
baseurl=http://vault.centos.org/7.9.2009/os/$basearch/
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7

[updates]
name=CentOS-7 - Updates
baseurl=http://vault.centos.org/7.9.2009/updates/$basearch/
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7

[extras]
name=CentOS-7 - Extras
baseurl=http://vault.centos.org/7.9.2009/extras/$basearch/
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7

 

4. 캐시 정리 및 업데이트 테스트

sudo yum clean all
sudo yum makecache
sudo yum update

 

[root@localhost ~]# yum clean all
Loaded plugins: fastestmirror
Cleaning repos: base extras updates
Cleaning up list of fastest mirrors
Other repos take up 368 M of disk space (use --verbose for details)
[root@localhost ~]#

[root@localhost ~]# yum makecache
Loaded plugins: fastestmirror
Determining fastest mirrors
base                                                     | 3.6 kB     00:00
extras                                                   | 2.9 kB     00:00
updates                                                  | 2.9 kB     00:00
(1/10): base/x86_64/group_gz                               | 153 kB   00:00
(2/10): base/x86_64/primary_db                             | 6.1 MB   00:01
(3/10): extras/x86_64/filelists_db                         | 305 kB   00:00
(4/10): extras/x86_64/other_db                             | 154 kB   00:00
(5/10): base/x86_64/other_db                               | 2.6 MB   00:00
(6/10): base/x86_64/filelists_db                           | 7.2 MB   00:02
(7/10): extras/x86_64/primary_db                           | 253 kB   00:01
(8/10): updates/x86_64/filelists_db                        |  15 MB   00:05
(9/10): updates/x86_64/other_db                            | 1.6 MB   00:00
(10/10): updates/x86_64/primary_db                         |  27 MB   00:07
Metadata Cache Created
[root@localhost ~]#

---- 저는 이미 yum update명령어를 사용해서 업데이트 해서 더 이상 없데이트 할꺠 없습니다. --

[root@localhost ~]# yum update
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
No packages marked for update
[root@localhost ~]#

 

위에 처럼 에러 메시지가 발생하지 않습니다.

httpd를 설치 해보겠습니다. 아래처럼 에러 없이 잘 동작합니다. 

[root@localhost ~]# yum install httpd
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
Resolving Dependencies
--> Running transaction check
---> Package httpd.x86_64 0:2.4.6-99.el7.centos.1 will be installed
--> Processing Dependency: httpd-tools = 2.4.6-99.el7.centos.1 for package: httpd-2.4.6-99.el7.centos.1.x86_64
--> Processing Dependency: /etc/mime.types for package: httpd-2.4.6-99.el7.centos.1.x86_64
--> Processing Dependency: libaprutil-1.so.0()(64bit) for package: httpd-2.4.6-99.el7.centos.1.x86_64
--> Processing Dependency: libapr-1.so.0()(64bit) for package: httpd-2.4.6-99.el7.centos.1.x86_64
--> Running transaction check
---> Package apr.x86_64 0:1.4.8-7.el7 will be installed
---> Package apr-util.x86_64 0:1.5.2-6.el7_9.1 will be installed
---> Package httpd-tools.x86_64 0:2.4.6-99.el7.centos.1 will be installed
---> Package mailcap.noarch 0:2.1.41-2.el7 will be installed
--> Finished Dependency Resolution

Dependencies Resolved

================================================================================
 Package           Arch         Version                     Repository     Size
================================================================================
Installing:
 httpd             x86_64       2.4.6-99.el7.centos.1       updates       2.7 M
Installing for dependencies:
 apr               x86_64       1.4.8-7.el7                 base          104 k
 apr-util          x86_64       1.5.2-6.el7_9.1             updates        92 k
 httpd-tools       x86_64       2.4.6-99.el7.centos.1       updates        94 k
 mailcap           noarch       2.1.41-2.el7                base           31 k

Transaction Summary
================================================================================
Install  1 Package (+4 Dependent packages)

Total download size: 3.0 M
Installed size: 10 M
Is this ok [y/d/N]:

 

지금까지 [CentOS7][#2]- centos7 EOL yum update 하기 글을 읽어주셔서 감사합니다. 

'리눅스 > CentOS7' 카테고리의 다른 글

[CentOS7][#3]- ssh 서버 설치  (0) 2025.10.18
[CentOS7][#1]- IP 수동 설정  (0) 2025.10.18

안녕하세요. 

 

현재에도 개발이 CentOS7으로 되어진 경우가 많아서 지금도 CentOS7를 사용를 많이 합니다. 

 

오늘은 CentOS7 IP 주소를 수동 설정하는 방법에 대해서 알아보겠습니다.

 

저는 CentOS7를 VMware ESXi안에 설치 하였습니다. 

 

1. 먼저 현재 IP주소 확인하는 방법

[root@localhost ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: eno16780032: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:0c:29:3f:57:45 brd ff:ff:ff:ff:ff:ff
    inet 192.168.110.204/24 brd 192.168.110.255 scope global eno16780032
       valid_lft forever preferred_lft forever
    inet6 fe80::20c:29ff:fe3f:5745/64 scope link
       valid_lft forever preferred_lft forever
[root@localhost ~]#

 

VMware에서 운영중이기 떄문에 eno16780032로 표시 됩니다.

 

[root@localhost ~]# cd /etc/sysconfig/network-scripts/
[root@localhost network-scripts]# pwd
/etc/sysconfig/network-scripts
[root@localhost network-scripts]# ls
ifcfg-eno16780032  ifdown-eth   ifdown-isdn    ifdown-sit       ifup          ifup-ib    ifup-plip   ifup-routes    ifup-tunnel        network-functions-ipv6
ifcfg-lo           ifdown-ib    ifdown-post    ifdown-Team      ifup-aliases  ifup-ippp  ifup-plusb  ifup-sit       ifup-wireless
ifdown             ifdown-ippp  ifdown-ppp     ifdown-TeamPort  ifup-bnep     ifup-ipv6  ifup-post   ifup-Team      init.ipv6-global
ifdown-bnep        ifdown-ipv6  ifdown-routes  ifdown-tunnel    ifup-eth      ifup-isdn  ifup-ppp    ifup-TeamPort  network-functions
[root@localhost network-scripts]#

 

/etc/sysconfig/network-scripts에 표면 아래처럼 ifcfg-eno16780032있습니다. 

이 부분에 vi ifcfg-eno16780032 설정값을 수정 합니다. 

[root@localhost network-scripts]#  vi ifcfg-eno16780032

TYPE=Ethernet
DEFROUTE=yes
PEERDNS=yes
PEERROUTES=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
NAME=eno16780032
UUID=d80cb652-ecc4-418c-a284-169e7301dd57
DEVICE=eno16780032

------------------------------------- 이 아래 부분을 설정해줍니다. 
BOOTPROTO=static
ONBOOT=yes
IPADDR=192.168.110.204
PREFIX=24
GATEWAY=192.168.110.1
DNS1=8.8.8.8
DNS2=8.8.4.4

 

network 데몬을 재시작합니다.

systemctl restart network

 

그리고 ip addr를 통해서 IP주소를 확인합니다.

[root@localhost ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: eno16780032: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:0c:29:3f:57:45 brd ff:ff:ff:ff:ff:ff
    inet 192.168.110.204/24 brd 192.168.110.255 scope global noprefixroute eno16780032
       valid_lft forever preferred_lft forever
    inet6 fe80::20c:29ff:fe3f:5745/64 scope link noprefixroute
       valid_lft forever preferred_lft forever
[root@localhost ~]#

 

network를 재시작하거나 재부팅해도 똑같은 IP주소를 사용 할수 있습니다

 

마지막으로 인터넷 테스트 입니다. 

[root@localhost ~]# ping 8.8.8.8
PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
64 bytes from 8.8.8.8: icmp_seq=1 ttl=116 time=1.93 ms
64 bytes from 8.8.8.8: icmp_seq=2 ttl=116 time=1.94 ms
64 bytes from 8.8.8.8: icmp_seq=3 ttl=116 time=1.79 ms
64 bytes from 8.8.8.8: icmp_seq=4 ttl=116 time=1.94 ms
64 bytes from 8.8.8.8: icmp_seq=5 ttl=116 time=1.88 ms
64 bytes from 8.8.8.8: icmp_seq=6 ttl=116 time=1.89 ms

 

지금까지 [CentOS7][#1]- IP 수동 설정 글을 읽어주셔서 감사합니다. 

'리눅스 > CentOS7' 카테고리의 다른 글

[CentOS7][#3]- ssh 서버 설치  (0) 2025.10.18
[CentOS7][#2]- centos7 EOL yum update 하기  (0) 2025.10.18

안녕하세요.

 

오늘은 [VMware vCenter][#15]- vCenter에서 OVF 설치 - deploy에 대해서 알아보겠습니다.

 

저번에 OVF파일을 내보내기에 대해서 알아보았습니다.

 

1.다운로드 폴더에서 OVF 파일들을 확인 합니다. 

 

2, vCenter에 접속합니다. 

3. OVF 템플릿 배포를 클릭 합니다. 

 

4. 로컬 파일를 클릭하고 파일 업로드 버튼을 클릭합니다. 

 

5. OVF파일에 추출되었던 파일을 모두 선택하고 열기 버튼을 클릭합니다. 

 

6. 다음버튼을 클릭 합니다. 

 

7. 가상 시스템 이름를 입력하고 DC01을 선택하고 다음버튼을 클릭합니다. 

 

8. 192.168.110.142 호스트를 선택하고 다음 버튼을 클릭합니다. 

 

9. 다음버튼을 클릭합니다. 

 

10. 첫번째 하드디스크를 선택하고 다음 버튼을 클릭합니다. 

 

11. 다음버튼을 클릭합니다. 

 

12. 완료 버튼을 클릭합니다. 

 

12.아래처럼 OVF배포가 진행중에 있습니다. 완료 될때까지 기다립니다. 

 

13. OVF 템플릿 배포가 완되면 WIN10-OVF VM를 전원켜고 부팅합니다.

 

14. 웹콘솔을 클릭합니다. 

 

15. 업데이트가 완료 될때까지 기다립니다.

 

지금까지 [VMware vCenter][#15]- vCenter에서 OVF 설치 - 배포 가져오기 글을 읽어주셔서 감사합니다. 

 

안녕하세요.

 

오늘은 [VMware vCenter][#14]- vCenter에서 OVF Template 사용하기에 대해서 알아보겠습니다.

 

OVF란?

OVF (Open Virtualization Format) 는 가상머신을 표준화된 형식으로 내보내거나 배포할 때 사용하는 포맷입니다.
즉, **“VM을 하나의 패키지로 묶은 파일 형식”**이에요. VMwrare만 사용하는게 아니라 다른 하이버바이저에서도 사용 가능한 표준탬블렛 있습니다.

 

확장자 종류

확장자                         설명

.ovf 가상머신의 구성 정보(XML 형태)
.vmdk 가상 디스크 파일 (실제 데이터 저장)
.mf 무결성 검증용 해시 정보 (SHA-1 등)
.ova 위 3개를 하나로 압축한 단일 파일 (tar 형식)

 

OVF는 폴더 형식, OVA는 “한 덩어리 파일(zip 형태)”로 생각하시면 됩니다.

 

⚙️ OVF / OVA의 주요 용도

용도                                                        설명

VM 백업 및 이전 다른 ESXi나 vCenter로 손쉽게 이전 가능
가상 어플라이언스 배포 VMware, Fortinet, Zabbix 등에서 제공하는 .ova 이미지 설치
클라우드 마이그레이션 AWS, Azure, VirtualBox 등에서도 호환 가능
템플릿 공유 표준화된 VM 환경을 동료/고객에게 전달 가능

 

🧩 OVF vs OVA 비교

항목                            OVF                                                                       OVA

구조 여러 파일로 구성 하나의 파일로 압축
이동성 파일 여러 개 단일 파일, 배포 편리
수정성 구성 파일 수정 가능 내부 수정 불편
사용 예 개발 테스트, 내부 관리 배포용, 상용 제품 이미지

 

** OVF 탬플렛 방식은 VM이 전원이 종료되어진 상태에서 내보내기가 가능 합니다. **

 

1. vCenter에 접속합니다.

2. WIN10를 종료하고 마우스 커서 위치를 WIN10 VM에 위치한 후 마우스 오른쪽버튼을 클릭합니다.

3. 템블릿 -> OVF 템플릿 내보내기를 클릭합니다. 

 

4. 이름을 WIN10-OVF로 입력하고 확인 버튼을 클릭합니다.

5. 아래처럼 OVF 내보내기가 진행이 됩니다. 

6.  다운로드창에서는 아래처럼 다운로드가 진행이 됩니다. 

7. 아래처럼 파일이 다운로드 되었습니다. 

 

지금까지 [VMware vCenter][#14]- vCenter에서 OVF Template 내보내기 글을 읽어주셔서 감사합니다. 

+ Recent posts