网络的路由配置以及Centos7的网络组实现

1、路由配置

路由是互联网络的核心,没有路由的网络如同一座孤岛,掌握路由的配置是IT人员的必备技能。

例如:现在有三台主机需要通信,其中A和B在同一网段,C在另一网段,这两个网段有三个路由相隔,如何实现他们之间的通信呢?

wKiom1fTeJ_Cpe-kAABTEe9nLZ4515.jpg

主机A:IP=192.168.1.100/24

主机B:IP=192.168.1.63/24

主机C:IP=10.2.110.100/16

R1的接口0:IP=192.168.1.1/24,接口1:IP=110.1.24.10/24

R2的接口0:IP=110.1.24.20/24,接口1:IP=72.98.2.10/16

R3的接口0:IP=72.98.70.20/16,接口1:IP=10.2.0.1/16


通过分析上面的网络环境,可以得到R1,R2和R3的路由信息,这里我们指定每一个路由的静态路由表

R1:路由表

网段         网关        接口

192.168.1.0/24    0.0.0.0/0      eth0

110.1.24.10/24    0.0.0.0/0      eth1

72.98.0.0/16     110.1.24.20     eth1

10.2.0.0/16      110.1.24.20      eth1

0.0.0.0/0       110.1.24.20     eth1


R2:路由表

网段         网关        接口

192.168.1.0/24    110.1.24.10     eth0

110.1.24.10/24    0.0.0.0/0      eth0

72.98.0.0/16     0.0.0.0/0      eth1

10.2.0.0/16     72.98.70.20      eth1

0.0.0.0/0      外网IP(这里不写)


R3:路由表

网段         网关        接口

192.168.1.0/24            72.98.2.10                 eth0

110.1.24.10/24    72.98.2.10      eth0

72.98.0.0/16               0.0.0.0/0                   eth0

10.2.0.0/16     0.0.0.0/0      eth1

0.0.0.0/0        72.98.2.10       eth0  


这里用3台centos系统作为路由

用node1主机来做route1

[root@node1 ~]# ip addr show dev eth1 
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:e2:96:7c brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.1/24 scope global eth1
    inet6 fe80::20c:29ff:fee2:967c/64 scope link 
       valid_lft forever preferred_lft forever
[root@node1 ~]# ip addr show dev eth2
4: eth2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:e2:96:86 brd ff:ff:ff:ff:ff:ff
    inet 110.1.24.10/24 scope global eth2
    inet6 fe80::20c:29ff:fee2:9686/64 scope link 
       valid_lft forever preferred_lft forever
[root@node1 ~]# route add -net 10.2.0.0/16 gw 110.1.24.20 dev eth2
[root@node1 ~]# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
192.168.1.0     0.0.0.0         255.255.255.0   U     0      0        0 eth1
110.1.24.0      0.0.0.0         255.255.255.0   U     0      0        0 eth2
10.2.0.0        110.1.24.20     255.255.0.0     UG    0      0        0 eth2
72.98.0.0       110.1.24.20     255.255.0.0     UG    0      0        0 eth2
10.1.0.0        0.0.0.0         255.255.0.0     U     0      0        0 eth0
169.254.0.0     0.0.0.0         255.255.0.0     U     1002   0
[root@node1 ~]# echo 1 > /proc/sys/net/ipv4/ip_forward

note2用来做route2

[root@node2 ~]# ip addr add 110.1.24.20/24 dev eth1
[root@node2 ~]# ip addr add 72.98.2.10/16 dev eth2
[root@node2 ~]# ip addr show dev eth1
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:00:90:24 brd ff:ff:ff:ff:ff:ff
    inet 110.1.24.20/24 scope global eth1
    inet6 fe80::20c:29ff:fe00:9024/64 scope link 
       valid_lft forever preferred_lft forever
[root@node2 ~]# ip addr show dev eth2
4: eth2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:00:90:2e brd ff:ff:ff:ff:ff:ff
    inet 72.98.2.10/16 scope global eth2
    inet6 fe80::20c:29ff:fe00:902e/64 scope link 
       valid_lft forever preferred_lft forever
[root@node2 ~]# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
110.1.24.0      0.0.0.0         255.255.255.0   U     0      0        0 eth1
72.98.0.0       0.0.0.0         255.255.0.0     U     0      0        0 eth2
10.1.0.0        0.0.0.0         255.255.0.0     U     0      0        0 eth0
169.254.0.0     0.0.0.0         255.255.0.0     U     1002   0        0 eth0
169.254.0.0     0.0.0.0         255.255.0.0     U     1003   0        0 eth1
[root@node2 ~]# route add -net 192.168.1.0/24 gw 110.1.24.10 dev eth1
[root@node2 ~]# route add -net 10.2.0.0/16 gw 72.98.70.20 dev eth2
[root@node2 ~]# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
192.168.1.0     110.1.24.10     255.255.255.0   UG    0      0        0 eth1
110.1.24.0      0.0.0.0         255.255.255.0   U     0      0        0 eth1
10.2.0.0        72.98.70.20     255.255.0.0     UG    0      0        0 eth2
72.98.0.0       0.0.0.0         255.255.0.0     U     0      0        0 eth2
10.1.0.0        0.0.0.0         255.255.0.0     U     0      0        0 eth0
169.254.0.0     0.0.0.0         255.255.0.0     U     1002   0        0 eth0
169.254.0.0     0.0.0.0         255.255.0.0     U     1003   0        0 eth1
[root@node2 ~]# echo 1 > /proc/sys/net/ipv4/ip_forward

note3用来做route3

[root@node3 ~]# ip addr add 72.98.70.20/16 dev eth1
[root@node3 ~]# ip addr add 10.2.0.1/16 dev eth2
[root@node3 ~]# ip addr show dev eth1
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:47:d8:e1 brd ff:ff:ff:ff:ff:ff
    inet 72.98.70.20/16 scope global eth1
    inet6 fe80::20c:29ff:fe47:d8e1/64 scope link 
       valid_lft forever preferred_lft forever
[root@node3 ~]# ip addr show dev eth2
4: eth2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:47:d8:eb brd ff:ff:ff:ff:ff:ff
    inet 10.2.0.1/16 scope global eth2
    inet6 fe80::20c:29ff:fe47:d8eb/64 scope link 
       valid_lft forever preferred_lft forever
[root@node3 ~]# route add -net 110.1.24.0/24 gw 72.98.2.10 dev eth1
[root@node3 ~]# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
192.168.1.0     72.98.2.10      255.255.255.0   UG    0      0        0 eth1
110.1.24.0      72.98.2.10      255.255.255.0   UG    0      0        0 eth1
10.2.0.0        0.0.0.0         255.255.0.0     U     0      0        0 eth2
72.98.0.0       0.0.0.0         255.255.0.0     U     0      0        0 eth1
10.1.0.0        0.0.0.0         255.255.0.0     U     0      0        0 eth0
169.254.0.0     0.0.0.0         255.255.0.0     U     1002   0        0 eth0
169.254.0.0     0.0.0.0         255.255.0.0     U     1003   0        0 eth1
[root@node3 ~]# echo 1 > /proc/sys/net/ipv4/ip_forward

主机A:

[root@host1 ~]# ip addr add 192.168.1.100/24 dev eno33554984
[root@host1 ~]# ip route add default via 192.168.1.1
[root@host1 ~]# ip addr show dev eno33554984
3: eno33554984: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:2b:82:a6 brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.100/24 scope global eno33554984
       valid_lft forever preferred_lft forever
    inet6 fe80::20c:29ff:fe2b:82a6/64 scope link 
       valid_lft forever preferred_lft forever
[root@host1 ~]# route -n
-bash: route: command not found
[root@host1 ~]# ip route show
10.1.0.0/16 dev eno16777736  proto kernel  scope link  src 10.1.70.171  metric 100 
192.168.1.0/24 dev eno33554984  proto kernel  scope link  src 192.168.1.100 
0.0.0.0 via 192.168.1.1 dev eno33554984

主机B:

[root@host2 ~]# ip addr show dev eno33554984
3: eno33554984: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:aa:22:47 brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.63/24 scope global eno33554984
       valid_lft forever preferred_lft forever
    inet6 fe80::20c:29ff:feaa:2247/64 scope link 
       valid_lft forever preferred_lft forever
[root@host2 ~]# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
10.1.0.0        0.0.0.0         255.255.0.0     U     100    0        0 eno16777736
192.168.1.0     0.0.0.0         255.255.255.0   U     0      0        0 eno33554984
0.0.0.0    192.168.1.1     255.255.255.255 UGH   0      0        0 eno33554984

主机C:

root@debian:~# ip addr show dev eth1
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 00:0c:29:f1:04:08 brd ff:ff:ff:ff:ff:ff
    inet 10.2.110.100/16 scope global eth1
       valid_lft forever preferred_lft forever
root@debian:~# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
10.1.0.0        0.0.0.0         255.255.0.0     U     0      0        0 eth0
10.2.0.0        0.0.0.0         255.255.0.0     U     0      0        0 eth1
0.0.0.0    10.2.0.1        255.255.255.255 UGH   0      0        0 eth1
root@debian:~#

至此所有配置已经结束,关闭所有主机的网关和selinux

测试:

在主机C上:

root@debian:~# ping -I eth1 192.168.1.1
PING 192.168.1.1 (192.168.1.1) from 10.2.110.100 eth1: 56(84) bytes of data.
64 bytes from 192.168.1.1: icmp_seq=1 ttl=62 time=0.691 ms
64 bytes from 192.168.1.1: icmp_seq=2 ttl=62 time=1.17 ms
^C
--- 192.168.1.1 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1000ms
rtt min/avg/max/mdev = 0.691/0.931/1.171/0.240 ms
root@debian:~# ping -I eth1 192.168.1.63
PING 192.168.1.63 (192.168.1.63) from 10.2.110.100 eth1: 56(84) bytes of data.
64 bytes from 192.168.1.63: icmp_seq=1 ttl=61 time=1.22 ms
64 bytes from 192.168.1.63: icmp_seq=2 ttl=61 time=0.927 ms
^C
--- 192.168.1.63 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1001ms
rtt min/avg/max/mdev = 0.927/1.074/1.221/0.147 ms
root@debian:~# ping -I eth1 192.168.1.100
PING 192.168.1.100 (192.168.1.100) from 10.2.110.100 eth1: 56(84) bytes of data.
64 bytes from 192.168.1.100: icmp_seq=1 ttl=61 time=1.21 ms
64 bytes from 192.168.1.100: icmp_seq=2 ttl=61 time=1.78 ms
^C
--- 192.168.1.100 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1001ms
rtt min/avg/max/mdev = 1.214/1.497/1.780/0.283 ms
root@debian:~#

在主机A上:

[root@host1 ~]# ping -I eno33554984 10.2.110.100
PING 10.2.110.100 (10.2.110.100) from 192.168.1.100 eno33554984: 56(84) bytes of data.
64 bytes from 10.2.110.100: icmp_seq=1 ttl=61 time=0.985 ms
64 bytes from 10.2.110.100: icmp_seq=2 ttl=61 time=1.09 ms
64 bytes from 10.2.110.100: icmp_seq=3 ttl=61 time=1.89 ms
64 bytes from 10.2.110.100: icmp_seq=4 ttl=61 time=2.00 ms
^C
--- 10.2.110.100 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3005ms
rtt min/avg/max/mdev = 0.985/1.493/2.008/0.459 ms
[root@host1 ~]#

在主机B上:

[root@host2 ~]# ping -I eno33554984 10.2.110.100
PING 10.2.110.100 (10.2.110.100) from 192.168.1.63 eno33554984: 56(84) bytes of data.
64 bytes from 10.2.110.100: icmp_seq=1 ttl=61 time=1.15 ms
64 bytes from 10.2.110.100: icmp_seq=2 ttl=61 time=1.93 ms
64 bytes from 10.2.110.100: icmp_seq=3 ttl=61 time=0.979 ms
^C
--- 10.2.110.100 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2003ms
rtt min/avg/max/mdev = 0.979/1.355/1.930/0.412 ms
[root@host2 ~]# ping -I eno33554984 72.98.70.20
PING 72.98.70.20 (72.98.70.20) from 192.168.1.63 eno33554984: 56(84) bytes of data.
64 bytes from 72.98.70.20: icmp_seq=1 ttl=62 time=0.751 ms
64 bytes from 72.98.70.20: icmp_seq=2 ttl=62 time=0.807 ms
64 bytes from 72.98.70.20: icmp_seq=3 ttl=62 time=1.33 ms
^C
--- 72.98.70.20 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2000ms
rtt min/avg/max/mdev = 0.751/0.964/1.335/0.264 ms
[root@host2 ~]# ping -I eno33554984 72.98.70.10  ###不知道为啥ping不通
PING 72.98.70.10 (72.98.70.10) from 192.168.1.63 eno33554984: 56(84) bytes of data.
From 110.1.24.20 icmp_seq=1 Destination Host Unreachable
From 110.1.24.20 icmp_seq=2 Destination Host Unreachable
From 110.1.24.20 icmp_seq=3 Destination Host Unreachable
^C
--- 72.98.70.10 ping statistics ---
5 packets transmitted, 0 received, +3 errors, 100% packet loss, time 4002ms
pipe 4
[root@host2 ~]# ping -I eno33554984 110.1.24.20
PING 110.1.24.20 (110.1.24.20) from 192.168.1.63 eno33554984: 56(84) bytes of data.
64 bytes from 110.1.24.20: icmp_seq=1 ttl=63 time=0.556 ms
64 bytes from 110.1.24.20: icmp_seq=2 ttl=63 time=2.15 ms
64 bytes from 110.1.24.20: icmp_seq=3 ttl=63 time=0.972 ms
^C
--- 110.1.24.20 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2002ms
rtt min/avg/max/mdev = 0.556/1.228/2.157/0.678 ms
[root@host2 ~]# ping -I eno33554984 110.1.24.10
PING 110.1.24.10 (110.1.24.10) from 192.168.1.63 eno33554984: 56(84) bytes of data.
64 bytes from 110.1.24.10: icmp_seq=1 ttl=64 time=0.282 ms
64 bytes from 110.1.24.10: icmp_seq=2 ttl=64 time=0.598 ms
64 bytes from 110.1.24.10: icmp_seq=3 ttl=64 time=0.367 ms
^C
--- 110.1.24.10 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2000ms
rtt min/avg/max/mdev = 0.282/0.415/0.598/0.135 ms
[root@host2 ~]#

2.centos7的网络组实现

网络组类似于centos6的bond,都是多个网卡使用一个IP,是增强网络健壮性的一个手段

网络组:是将多个网卡聚合在一起方法,从而实现冗错和提高吞吐量

网络组不同于旧版中bonding技术,提供更好的性能和扩展性

网络组由内核驱动和teamd守护进程实现.包名是teamd

启动网络组接口不会自动启动网络组中的port接口
启动网络组接口中的port接口不会自动启动网络组接口
禁用网络组接口会自动禁用网络组中的port接口
没有port接口的网络组接口可以启动静态IP连接
启用DHCP连接时,没有port接口的网络组会等待port接口的加入

具体的runner方式可以查看man 5 teamd.conf帮助

创建网络组接口:

[root@linux ~]# nmcli con add type team con-name test ifname team0 config '{"runner":{"name":"activebackup"}}'
Connection 'test' (5a3bfb26-993f-45ad-add6-246ff419e7bd) successfully added.

此时在网络配置目录下生成了一个文件

[root@linux ~]# ls /etc/sysconfig/network-scripts/ifcfg-test 
/etc/sysconfig/network-scripts/ifcfg-test
[root@linux ~]# nmcli dev show  team0
GENERAL.DEVICE:                         team0
GENERAL.TYPE:                           team
GENERAL.HWADDR:                         82:D0:69:2C:48:6E
GENERAL.MTU:                            1500
GENERAL.STATE:                          70 (connecting (getting IP configuration))
GENERAL.CONNECTION:                     test
GENERAL.CON-PATH:                       /org/freedesktop/NetworkManager/ActiveConnection/3
[root@linux ~]# nmcli con show 
NAME         UUID                                  TYPE            DEVICE      
eno33554984  fb67dbad-ec81-39b4-42b1-ebf975c3ff13  802-3-ethernet  eno33554984 
eno16777736  d329fbf7-4423-4a10-b097-20b266c26768  802-3-ethernet  eno16777736 
eno50332208  d2665055-8e83-58f1-e9e3-49a5fb133641  802-3-ethernet  eno50332208 
test         5a3bfb26-993f-45ad-add6-246ff419e7bd  team            team0

给team0设置静态IP和开机自启动

[root@linux ~]# nmcli con mod test ipv4.method manual ipv4.addresses "10.1.70.24/16" connection.autoconnect yes
[root@linux ~]# cat /etc/sysconfig/network-scripts/ifcfg-test 
DEVICE=team0
TEAM_CONFIG="{\"runner\":{\"name\":\"activebackup\"}}"
DEVICETYPE=Team
BOOTPROTO=none
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
NAME=test
UUID=5a3bfb26-993f-45ad-add6-246ff419e7bd
ONBOOT=yes
IPADDR=10.1.70.24
PREFIX=16
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
[root@linux ~]#

创建两个port接口

[root@linux ~]# nmcli con add type team-slave con-name test-1 ifname eno33554984 master team0  
Connection 'test-1' (234c3e91-d90d-421c-ae88-133deddfce94) successfully added.
[root@linux ~]# nmcli con add type team-slave con-name test-2 ifname eno50332208 master team0  
Connection 'test-2' (116ef596-d983-456c-a6ae-a74a4f8c03dc) successfully added.
[root@linux ~]#
[root@linux ~]# cat /etc/sysconfig/network-scripts/ifcfg-test-1 
NAME=test-1
UUID=234c3e91-d90d-421c-ae88-133deddfce94
DEVICE=eno33554984
ONBOOT=yes
TEAM_MASTER=team0
DEVICETYPE=TeamPort
[root@linux ~]# cat /etc/sysconfig/network-scripts/ifcfg-test-2
NAME=test-2
UUID=116ef596-d983-456c-a6ae-a74a4f8c03dc
DEVICE=eno50332208
ONBOOT=yes
TEAM_MASTER=team0
DEVICETYPE=TeamPort

查看网络组状态:

[root@linux ~]# teamdctl team0 stat
setup:
  runner: activebackup
runner:
  active port:

发现port端口均没有开启

开启port端口

[root@linux ~]# nmcli con up test-1 
Connection successfully activated (D-Bus active path: /org/freedesktop/NetworkManager/ActiveConnection/5)
[root@linux ~]# nmcli con up test-2
Connection successfully activated (D-Bus active path: /org/freedesktop/NetworkManager/ActiveConnection/7)
[root@linux ~]# teamdctl team0 stat
setup:
  runner: activebackup
ports:
  eno33554984
    link watches:
      link summary: up
      instance[link_watch_0]:
        name: ethtool
        link: up
        down count: 0
  eno50332208
    link watches:
      link summary: up
      instance[link_watch_0]:
        name: ethtool
        link: up
        down count: 0
runner:
  active port: eno33554984

可以看到端口开启成功

[root@linux ~]# ping -I team0 10.1.70.172
PING 10.1.70.172 (10.1.70.172) from 10.1.70.24 team0: 56(84) bytes of data.
64 bytes from 10.1.70.172: icmp_seq=1 ttl=64 time=0.500 ms
64 bytes from 10.1.70.172: icmp_seq=2 ttl=64 time=0.804 ms
^C
--- 10.1.70.172 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1001ms
rtt min/avg/max/mdev = 0.500/0.652/0.804/0.152 ms
[root@linux ~]#

配置成功,可以看到当前活动的是eno33554984,测试禁用后能否成功

[root@linux ~]# nmcli device disconnect eno33554984 
Device 'eno33554984' successfully disconnected.
[root@linux ~]# ping -I team0 10.1.70.172
PING 10.1.70.172 (10.1.70.172) from 10.1.70.24 team0: 56(84) bytes of data.
测试不成功,通过查找资料了解到当使用activebackup的runner时,必须加上一个参数
[root@linux ~]# nmcli con modify test team.config '{"runner":{"name":"activebackup","hwaddr_policy":"by_active"}}'
[root@linux ~]# cat /etc/sysconfig/network-scripts/ifcfg-test
DEVICE=team0
TEAM_CONFIG="{\"runner\":{\"name\":\"activebackup\",\"hwaddr_policy\":\"by_active\"}}"
DEVICETYPE=Team
BOOTPROTO=none
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
NAME=test
UUID=5a3bfb26-993f-45ad-add6-246ff419e7bd
ONBOOT=yes
IPADDR=10.1.70.24
PREFIX=16
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes

详情参考:http://183530300.blog.51cto.com/894387/1851388

 



本页内容版权归属为原作者,如有侵犯您的权益,请通知我们删除。

linux下使用quagga配置ospf协议 - 2016-09-12 18:09:22

环境:三台redhat6.5(VM虚拟机) 一、ospf协议 OSPF(Open Shortest Path First开放式最短路径优先)是一个内部网关协议(Interior Gateway Protocol,简称IGP),用于在单一自治系统(autonomous system,AS)内决策路由。是对链路状态路由协议的一种实现,隶属内部网关协议(IGP),故运作于自治系统内部。 PS:这里不过多讲解ospf协议,可在网上自行查找学习 二、配置 首先下载安装软件包,其他yum源以及网络配置就不再介绍了,三

远程桌面排错(已解决) - 2016-09-12 18:09:20

最近遇到了一个比较棘手的问题,用户远程桌面无法连接,我的博文中之前也写到了一篇远程桌面排错,但是这次的和之前的大不相同 = = 原因排查步骤 1)首先当然是查看报错,这个是我自己机器上截图的,报错信息都一样 2)首先查看服务器是否开启了远程访问 3)查看目标是否可以ping通 4)查看服务是否正常启动 5)如果要正常远程到目标必须可以telnet到目标的远程端口,默认为3389,这个端口不通,我们之前已经将防火墙关闭了 6)本机上telnet 127.0.0.1 3389,这么做的话可以排除外界因素的干扰
随着php脚本语言使用的普及,目前webserice服务大部分都在用nginx+(php-fpm)的结构,了解了其工作过程后才可以在各个方面想办法做调整优化和故障排查,从以下几点总结一下这种模型。 一、nginx 和 php-fpm 的关系和分工 nginx 是 web 服务器, php-fpm 是一个 PHPFastCGI 进程管理器,两者遵循 fastcgi 的协议进行通信, nginx 负责静态类似 html 文件的处理, php-fpm 负责 php 脚本语言的执行,这么设计的目的是为了解耦前端
数据库的运维中,经常会遇到delete drop truncate的操作,那么如何去把握它们的用法和区别呢? 比如当数据库空间爆满,已经增长到存储空间单个存储文件的最大值 32G 。你需要通过一些办法释放掉表空间或者扩容表空间来解决问题。 一般当系统中大量使用分区表,而针对分区表清除数据,是不会释放表空间的,必须把分区 drop 掉,才会释放空间。 下面我们具体了解一下这三个命令: 一、delete 1、delete是DML,执行delete操作时,每次从表中删除一行,并且同时将该行的的删除操作记录在re
最近有一个服务器升级的项目,得知用户需求是03服务器上的文件、DNS、DHCP要迁移到Server 2012上,文件服务器最重要的当然是保留权限的设置,DHCP和DNS服务器实现迁移相对来说很简单 于是我便模拟了以下环境先进行测试,项目完成之后再做总结 = = 环境介绍 DC 192.168.124.250 Migration 192.168.124.251(Server 2012 R2 Datacenter,将03的服务器迁移到此服务器) FDDS 192.168.124.252(Server 2003
CentOS6中关于网络配置的命令有很多,本文将介绍几个平时最长用的几个命令,以及网卡IP地址的配置和简单路由配置。 1、经常使用的查看IP地址命令为 ifconfig,不跟参数的情况下默认查看所有已启用的网卡信息,如下图所示: 如果想查看具体某块网卡信息,则可以在ifconfig后面跟上网卡设备,如只查看eth0的信息则执行:ifconfig eht0 即可。 禁用某块网卡:结合down命令可以禁用某块网卡,如要禁用eth0网卡,则执行:ifconfig eth0 down 即可,这种禁用只是临时性的,
为Windows Server 2012 R2指定授权服务器 在Windows Server 2008 R2的终端服务中,可以手动指定授权服务器,而在Windows Server 2012 R2中,默认只能通过"远程桌面连接服务"管理器,指定授权服务器,而要使用远程桌面连接服务管理器,则需要安装一系列的组件,但大多数的时候,我们只是想配置一台"远程桌面会话主机",不想要安装"远程桌面网关服务"、"远程桌面Web代理"这些组件,那么,有没有办法和Windows Server 2008 R2一样,为Windo
移除VMware View桌面中孤立的主机与桌面池 在使用VMware View桌面的过程中,如果由于多种因为(例如重新安装了vCenter Server)导致View桌面池丢失,想要在View Administrator中删除这些孤立的虚拟机与桌面池,可以使用如下的方法。 图1-1 停留在"正在删除" 图1-2 停止在"正在删除" 1 登录View Composer删除孤立虚拟机 进入View Composer的服务器,打开View Composer安装位置,复制该路径,如图1-3所示。默认情况下,此路
今天发现有一台线上的服务器内存报警,最近报警发现有好几次了,慎是恼火,想一探究竟,看了一下是一台16G内存的服务器,free 了一下看了一下确实是没有多少内存可用了,再看了一下都跑了一些什么应用,结果发现只跑了一个数据库跟一个跨服,当时心里就感觉16G内存不可能用完, [root@hqg-222-99.logs]#psaux|awk'{sum=sum+$6};END{printsum/1024"M"}'4363.01M才使用了4g多一点#也可以通过这段在网上找到的脚本查看#/bin/bashforPROC
之前在上linux课的时候,老师说,vim使用的好的网络管理员比普通的效率快好多。 合抱之木,生于毫末;九层之台,起于累土;千里之行,始于足下。撸基础吧。 linux编辑工具 VI VIM EMACS vim 是vi的升级版本,它不仅兼容vi的所有指令,而且还有一些新的特性在里面。vim的这些优势主要体现在以下几个方面: 易用性 vi只能运行于unix中,而vim不仅可以运行于unix,windows ,mac等多操作平台。 语法加亮 vim可以用不同的颜色来加亮你的代码。 可视化操作( ESC+V) 就