PartitioningError: partition is too large for BIOS Boot formatting (allowable size is 0 MB to 2 MB)

在用cobbler安装centos7.2分区的时候遇到这个错误“PartitioningError: partition is too large for BIOS Boot formatting (allowable size is 0 MB to 2 MB)”,机器配置是“CPU Xeon E5-2630 V3,2.4GHz,8核 x 2 Mem 16G*16 Disk 600GB 15Krpm SAS x 12 NIC 1Gb x 2 10Gb x 2 Raid card x 1”,12块600G硬盘做raid5,其中一块做hotspare,使用GPT分区,legacy bios模式

原因大概是这样,在用12块盘做raid5的时候,默认每块硬盘的strip size是256k,这样full strip size就是2.5M大小,这样就超过了bios boot要求的分区最大限制,所以会有这个提示。所以在做raid5的时候需要选小一点的strip size,比如128k,这样full strip size就是1.2M,便可避免这个问题,如图

 

 

让进程在后台运行

通过ssh连上服务器之后,如果要运行一个耗时较长的任务,就会担心因为网络断开导致执行失败。这是因为通过ssh登陆系统之后,bash成为了sshd程序的一个子进程,所执行的任务则是bash的子进程。当网络断开后终端会收到一个HUP(hangup)信号,然后关闭终端的所有子进程,所以执行的任务也会被停止。

那么,要让任务不受网络断开的影响,便有两个思路:

1,让进程忽略HUP信号。

2,让进程不属于终端的子进程。

第一种思路可以使用nohup命令实现

# nohup ping baidu.com > /dev/null &
[1] 29876
# nohup: ignoring input and redirecting stderr to stdout
# ps -ef|grep ping|grep -v grep
root     29876 25203  0 16:53 pts/0    00:00:00 ping baidu.com

关闭当前终端,再重新打开一个终端,还会看到这个进程。

如果是已经开始执行的任务,那么就需要使用disown命令来忽略HUP信号

对于已经开始在前台运行的程序,需要先挂起,再使用bg让他在后台运行

# ping baidu.com > /dev/null
^Z
[1]+  Stopped                 ping baidu.com > /dev/null
# jobs
[1]+  Stopped                 ping baidu.com > /dev/null
# bg 1
[1]+ ping baidu.com > /dev/null &
# jobs
[1]+  Running                 ping baidu.com > /dev/null &
# disown -h %1
# ps -ef|grep ping|grep -v grep
root      3139  2892  0 17:17 pts/2    00:00:00 ping baidu.com
# logout
重新登陆之后进程还会在
# ps -ef|grep ping|grep -v grep
root      3139     1  0 17:17 ?        00:00:00 ping baidu.com

如果已经使用了&符号让任务在后台运行了

# ping baidu.com > /dev/null &
[1] 4339
# jobs
[1]+  Running                 ping baidu.com > /dev/null &
# disown -h %1
# logout
重新登陆之后
# ps -ef|grep ping|grep -v grep
root      4339     1  0 17:22 ?        00:00:00 ping baidu.com

如果有比较多的任务都需要忽略HUP信号,那就需要使用screen命令了,这个命令略强大,回头再说:)

 

第二种思路可以有两种实现

1,setsid,使用setsid命令可以让进程的ppid为1,即init进程

# setsid ping baidu.com > /dev/null 
# ps -ef|grep ping|grep -v grep
root     31225     1  0 16:59 ?        00:00:00 ping baidu.com

2,使用子shell也可以让进程的ppid为1

# (ping baidu.com > /dev/null &)
# ps -ef|grep ping |grep -v grep
root     32655     1  0 17:05 pts/0    00:00:00 ping baidu.com

 

参考:http://www.ibm.com/developerworks/cn/linux/l-cn-nohup/index.html

openssh最新漏洞修复20160120

infoQ 上看到openssh又爆出了严重漏洞,从5.4到7.1均受影响。

我的版本是5.9,所以在rundeck上新建了一个job,在所有客户端节点上运行下面的脚本

#!/bin/bash
/sbin/ip a|grep 115.182|awk '{print $2}'
/bin/sed -i '$a \ \ \ \ UseRoaming no' /etc/ssh/ssh_config
service ssh restart

这样便修复了,比较简单。

那一串反斜杠完全是强迫症,因为看到这个配置文件的最后几行配置前都留了四个空格,所以我也加上了    =。=

fastcgi_temp目录权限不当导致页面加载不完全的问题

这个博客用的wordpress,这两天发现后台里的样式乱掉了,前台的标签及按月分类等也看不到了,第一反应是css没有加载上,但通过页面源码里的链接是可以直接打开css文件的,到vps上看了下nginx的error.log,发现如下错误

2015/07/07 14:31:27 [crit] 20844#0: *8686 open() "/usr/local/nginx/fastcgi_temp/4/28/0000000284" failed (13: Permission denied) while reading upstream, client: 121.79.18.36, server: gunner.me, request: "GET / HTTP/1.1", upstream: "fastcgi://127.0.0.1:9000", host: "gunner.me"

错误很明显,fastcgi_temp目录的权限不够,导致了php输出内容不全,chown改成与nginx运行用户一致后问题解决了。 OK,顺便了解下这个目录的作用,从nginx的buffer机制说起,对于来自 fastcgi server 的 response,nginx 先将其缓冲到内存中,然后依次发送到客户端浏览器。缓冲区的大小由 fastcgi_buffers 和 fastcgi_buffer_size 两个值控制。

fastcgi_buffer_size
语法:fastcgi_buffer_size the_size ;
使用字段:http, server, location 
这个参数指定将用多大的缓冲区来读取从FastCGI进程到来应答头。 默认的缓冲区大小为fastcgi_buffers指令中的每块大小,可以将这个值设置更小。 fastcgi_buffers 语法:fastcgi_buffers the_number is_size; 使用字段:http, server, location 这个参数指定了从FastCGI进程到来的应答,本地将用多少和多大的缓冲区读取。

如果是如下配置

fastcgi_buffers      8 4K;
fastcgi_buffer_size  4K;

fastcgi_buffers 控制 nginx 最多创建 8 个大小为 4K 的缓冲区,而 fastcgi_buffer_size 则是处理 Response 时第一个缓冲区的大小,不包含在前者中。所以总计能创建的最大内存缓冲区大小是 8*4K+4K = 36k。而这些缓冲区是根据实际的 Response 大小动态生成的,并不是一次性创建的。比如一个 8K 的页面,Nginx 会创建 2*4K 共 2 个 buffers。当 Response 小于等于 36k 时,所有数据当然全部在内存中处理。如果 Response 大于 36k 呢?fastcgi_temp 的作用就在于此。多出来的数据会被临时写入到文件中,放在这个目录下面。 我遇到的情况是前台和后台页面大于默认的内存缓冲区,而运行nginx的用户并没有fastcgi_temp目录的写权限,于是剩下的数据就丢失掉了,所以页面显示不完整。 参考:http://www.phpvim.net/os/ubuntu/fastcgi_temp_error_and_nginx_buffer.html

在OS X 上安装docker时遇到的一个错误

先在这里(需翻墙)下载最新的版本的Docker for OS X Installer,现在最新版本是1.6.2 装好之后应用程序中会有boot2docker和VirtualBox两个应用程序,/usr/local/bin/目录下也会有docker和boot2docker两个命令。 打开boot2docker应用程序会直接抛出一个终端并执行一些初始化命令,在执行到boot2docker up时遇到一个错误“  Trying to get Docker socket one more time Error requesting socket: exit status 255 Auto detection of the VM’s Docker socket failed.”。 初学docker,也没什么头绪,只能搜索一番,终于在stack overflow上找到了答案,原因很简单,在/etc/hosts文件里必须有”127.0.0.1       localhost”一行记录,没有的话就会出现这个错误,但是在官方文档中并没有这个提示。 重新打开boot2docker,配置初始化完成

bash
Last login: Thu Jun 11 15:51:24 on ttys009
localhost:~ cescwu$ bash
bash-3.2$ unset DYLD_LIBRARY_PATH ; unset LD_LIBRARY_PATH
bash-3.2$ mkdir -p ~/.boot2docker
if [ ! -f ~/.boot2docker/boot2docker.iso ]; then cp /usr/local/share/boot2docker/boot2docker.iso ~/.boot2docker/ ; fi
/usr/local/bin/boot2docker init 
/usr/local/bin/boot2docker up 
$(/usr/local/bin/boot2docker shellinit)
docker version
bash-3.2$ if [ ! -f ~/.boot2docker/boot2docker.iso ]; then cp /usr/local/share/boot2docker/boot2docker.iso ~/.boot2docker/ ; fi
bash-3.2$ /usr/local/bin/boot2docker init 
Virtual machine boot2docker-vm already exists
bash-3.2$ /usr/local/bin/boot2docker up 
Waiting for VM and Docker daemon to start...
.o
Started.
Writing /Users/cescwu/.boot2docker/certs/boot2docker-vm/ca.pem
Writing /Users/cescwu/.boot2docker/certs/boot2docker-vm/cert.pem
Writing /Users/cescwu/.boot2docker/certs/boot2docker-vm/key.pem

To connect the Docker client to the Docker daemon, please set:
    export DOCKER_HOST=tcp://192.168.59.103:2376
    export DOCKER_CERT_PATH=/Users/cescwu/.boot2docker/certs/boot2docker-vm
    export DOCKER_TLS_VERIFY=1

bash-3.2$ $(/usr/local/bin/boot2docker shellinit)
Writing /Users/cescwu/.boot2docker/certs/boot2docker-vm/ca.pem
Writing /Users/cescwu/.boot2docker/certs/boot2docker-vm/cert.pem
Writing /Users/cescwu/.boot2docker/certs/boot2docker-vm/key.pem
bash-3.2$ docker version
Client version: 1.6.2
Client API version: 1.18
Go version (client): go1.4.2
Git commit (client): 7c8fca2
OS/Arch (client): darwin/amd64
Server version: 1.6.2
Server API version: 1.18
Go version (server): go1.4.2
Git commit (server): 7c8fca2
OS/Arch (server): linux/amd64

 

XenServer在导出虚拟机时遇到的问题

今天在导出虚拟机的时候遇到错误如下

Snip20141217_5

 

导出失败了,然后就想直接删掉虚拟机,在删除的时候发现没有选定的虚拟磁盘,犹豫了一下还是删了,这时候宿主机下已经看不到这个虚拟机了,但宿主机的磁盘空间并没减少,发现存储这里是这样的

Snip20141217_7

 

图看不清,选定的那个显示的是“Transfer VM for VDI…..”而且无法删除

Snip20141217_9

 

G之,发现一篇文章,和我遇到的情况一样,操作办法如下:

  1. XenCenter的查看
  2. 勾选”隐藏的对象”
  3. 这时可以看到在宿主机下有一个灰色的名为”Transfer VM for VDI….”的虚拟机
  4. 右键关闭这个虚拟机
  5. 然后在本地存储中删掉即可

这时在看宿主机的磁盘空间已经释放了。

 

在服务器上排除问题的头五分钟

  我们团队为上一家公司承担运维、优化和扩展工作的时候,我们碰到了各种不同规模的性能很差的系统和基础设备(大型系统居多,比如 CNN 或者世界银行的系统)。要是再赶上修复时间紧、奇葩的技术平台、缺少信息和文档,基本上这过程都会惨痛到让我们留下深刻的记忆。

遇到服务器故障,问题出现的原因很少可以一下就想到。我们基本上都会从以下步骤入手:

一、尽可能搞清楚问题的前因后果

不要一下子就扎到服务器前面,你需要先搞明白对这台服务器有多少已知的情况,还有故障的具体情况。不然你很可能就是在无的放矢。

必须搞清楚的问题有:

  • 故障的表现是什么?无响应?报错?
  • 故障是什么时候发现的?
  • 故障是否可重现?
  • 有没有出现的规律(比如每小时出现一次)
  • 最后一次对整个平台进行更新的内容是什么(代码、服务器等)?
  • 故障影响的特定用户群是什么样的(已登录的, 退出的, 某个地域的…)?
  • 基础架构(物理的、逻辑的)的文档是否能找到?
  • 是否有监控平台可用? (比如 Munin、Zabbix、 Nagios、 New Relic… 什么都可以)
  • 是否有日志可以查看?. (比如 Loggly、Airbrake、 Graylog…)

最后两个是最方便的信息来源,不过别抱太大希望,基本上它们都不会有。只能再继续摸索了。

 

二、有谁在?

用这两个命令看看都有谁在线,有哪些用户访问过。这不是什么关键步骤,不过最好别在其他用户正干活的时候来调试系统。有道是一山不容二虎嘛。(ne cook in the kitchen is enough.)

  三、之前发生了什么?

查看一下之前服务器上执行过的命令。看一下总是没错的,加上前面看的谁登录过的信息,应该有点用。另外作为 admin 要注意,不要利用自己的权限去侵犯别人的隐私哦。

到这里先提醒一下,等会你可能会需要更新 HISTTIMEFORMAT 环境变量来显示这些命令被执行的时间。对要不然光看到一堆不知道啥时候执行的命令,同样会令人抓狂的。

四、现在在运行的进程是啥?

这都是查看现有进程的。 ps aux 的结果比较杂乱, pstree -a 的结果比较简单明了,可以看到正在运行的进程及相关用户。

  五、监听的网络服务

$ netstat -ntlp
$ netstat -nulp
$ netstat -nxlp

我一般都分开运行这三个命令,不想一下子看到列出一大堆所有的服务。netstat -nalp 倒也可以。不过我绝不会用 numeric 选项 (鄙人一点浅薄的看法:IP 地址看起来更方便)。

找到所有正在运行的服务,检查它们是否应该运行。查看各个监听端口。在 netstat 显示的服务列表中的 PID 和 ps aux 进程列表中的是一样的。

如果服务器上有好几个 Java 或者 Erlang 什么的进程在同时运行,能够按 PID 分别找到每个进程就很重要了。

通常我们建议每台服务器上运行的服务少一点,必要时可以增加服务器。如果你看到一台服务器上有三四十个监听端口开着,那还是做个记录,回头有空的时候清理一下,重新组织一下服务器。

六、CPU 和内存

$ free -m
$ uptime
$ top
$ htop

注意以下问题:

  • 还有空余的内存吗? 服务器是否正在内存和硬盘之间进行 swap?
  • 还有剩余的 CPU 吗? 服务器是几核的? 是否有某些 CPU 核负载过多了?
  • 服务器最大的负载来自什么地方? 平均负载是多少?

七、硬件

$ lspci
$ dmidecode
$ ethtool

有很多服务器还是裸机状态,可以看一下:

  • 找到 RAID 卡 (是否带 BBU 备用电池?)、 CPU、空余的内存插槽。根据这些情况可以大致了解硬件问题的来源和性能改进的办法。
  • 网卡是否设置好? 是否正运行在半双工状态? 速度是 10MBps? 有没有 TX/RX 报错?

八、IO 性能

$ iostat -kx 2
$ vmstat 2 10
$ mpstat 2 10
$ dstat --top-io --top-bio

这些命令对于调试后端性能非常有用。

  • 检查磁盘使用量:服务器硬盘是否已满?
  • 是否开启了 swap 交换模式 (si/so)?
  • CPU 被谁占用:系统进程? 用户进程? 虚拟机?
  • dstat 是我的最爱。用它可以看到谁在进行 IO: 是不是 MySQL 吃掉了所有的系统资源? 还是你的 PHP 进程?

九、挂载点和文件系统

$ mount
$ cat /etc/fstab
$ vgs
$ pvs
$ lvs
$ df -h
$ lsof +D / /* beware not to kill your box */
  • 一共挂载了多少文件系统?
  • 有没有某个服务专用的文件系统? (比如 MySQL?)
  • 文件系统的挂载选项是什么: noatime? default? 有没有文件系统被重新挂载为只读模式了?
  • 磁盘空间是否还有剩余?
  • 是否有大文件被删除但没有清空?
  • 如果磁盘空间有问题,你是否还有空间来扩展一个分区?

十、内核、中断和网络

$ sysctl -a | grep ...
$ cat /proc/interrupts
$ cat /proc/net/ip_conntrack /* may take some time on busy servers */
$ netstat
$ ss -s
  • 你的中断请求是否是均衡地分配给 CPU 处理,还是会有某个 CPU 的核因为大量的网络中断请求或者 RAID 请求而过载了?
  • SWAP 交换的设置是什么?对于工作站来说 swappinness 设为 60 就很好, 不过对于服务器就太糟了:你最好永远不要让服务器做 SWAP 交换,不然对磁盘的读写会锁死 SWAP 进程。
  • conntrack_max 是否设的足够大,能应付你服务器的流量?
  • 在不同状态下(TIME_WAIT, …) TCP 连接时间的设置是怎样的?
  • 如果要显示所有存在的连接,netstat 会比较慢, 你可以先用 ss 看一下总体情况。

你还可以看一下 Linux TCP tuning 了解网络性能调优的一些要点。

十一、系统日志和内核消息

$ dmesg
$ less /var/log/messages
$ less /var/log/secure
$ less /var/log/auth
  • 查看错误和警告消息,比如看看是不是很多关于连接数过多导致?
  • 看看是否有硬件错误或文件系统错误?
  • 分析是否能将这些错误事件和前面发现的疑点进行时间上的比对。

十二、定时任务

$ ls /etc/cron* + cat
$ for user in $(cat /etc/passwd | cut -f1 -d:); do crontab -l -u $user; done
  • 是否有某个定时任务运行过于频繁?
  • 是否有些用户提交了隐藏的定时任务?
  • 在出现故障的时候,是否正好有某个备份任务在执行?

十三、应用系统日志

这里边可分析的东西就多了, 不过恐怕你作为运维人员是没功夫去仔细研究它的。关注那些明显的问题,比如在一个典型的 LAMP(Linux+Apache+Mysql+Perl)应用环境里:

  • Apache & Nginx; 查找访问和错误日志, 直接找 5xx 错误, 再看看是否有 limit_zone 错误。
  • MySQL; 在mysql.log 找错误消息,看看有没有结构损坏的表, 是否有 innodb 修复进程在运行,是否有 disk/index/query 问题.
  • PHP-FPM; 如果设定了 php-slow 日志, 直接找错误信息 (php, mysql, memcache, …),如果没设定,赶紧设定。
  • Varnishvarnishlog 和 varnishstat 里, 检查 hit/miss 比. 看看配置信息里是否遗漏了什么规则,使最终用户可以直接攻击你的后端?
  • HA-Proxy; 后端的状况如何?健康状况检查是否成功?是前端还是后端的队列大小达到最大值了?

  结论

经过这 5 分钟之后,你应该对如下情况比较清楚了:

  • 在服务器上运行的都是些啥?
  • 这个故障看起来是和 IO/硬件/网络或者系统配置 (有问题的代码、系统内核调优, …)相关。
  • 这个故障是否有你熟悉的一些特征?比如对数据库索引使用不当,或者太多的 apache 后台进程。

你甚至有可能找到真正的故障源头。就算还没有找到,搞清楚了上面这些情况之后,你现在也具备了深挖下去的条件。继续努力吧!

转自 http://news.cnblogs.com/n/173803/

python的pymssql插件在ubuntu12.04上查询为空?

下载pymssql-2.0.0b1-dev-20111019.tar.gz          (http://pymssql.googlecode.com/files/pymssql-2.0.0b1-dev-20111019.tar.gz)

gzip -d pymssql-2.0.0b1-dev-20111019.tar.gz
tar -xvf pymssql-2.0.0b1-dev-20111019.tar
wget http://pypi.python.org/packages/2.7/s/setuptools/setuptools-0.6c11-py2.7.egg          (在’/home/anyuser/software/pymssql-2.0.0b1-dev-20111019’目录下)
重命名setuptools-0.6c11-py2.7.egg为setuptools-0.6c9-py2.7.egg
运行python setup.py build报错:ImportError: No module named setuptools

apt-get install python-setuptools

运行python setup.py build报错:ImportError: No module named Cython.Distutils

apt-get install cython

python setup.py build

python setup.py install

TIME_WAIT链接数过多的问题

起因是一台服务器再重启glassfish的时候经常提示一些高端口冲突,后来发现服务器上的链接数已经达到17000左右,而其中15000左右的链接状态为TIME_WAIT。
这样的话很多高端口就被用掉了,都是TIME_WAIT状态,所以启动glassfish用到高端口的时候经常会提示端口冲突。
查了一下资料,找到一个解决办法:
修改/etc/sysctl.conf文件,在文件最后加上以下两行:
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
第一个参数reuse表示是否允许重新应用处于TIME-WAIT状态的socket用于新的TCP连接
第二个参数recyse是加速TIME-WAIT状态的socket回收
这两个配置分别会去修改/proc/sys/net/ipv4/tcp_tw_reuse以及/proc/sys/net/ipv4/tcp_tw_recycle的值,由0改为1