Java在Linux下如何维持大量链接

  • 时间:
  • 浏览:5
  • 来源:uu快3手机版_uu快3走势图_网游

不过varnish推荐的配置是有问题报告 报告 的,实际运行表明“net.ipv4.tcp_fin_timeout = 3”的配置会因为 页面老会 打不开;我希望当网友见面见面视频视频使用的是IE6浏览器时,访问网站一段时间后,所有网页回会打不开,重启浏览器后正常。因为 是国外的网速快吧,让我们 国情决定还要调整“net.ipv4.tcp_fin_timeout = 10”,在10s的情形下,一切正常(实际运行结论)。

推荐配置(把原/etc/sysctl.conf内容清掉,把下面内容一键复制进去):

因为 系统没人错误提示,就表明系统对新的最大跟踪的TCP连接数限制修改成功。因为 按上述参数进行设置,则理论上单独一个进程池池最多还都还还可以同去建立300多个TCP客户端连接。

这表明将系统对本地端口范围限制设置为1024~6300之间。请注意,本地端口范围的最小值还要大于或等于1024;而端口范围的最大值则应小于或等于65535。修改很久保存此文件。

第二步,执行sysctl命令:

你你这个 配置参考于cache服务器varnish的推荐配置和SunOne 服务器系统优化的推荐配置。

当调用Selector.open()时,选着器通过专门的工厂SelectorProvider来创建Selector的实现,SelectorProvider屏蔽了不同操作系统及版本创建实现的差异性

因为 内核版本>=2.6则,具体的SelectorProvider为EPollSelectorProvider,我希望为默认的PollSelectorProvider

这是让Linux在启动完成后强行将系统级打开文件数硬限制设置为22158。修改很久保存此文件。

完成上述步骤后重启系统,一般情形下就还都还还可以将Linux系统对指定用户的单一进程池池允许同去打开的最大文件数限制设为指定的数值。因为 重启后用 ulimit-n命令查看用户可打开文件数限制仍然低于上述步骤中设置的最大值,这因为 因为 在用户登录脚本/etc/profile中使用ulimit -n命令因为 将用户可同去打开的文件数做了限制。因为 通过ulimit-n修改系统对用户可同去打开文件的最大数限制时,新修改的值不到小于或等于上次 ulimit-n设置的值,我希望想用此命令增大你你这个 限制值是不因为 的。什么都有,因为 有上述问题报告 报告 处于,就不到去打开/etc/profile脚本文件,在文件中查找是是不是使用了ulimit-n限制了用户可同去打开的最大文件数量,因为 找到,则删除这行命令,因为 将其设置的值改为至少的值,我希望保存文件,用户退出并重新登录系统即可。

通过上述步骤,就为支持高并发TCP连接补救的通讯补救进程池池解除关于打开文件数量方面的系统限制。

因为 系统没人错误提示,就表明新的本地端口范围设置成功。因为 按上述端口范围进行设置,则理论上单独一个进程池池最多还都还还可以同去建立30000多个TCP客户端连接。

第二种无法建立TCP连接的因为 因为 因为 Linux网络内核的IP_TABLE防火墙对最大跟踪的TCP连接数有限制。此时进程池池会表现为在 connect()调用中阻塞,如同死机,因为 用tcpdump工具监视网络,也会发现根本没人TCP连接时客户端发SYN包的网络流量。因为 IP_TABLE防火墙在内核中会对每个TCP连接的情形进行跟踪,跟踪信息因为 插进处于内核内存中的conntrackdatabase中,你你这个 数据库的大小有限,当系统中处于太满的TCP连接时,数据库容量处于问题,IP_TABLE无法为新的TCP连接建立跟踪信息,于是表现为在connect()调用中阻塞。此时就还要修改内核对最大跟踪的TCP连接数的限制,办法 同修改内核对本地端口号范围的限制是类似于 的:

第一步,修改/etc/sysctl.conf文件,在文件中加上如下行:

net.ipv4.ip_conntrack_max = 10240

这表明将系统对最大跟踪的TCP连接数限制设置为10240。请注意,此限制值要尽量小,以节省对内核内存的占用。

第二步,执行sysctl命令:

有关那先 控制逻辑还都还还可以查看Linux内核源代码,以linux2.6内核为例,还都还还可以查看tcp_ipv4.c文件中如下函数:

这是告诉Linux在用户完成系统登录后,应该调用pam_limits.so模块来设置系统对该用户可使用的各种资源数量的最大限制(包括用户可打开的最大文件数限制),而pam_limits.so模块就会从/etc/security/limits.conf文件中读取配置来设置那先 限制值。修改很久保存此文件。

第三步,查看Linux系统级的最大打开文件数限制,使用如下命令:

上述命令中,在中指定要设置的单一进程池池允许打开的最大文件数。因为 系统回显类似于 于“Operation notpermitted”类似于 说说,说明上述限制修改失败,实际上因为 在中指定的数值超过了Linux系统对该用户打开文件数的软限制或硬限制。我希望,就还要修改Linux系统对用户的关于打开文件数的软限制和硬限制。

第一步,修改/etc/security/limits.conf文件,在文件中加上如下行:

在Linux上编写高并发TCP连接应用进程池池时,还要使用至少的网络I/O技术和I/O事件分派机制。

可用的I/O技术有同步I/O,非阻塞式同步I/O(也称反应式I/O),以及异步I/O。在高TCP并发的情形下,因为 使用同步I/O,这会严重阻塞进程池池的运转,除非为每个TCP连接的I/O创建一个进程池。我希望,太满的进程池又会因系统对进程池的调度造成巨大开销。我希望,在高TCP并发的情形下使用同步 I/O是不可取的,这时还都还还可以考虑使用非阻塞式同步I/O或异步I/O。非阻塞式同步I/O的技术包括使用select(),poll(),epoll等机制。异步I/O的技术我希望使用AIO。

从I/O事件分派机制来看,使用select()是不至少的,因为 它所支持的并发连接数有限(通常在102一个以内)。因为 考虑性能,poll()也是不至少的,尽管它还都还还可以支持的较高的TCP并发数,我希望因为 其采用“轮询”机制,当并发数较高时,其运行速率单位相当低,并因为 处于I/O事件分派不均,因为 帕累托图TCP连接上的I/O再次出现“饥饿”问题报告 报告 。而因为 使用epoll或AIO,则没人上述问题报告 报告 (早期Linux内核的AIO技术实现是通过在内核中为每个 I/O请求创建一个进程池来实现的,你你这个 实现机制在高并发TCP连接的情形下使用觉得回会 严重的性能问题报告 报告 。但在最新的Linux内核中,AIO的实现因为 得到改进)。

综上所述,在开发支持高并发TCP连接的Linux应用进程池池时,应尽量使用epoll或AIO技术来实现并发的TCP连接上的I/O控制,这将为提升进程池池对高并发TCP连接的支持提供有效的I/O保证。

http://lelong.iteye.com/blog/1265731

http://blog.csdn.net/guowake/article/details/6615728 博主未了解四元组,有帕累托图错误

http://blog.csdn.net/hsuxu/article/details/9876983经典的”服务器最多65536个连接”误解

/etc/sysctl.conf 是用来控制linux网络的配置文件,对于依赖网络的进程池池(如web服务器和cache服务器)非常重要,RHEL默认提供的最好调整。

第本身因为 因为 因为 Linux网络内核对本地端口号范围有限制。此时,进一步分析为那先 无法建立TCP连接,会发现问题报告 报告 出在connect()调用返回失败,查看系统错误提示消息是“Can’t assign requestedaddress”。同去,因为 在此时用tcpdump工具监视网络,会发现根本没人TCP连接时客户端发SYN包的网络流量。那先 情形说明问题报告 报告 在于本地Linux系统内核暗含限制。觉得,问题报告 报告 的根本因为 在于Linux内核的TCP/IP协议实现模块对系统中所有的客户端TCP连接对应的本地端口号的范围进行了限制(类似于 ,内核限制本地端口号的范围为1024~32768之间)。当系统中某一时刻同去处于太满的TCP客户端连接时,因为 每个TCP客户端连接回会 占用一个唯一的本地端口号(此端口号在系统的本地端口号范围限制中),因为 现有的TCP客户端连接已将所有的本地端口号占满,则此时就无法为新的TCP客户端连接分配一个本地端口号了,我希望系统会在你你这个 情形下在connect()调用中返回失败,并将错误提示消息设为“Can’t assignrequested address”。

在Linux平台上,无论编写客户端进程池池还是服务端进程池池,在进行高并发TCP连接补救时,最高的并发数量回会 受到系统对用户单一进程池池同去可打开文件数量的限制(这因为 系统为每个TCP连接回会 创建一个socket句柄,每个socket句柄同去也是一个文件句柄)。可使用ulimit命令查看系统允许当前用户进程池池打开的文件数限制:

调整文件数:

linux系统优化完网络还要调高系统允许打开的文件数都还还可以支持大的并发,默认1024是远远处于问题的。

请注意上述函数中对变量sysctl_local_port_range的访问控制。变量sysctl_local_port_range的初始化则是在tcp.c文件中的如下函数中设置:

修改完毕后,执行:

/sbin/sysctl -p /etc/sysctl.conf

/sbin/sysctl -w net.ipv4.route.flush=1

命令生效。为了保险起见,也还都还还可以reboot系统。

内核编译时默认设置的本地端口号范围因为 太小,我希望还要修改此本地端口范围限制。

第一步,修改/etc/sysctl.conf文件,在文件中加上如下行:

其中speng指定了要修改哪个用户的打开文件数限制,可用’*'号表示修改所有用户的限制;soft或hard指定要修改软限制还是硬限制;10240则指定了要我修改的新的限制值,即最大打开文件数(请注意软限制值要小于或等于硬限制)。修改很久保存文件。

第二步,修改/etc/pam.d/login文件,在文件中加上如下行:

执行命令:

Shell代码

注意:系统通过四元组来唯一选着第一根TCP链接,什么都有理论上同一个客户端,最多还都还还可以向服务端建立(32768 - 1024) 条TCP链接,不同的客户端,占用的端口即使一样,我希望影响,你你这个 很久服务端的链接数更多是受文件描述符个数影响

在Linux上编写支持高并发TCP连接的客户端通讯补救进程池池时,有回会发现尽管因为 解除了系统对用户同去打开文件数的限制,但仍会再次出现并发TCP连接数增加到一定数量时,再也无法成功建立新的TCP连接的问题报告 报告 。再次出现你你这个 现在的因为 有多种。

这表示当前用户的每个进程池池最多允许同去打开102一个文件,这102一个文件中还得除去每个进程池池必然打开的标准输入,标准输出,标准错误,服务器监听 socket,进程池池间通讯的unix域socket等文件,没人剩下的可用于客户端socket连接的文件数就不到至少1024-10=101一个左右。也我希望说缺省情形下,基于Linux的通讯进程池池最多允许同去101一个TCP并发连接。

varnish调优推荐配置的地址为:http://varnish.projects.linpro.no/wiki/Performance

对于想支持更高数量的TCP并发连接的通讯补救进程池池,就还要修改Linux对当前用户的进程池池同去打开的文件数量的软限制(soft limit)和硬限制(hardlimit)。其中软限制是指Linux在当前系统都都还还可以承受的范围内进一步限制用户同去打开的文件数;硬限制则是根据系统硬件资源情形(主我希望系统内存)计算出来的系统最多可同去打开的文件数量。通常软限制小于或等于硬限制。

修改上述限制的最简单的办法 我希望使用ulimit命令:

这表明这台Linux系统最多允许同去打开(即暗含所有用户打开文件数总和)12158个文件,是Linux系统级硬限制,所有用户级的打开文件数限制回会 应超过你你这个 数值。通常你你这个 系统级硬限制是Linux系统在启动时根据系统硬件资源情形计算出来的最佳的最大同去打开文件数限制,因为 没人特殊还要,不应该修改此限制,除非想为用户级打开文件数限制设置超过此限制的值。修改此硬限制的办法 是修改/etc/rc.local脚本,在脚本中加上如下行: