博客
关于我
JVM虚拟机深入理解----堆/栈/方法区中泄露和溢出
阅读量:705 次
发布时间:2019-03-17

本文共 1484 字,大约阅读时间需要 4 分钟。

1.堆内存溢出:

修改JVM参数:-Xms20m  -Xmx20m -XX:+HeapDumpOnOutOfMemoryError

package cn.mxl.heap;import java.util.ArrayList;import java.util.List;public class OomHeap {	public static void main(String[] args) {		List list=new ArrayList();		while(true) {			list.add(new Test());		}	}}class Test{}

运行结果:

解决办法:

1.修改JVM参数,扩大堆内存 ;

2.通过Jconsole进行内存分析或者使用Eclipse Memory Analyzer,然后找到泄露的对象,进行处理;

这里要注意一下:内存泄露(memory leak)和内存溢出(memory overflow),笔者的理解是,第一个是在使用过程中因为不够,导致的异常,一个是线程申请的时候内存不够所抛出的异常,其中笔者个人觉得没有多大意义去区分它,我们分析方法和解决办法还是上面那两种;

2虚拟机栈和本地方法栈溢出

测试代码:

package cn.mxl.stack;public class JavaVMStack {	private  int test=1;	public  void stackLeak() {		test++;		stackLeak();	}	public static void main(String[] args) {		// TODO Auto-generated method stub		JavaVMStack javaVMStack=new JavaVMStack();		try {			javaVMStack.stackLeak();		} catch (Throwable e) {			// TODO: handle exception			System.out.println("test:"+javaVMStack.test);			e.printStackTrace();		}	}}

运行结果:

首先笔者还是想解释一下,这里为什么会出现栈溢出StackOverflowError的异常;首先那个int test笔者的目的只是观察被执行了几次这个方法,读者千万别以为和栈溢出有什么关系,栈溢出主要是由于栈帧太大导致的溢出,而我们的方法调用都保存在栈帧中,所以当我们不断的循环调用方法的时候,就会出现栈帧太大,导致栈溢出报Stack Overflow的异常.

栈的溢出可能会让我们想到递归,因为递归是很容易导致线程溢出的(还有多线程的情况下),那我们又该如何解决栈溢出呢?

1.传统的方式,减少不必要的线程数,或者增加虚拟机内存;

2.实际的方式,因为虚拟机内存是被heap和stack两个来平分的(这里不可能那些其他的占用虚拟机内存的区域),所以减少heap的内存,从而间接的增加stack的内存;

3.方法区和运行时常量池溢出

在之前jdk1.7的时候,通过String.intern()方法可以使得方法区溢出,但是如今String的常量池在1.8之后放到堆内存中,导致笔者也暂时没有想到哪个程序能够使得方法区溢出;

笔者只能提供一下一旦方法区溢出的解决办法:

1.排查,然后修改代码;

2.设置方法区内存值;

 

笔者在这里省略了一个本机直接内存溢出,想了解的可以去网上单独看看.

转载地址:http://zubhz.baihongyu.com/

你可能感兴趣的文章
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>