0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何用Java几分钟处理完30亿个数据?

人工智能与大数据技术 来源:CSDN 作者:Dream_it_possible! 2022-12-02 09:49 次阅读

1. 场景说明

现有一个 10G 文件的数据,里面包含了 18-70 之间的整数,分别表示 18-70 岁的人群数量统计。假设年龄范围分布均匀,分别表示系统中所有用户的年龄数,找出重复次数最多的那个数,现有一台内存为 4G、2 核 CPU电脑,请写一个算法实现。

23,31,42,19,60,30,36,........

2. 模拟数据

Java 中一个整数占 4 个字节,模拟 10G 为 30 亿左右个数据, 采用追加模式写入 10G 数据到硬盘里。

每 100 万个记录写一行,大概 4M 一行,10G 大概 2500 行数据。

package bigdata;
 
import java.io.*;
import java.util.Random;
 
/**
 * @Desc:
 * @Author: bingbing
 * @Date: 2022/5/4 0004 19:05
 */
public class GenerateData {
    private static Random random = new Random();

    public static int generateRandomData(int start, int end) {
        return random.nextInt(end - start + 1) + start;
    }

    /**
     * 产生10G的 1-1000的数据在D盘
     */
    public void generateData() throws IOException {
        File file = new File("D:\ User.dat");
        if (!file.exists()) {
            try {
                file.createNewFile();
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
 
        int start = 18;
        int end = 70;
        long startTime = System.currentTimeMillis();
        BufferedWriter bos = new BufferedWriter(new OutputStreamWriter(new FileOutputStream(file, true)));
        for (long i = 1; i < Integer.MAX_VALUE * 1.7; i++) {
            String data = generateRandomData(start, end) + ",";
            bos.write(data);
            // 每100万条记录成一行,100万条数据大概4M
            if (i % 1000000 == 0) {
                bos.write("
");
            }
        }
        System.out.println("写入完成! 共花费时间:" + (System.currentTimeMillis() - startTime) / 1000 + " s");
        bos.close();
    }

    public static void main(String[] args) {
        GenerateData generateData = new GenerateData();
        try {
            generateData.generateData();
        } catch (IOException e) {
            e.printStackTrace();
}
    }
}

上述代码调整参数执行 2 次,凑 10G 数据在 D 盘 User.dat 文件里:

bdbdd9c6-71e2-11ed-8abf-dac502259ad0.png

准备好 10G 数据后,接着写如何处理这些数据。

3. 场景分析

10G 的数据比当前拥有的运行内存大的多,不能全量加载到内存中读取。如果采用全量加载,那么内存会直接爆掉,只能按行读取。Java 中的 bufferedReader 的 readLine() 按行读取文件里的内容。

4. 读取数据

首先,我们写一个方法单线程读完这 30 亿数据需要多少时间,每读 100 行打印一次:

privatestaticvoidreadData()throwsIOException{
    BufferedReader br = new BufferedReader(new InputStreamReader(new FileInputStream(FILE_NAME), "utf-8"));
    String line;
    long start = System.currentTimeMillis();
    int count = 1;
    while ((line = br.readLine()) != null) {
//按行读取
        if (count % 100 == 0) {
            System.out.println("读取100行,总耗时间: " + (System.currentTimeMillis() - start) / 1000 + " s");
            System.gc();
        }
        count++;
    }
    running = false;
br.close();
}

按行读完 10G 的数据大概 20 秒,基本每 100 行,1 亿多数据花 1 秒,速度还挺快。

bddee56c-71e2-11ed-8abf-dac502259ad0.png

5. 处理数据

5.1 思路一

通过单线程处理,初始化一个 countMap,key 为年龄,value 为出现的次数。将每行读取到的数据按照 "," 进行分割,然后获取到的每一项进行保存到 countMap 里。如果存在,那么值 key 的 value+1。

for (int i = start; i <= end; i++) {
    try {
        File subFile = new File(dir + "" + i + ".dat");
        if (!file.exists()) {
            subFile.createNewFile();
        }
        countMap.computeIfAbsent(i + "", integer -> new AtomicInteger(0));
    } catch (FileNotFoundException e) {
        e.printStackTrace();
    } catch (IOException e) {
        e.printStackTrace();
    }
}

单线程读取并统计 countMap:

publicstatic void splitLine(String lineData) {
    String[] arr = lineData.split(",");
    for (String str : arr) {
        if (StringUtils.isEmpty(str)) {
            continue;
        }
        countMap.computeIfAbsent(str, s -> new AtomicInteger(0)).getAndIncrement();
    }
}

通过比较找出年龄数最多的年龄并打印出来:

private static void findMostAge() {
    Integer targetValue = 0;
    String targetKey = null;
    Iterator> entrySetIterator = countMap.entrySet().iterator();
    while (entrySetIterator.hasNext()) {
        Map.Entry entry = entrySetIterator.next();
        Integer value = entry.getValue().get();
        String key = entry.getKey();
        if (value > targetValue) {
            targetValue = value;
            targetKey = key;
        }
    }
    System.out.println("数量最多的年龄为:" + targetKey + "数量为:" + targetValue);
}

测试结果

总共花了 3 分钟读取完并统计完所有数据。

bded1ab0-71e2-11ed-8abf-dac502259ad0.png

内存消耗为 2G-2.5G,CPU 利用率太低,只向上浮动了 20%-25% 之间。

bdfe657c-71e2-11ed-8abf-dac502259ad0.png

要想提高 CPU 利用率,那么可以使用多线程去处理。

下面我们使用多线程去解决这个 CPU 利用率低的问题。

5.2 思路二:分治法

使用多线程去消费读取到的数据。采用生产者、消费者模式去消费数据。

因为在读取的时候是比较快的,单线程的数据处理能力比较差。因此思路一的性能阻塞在取数据的一方且又是同步操作,导致整个链路的性能会变的很差。


所谓分治法就是分而治之,也就是说将海量数据分割处理。根据 CPU 的能力初始化 n 个线程,每一个线程去消费一个队列,这样线程在消费的时候不会出现抢占队列的问题。同时为了保证线程安全和生产者消费者模式的完整,采用阻塞队列。Java 中提供了 LinkedBlockingQueue 就是一个阻塞队列。

be19e306-71e2-11ed-8abf-dac502259ad0.png

初始化阻塞队列

使用 LinkedList 创建一个阻塞队列列表:

privatestaticListString>>blockQueueLists=newLinkedList<>();

在 static 块里初始化阻塞队列的数量和单个阻塞队列的容量为 256。

上面讲到了 30 亿数据大概 2500 行,按行塞到队列里。20 个队列,那么每个队列 125 个,因此可以容量可以设计为 256 即可。

//每个队列容量为256
for (int i = 0; i < threadNums; i++) {
    blockQueueLists.add(new LinkedBlockingQueue<>(256));
}

生产者

为了实现负载的功能,首先定义一个 count 计数器,用来记录行数:

privatestaticAtomicLongcount=newAtomicLong(0);

按照行数来计算队列的下标 long index=count.get()%threadNums

下面算法就实现了对队列列表中的队列进行轮询的投放:

static classSplitData{
publicstaticvoidsplitLine(StringlineData){
        String[] arr = lineData.split("
");
        for (String str : arr) {
            if (StringUtils.isEmpty(str)) {
                continue;
            }
            long index = count.get() % threadNums;
            try {
                // 如果满了就阻塞
                blockQueueLists.get((int) index).put(str);
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
count.getAndIncrement();
        }
    }

消费者


1) 队列线程私有化

消费方在启动线程的时候根据 index 去获取到指定的队列,这样就实现了队列的线程私有化。

private static void startConsumer() throws FileNotFoundException, UnsupportedEncodingException {
    //如果共用一个队列,那么线程不宜过多,容易出现抢占现象
    System.out.println("开始消费...");
    for (int i = 0; i < threadNums; i++) {
        final int index = i;
        // 每一个线程负责一个 queue,这样不会出现线程抢占队列的情况。
        new Thread(() -> {
            while (consumerRunning) {
                startConsumer = true;
                try {
                    String str = blockQueueLists.get(index).take();
                    countNum(str);
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
            }
        }).start();
}
}

2) 多子线程分割字符串

由于从队列中多到的字符串非常的庞大,如果又是用单线程调用 split(",") 去分割,那么性能同样会阻塞在这个地方。

// 按照 arr的大小,运用多线程分割字符串
private static void countNum(String str) {
    int[] arr = new int[2];
arr[1]=str.length()/3;
    for (int i = 0; i < 3; i++) {
finalStringinnerStr=SplitData.splitStr(str,arr);
        new Thread(() -> {
            String[] strArray = innerStr.split(",");
            for (String s : strArray) {
                countMap.computeIfAbsent(s, s1 -> new AtomicInteger(0)).getAndIncrement();
            }
        }).start();
    }
}

3) 分割字符串算法

分割时从 0 开始,按照等分的原则,将字符串 n 等份,每一个线程分到一份。

用一个 arr 数组的 arr[0] 记录每次的分割开始位置。arr[1] 记录每次分割的结束位置,如果遇到的开始的字符不为 "," 那么就 startIndex-1。如果结束的位置不为 "," 那么将 endIndex 向后移一位。

如果 endIndex 超过了字符串的最大长度,那么就把最后一个字符赋值给 arr[1]。

/**
 * 按照 x坐标 来分割 字符串,如果切到的字符不为“,”, 那么把坐标向前或者向后移动一位。
 *
 * @param line
 * @param arr  存放x1,x2坐标
 * @return
 */
public static String splitStr(String line, int[] arr) {
    int startIndex = arr[0];
    int endIndex = arr[1];
    char start = line.charAt(startIndex);
    char end = line.charAt(endIndex);
    if ((startIndex == 0 || start == ',') && end == ',') {
        arr[0] = endIndex + 1;
        arr[1] = arr[0] + line.length() / 3;
        if (arr[1] >= line.length()) {
            arr[1] = line.length() - 1;
        }
        return line.substring(startIndex, endIndex);
    }


    if (startIndex != 0 && start != ',') {
        startIndex = startIndex - 1;
    }


    if (end != ',') {
        endIndex = endIndex + 1;
    }


    arr[0] = startIndex;
    arr[1] = endIndex;
    if (arr[1] >= line.length()) {
        arr[1] = line.length() - 1;
    }
    return splitStr(line, arr);
}

测试结果

内存和 CPU 初始占用大小:

be25f75e-71e2-11ed-8abf-dac502259ad0.png

启动后,运行时内存稳定在 11.7G,CPU 稳定利用在 90% 以上。

be3b5298-71e2-11ed-8abf-dac502259ad0.png

总耗时由 180 秒缩减到 103 秒,效率提升 75%,得到的结果也与单线程处理的一致。

be59f48c-71e2-11ed-8abf-dac502259ad0.png

6. 遇到的问题

如果在运行了的时候,发现 GC 突然罢工不工作了,有可能是 JVM 的堆中存在的垃圾太多,没回收导致内存的突增。

be7930d6-71e2-11ed-8abf-dac502259ad0.png

解决方法

在读取一定数量后,可以让主线程暂停几秒,手动调用 GC。

提示: 本 demo 的线程创建都是手动创建的,实际开发中使用的是线程池。

审核编辑 :李倩


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    7006

    浏览量

    88955
  • JAVA
    +关注

    关注

    19

    文章

    2966

    浏览量

    104707
  • 代码
    +关注

    关注

    30

    文章

    4780

    浏览量

    68539

原文标题:如何用 Java 几分钟处理完 30 亿个数据?

文章出处:【微信号:TheBigData1024,微信公众号:人工智能与大数据技术】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    使用ADS1292R的内部测试信号采样结果漂移严重,怎么处理

    ),高值为60253(十进制,对应2.903mV),但是几分钟之后,ADC采样结果逐渐往上漂移,最终要到120W+(十进制)才会稳定下来。设备掉电重启后恢复正常,但是过几分钟又出现上述情况,请问这种情况可能是由什么原因导致的。该如何改进?下方图片为抓包
    发表于 11-26 08:35

    ADS1299运行几分钟后就出现失真的原因?怎么解决?

    我利用信号发生器输出接到ADS1299上进行测试的时候,发现刚开始运行的时候各个通道都没有问题,但是过了四五分钟左右之后就出现了好几个通道都出现了失真的情况,请问这是什么原因呢?
    发表于 11-25 07:56

    DAC8740H配合DAC8750使用,连续工作几分钟后DAC8740损坏,怎么回事?

    求大神指导,DAC8740H配合DAC8750使用,刚开始hart功能正常,连续工作几分钟后,DAC8740损坏,电源和地之间的电阻由K欧级别降为1.2欧姆左右,不明就里
    发表于 11-13 06:33

    LMK05318在TICS Pro中怎样设置,可以加快同步的速度,实现几分钟之内相位同步?

    同步可能需要数小时。请问在TICS Pro中怎样设置,可以加快同步的速度,实现几分钟之内相位同步?可以接受同步过程中输出频率的偏差,但要求相位快速同步。附件是我这次的使用的配置文件,请问这样的配置是否有问题?
    发表于 11-12 06:46

    PCM1794数字模拟分开供电,二者地通过一磁珠连接,pcm1794有轻微发热正常吗?

    PCM1794数字模拟分开供电,二者地通过一磁珠连接。后边使用官方滤波电路,刚开始工作正常,但是pcm1794有轻微发热,正常吗?另外工作一段时间后(大概十几分钟,有时候半个小时)就不能发声了
    发表于 11-05 07:23

    TPA3116D2采用PBTL模式,工作几分钟就出现功放增益自动减小,请帮忙看看问题出在哪里?

    TPA3116D2,采用PBTL模式,工作电压DC24V,输出端接升压变压器,当定压功放使用;小功率20W输出测试,另外功率加大60W测试,同样工作几分钟就出现功放增益自动减小(即声音自动小下来),请帮忙看看问题出在哪里
    发表于 10-16 08:16

    “云计算一哥”深夜放大招:几分钟,纯靠Prompt打造一App!

    现在开发一APP需要多久?“云计算一哥”亚马逊云科技,深夜给出了一新标准——只需三步,几分钟,纯靠自然语言和鼠标“点点点”即可。
    的头像 发表于 07-11 18:32 200次阅读
    “云计算一哥”深夜放大招:<b class='flag-5'>几分钟</b>,纯靠Prompt打造一<b class='flag-5'>个</b>App!

    20个数据可以训练神经网络吗

    是一种强大的机器学习模型,可以处理各种复杂的任务,如图像识别、自然语言处理和游戏。然而,训练一神经网络通常需要大量的数据。在某些情况下,我们可能只有有限的
    的头像 发表于 07-11 10:29 857次阅读

    ESP32运行bluedroid中的例程bt_spp_acceptor每次传输几分钟就会出错重启,为什么?

    我使用的ESP32 Dev开发板运行修改自bt_spp_acceptor的例程,就用它来传输八压力传感器和一MPU6050模块的数据,连接上传输几分钟后就出现下面这种情况 E (
    发表于 06-14 06:54

    求助,STM32F030 ADC_CFGR1中DMACFG的使用问题求解

    。ADC不再产生DMA请求。 问题1:DMA单次模式下,我处理完30个数据后,想再一次让ADC产生DMA请求。应该怎样操作?设置哪个位? 2、ADC_CFGR1中DMACFG 设置为0,DMA循环模式
    发表于 04-26 07:25

    STM32H743使用100M速率通过电脑PING,经过十几分钟会PING不通的原因?

    STM32H743根据使用需求,需要总线方式接了两KSZ8851网络扩展芯片,在实际测试时发现在使用100M速率通过电脑PING,大概经过十几分钟会PING不通的情况。 使用10M速率就没有出现PING不通情况,现在查了很久也没找到问题的原因,想请教群里的大神哪位知道会
    发表于 04-24 07:29

    STM32F030CCT6 UART4接收阻塞模式几分钟后无法收到数据是哪里的问题?

    芯片:STM32F030CCT6 库版本:STM32Cube_FW_F0_V1.11.0 问题:UART4,接收阻塞模式几分钟后无法收到数据。 代码如下: HAL_UART_Transmit
    发表于 04-17 07:01

    stm32+FreeRTOS+LWIP实现tcp server,在stm32cubeide下正常运行不了几分钟就出现死机怎么解决?

    stm32+FreeRTOS+LWIP实现tcp server,同样的程序在keil下运行正常,在stm32cubeide下,正常运行不了几分钟,就出现死机。ping不通。侦听也没了。无法判断是在哪个地方死掉
    发表于 04-03 06:48

    【开源项目】几块钱几分钟打造示波器+波形发生器

    /17u7BIECX7-ZHWYcGphLnmg?pwd=open 问题 该示波器只能测量小信号。同时,可以将之前的逻辑分析仪(几块钱几分钟打造100MHz采样率逻辑分析仪)集成进来,形成强大的工具。
    发表于 03-08 11:38

    mysql怎么新建一个数据

    mysql怎么新建一个数据库 如何新建一个数据库在MySQL中 创建一个数据库是MySQL中的基本操作之一。下面将详细介绍在MySQL中如何新建一个数据库。 在MySQL中创建
    的头像 发表于 12-28 10:01 886次阅读