在 JavaScript 中合并数组的多种解决方法

2025-12-27 35 浏览 0 评论

这是一篇很简单的文章,是关于 JavaScript 中数组使用的一些技巧。我们将使用不同的方法结合或者合并两个 JS 数组,以及讨论每个方法的优点和缺点。

让我们先考虑下面这情况:

var a = [ 1, 2, 3, 4, 5, 6, 7, 8, 9 ];
  var b = [ "foo", "bar", "baz", "bam", "bun", "fun" ];

很显然最简单的结合结果应该是:

[
  1, 2, 3, 4, 5, 6, 7, 8, 9,
  "foo", "bar", "baz", "bam" "bun", "fun"
]

Concat

这是最常见的做法:

var c = a.concat( b );
a; // [1,2,3,4,5,6,7,8,9]
b; // ["foo","bar","baz","bam","bun","fun"]
c; // [1,2,3,4,5,6,7,8,9,"foo","bar","baz","bam","bun","fun"]

正如你所看到的,C 是一个全新的数组,表示 A 和 B 两个数组的组合,并让 A 和 B 不变。

但如果 A 有 10,000 个元素,而 B 也有一万个元素,C 就会有 2 万个元素,所以 A 和 A 的内存使用就会翻倍。可能你会说让它们被垃圾回收,把 A 和 B 设置为 null ,问题解决了!

a = b = null; // 'a'和'b'就被回收了

这个仅仅对于只有几个元素的小数组,这没啥问题。但对于大数组,或者在内存有限的系统中需要经常重复这个过程,它其实还有很多改进的地方。

循环插入

好吧,让我们将一个数组的内容复制到另一个,使用 Array.push()

// `b` onto `a`
for (var i=0; i < b.length; i++) {
    a.push( b[i] );
}
a; // [1,2,3,4,5,6,7,8,9,"foo","bar","baz","bam","bun","fun"]
b = null;

现在数组 a 有了数组 b 的内容,似乎有更好的内存占用。

但如果 a 数组比较小,出于内存和速度的原因,你可能要把更小的 a 放到 b 的前面,没问题只需将 push() 换成 unshift() 即可:

// `a` into `b`:
for (var i=a.length-1; i >= 0; i--) {
    b.unshift( a[i] );
}
b; // [1,2,3,4,5,6,7,8,9,"foo","bar","baz","bam","bun","fun"]

功能技巧

不过 for 循环确实比较丑,而且不好维护。其实我们可以做的更好,这是我们的第一次尝试,使用 Array.reduc()

// `b` onto `a`:
a = b.reduce( function(coll,item){
    coll.push( item );
    return coll;
}, a );
 
a; // [1,2,3,4,5,6,7,8,9,"foo","bar","baz","bam","bun","fun"]
 
// or `a` into `b`:
b = a.reduceRight( function(coll,item){
    coll.unshift( item );
    return coll;
}, b );
 
b; // [1,2,3,4,5,6,7,8,9,"foo","bar","baz","bam","bun","fun"]

Array.reduce()Array.reduceRight() 是不错的,但他们是一点点笨拙。 ES6 中的 => 箭头函数将减少一些代码量,但它仍然需要一个函数,每个元素都需要调用一次,不是很完美。

那这个怎么样:

// `b` onto `a`:
a.push.apply( a, b );
a; // [1,2,3,4,5,6,7,8,9,"foo","bar","baz","bam","bun","fun"]
// or `a` into `b`:
b.unshift.apply( b, a );
b; // [1,2,3,4,5,6,7,8,9,"foo","bar","baz","bam","bun","fun"]

这次要好很多了,特别是因为 unshift() 方法在这里并不需要担心前面的反向排序。 ES6 的 spead 操作会更漂亮: a.push(b)b.unshift(a)

数组最大长度限制

第一个主要的问题是,内存使用量增长了一倍,当然只是暂时的,被追加内容基本上是通过函数调用将元素复制到堆栈中。此外,不同的 JS 引擎都有拷贝数据长度的限制。

所以,如果数组有一百万个元素,你肯定会超出了 push()unshift() 允许调用堆栈的限制。处理几千个元素它会做得很好,但你必须要小心,不能超过合理的长度限值。

注意: 你可以尝试一下 splice() ,它跟 push()unshift() 一样都有这种问题。

有一种方法可以避免这种最大长度限制。

function combineInto(a,b) {
    var len = a.length;
    for (var i=0; i < len; i=i+5000) {
        b.unshift.apply( b, a.slice( i, i+5000 ) );
    }
}

等一下,我们的可读性倒退了。 就这样吧,可能会越改越差。


发布评论

发布评论前请先 登录

评论列表 0

暂无评论