这个问题是从maths.stackexchange.com 上的问题中寻找进一步的答案。
我继承了一些旨在集成稀疏二维数据的数字正交代码。求积并没有以我认为的“正常”方式进行,但似乎使用了基于 Voronoi 单元区域的临时方法。然而,这些数据有一些不寻常的特性,可能会使这一点变得合理。
样本大致落在一个网格上,因此每个网格单元内有一个或零个样本点。(但随机定位在单元格内,而不是单元格中心)。
然后通过将“幽灵”点添加到区域外部(以在非幽灵点处绑定 Voronoi 区域)进行集成,生成域的 Delaunay 三角剖分,然后为每个样本点分配与面积相等的权重对应的 Voronoi 区域。
我可以看到这个方案试图最小化 C1 函数的错误。
然而,在对域进行三角剖分之后,我预计积分将基于相邻的线性元素,这应该为线性函数提供准确的答案,因此我期望误差估计(至少对于 C2 函数) 的一个订单更高。
然而,我进行的一些数值实验表明,对于平滑数据,两种方法具有相似的收敛速度。(详细信息可以在我对原始 math.SE 问题的回答中找到)
在对原始问题的回答之一中指出,选择基于 Voronoi 的方案的一个可能原因是权重随样本位置的变化而连续(这对于 Delaunay 三角权重而言失败,因为网格可以随样本不连续地变化地点)
所以我的问题是:
与 Delaunay 风格方法相比,使用 Voronoi 方法是否有已知的优势,反之亦然?这些可以量化吗?
为什么我看到两种方法的收敛速度大致相同?