2019程序员转型学什么?

https://edu.csdn.net/topic/ai30?utm_source=csdn_bw

640?wx_fmt=gif

和面向过程的 C 语言相比,其继承者 C++ 不仅可以进行 C 语言的过程化程序设计,还可以进行以继承和多态为特点的面向对象的程序设计。要论两者上手的难易度,对此,有网友评价道,学好 C 只要 1 年,而学好 C++ 需要的可能不止 10 年。

然而这么多年过去了,C++ 却一直未能取代 C,且在本文中,作者发现自己常用的库,可以使用到的 C++ 特性越来越少,进而准备向 C 语言过渡。

640?wx_fmt=jpeg

 

作者 | Arseny Kapoulkine

译者 | 姜松浩

责编 | 屠敏

出品 | CSDN(ID:CSDNNews)

以下为译文:

我最近经常使用 meshoptimizer(https://github.com/zeux/meshoptimizer) 这个库,随着时间的推移,能用到的 C++ 库的特性越来越少。截至目前,尽管其中仍包含一些 C ++ 特性,但整体上来看,其代码已与 C 极为相似。

这些变化背后有很多原因,例如删除 C++ 11 的要求可以确保任何人都能在任何平台上编译库;删除 std::vector 大大改进了未优化构建的性能;删除 algorithm 可以提升编译速度等等。但是,我目前更改的这个代码库并没有完全变成 C 语言的代码。今天我们来探索这个特定算法,网格简化器,后面简称为 simplifier.cpp,看看这个算法的全部 C ++ 实现的范围,是否值得一直改进到 C 语言的版本。

 

640?wx_fmt=png

 

方法

 

这个网格简化器,是通过多次调整以改善代码的性能和质量的一种基于边缘压缩的二次曲面简化算法的实现结果。该算法仍处于开发阶段,但已投入相当大的努力。细节真的不那么重要,但它有助于理解结构和大小:

  • 整个算法在一个独立的 .cpp 文件中实现,该文件几乎有一千行代码(撰写本文时为 1004 行),包括注释,空行,带括号的行等。

  • 该算法基本上只使用堆分配的数组作为数据结构,并使用原始指针。

  • 该算法需要一个自定义实现的哈希表和一个排序例程。

我们将看一下实现的几个变化过程,首先是从使用 C ++ 容器和算法的变化开始,这将有助于该算法,然后一次删除一个 C ++ 特性并测试编译速度和运行时的性能。我们使用了三种编译器,分别是 gcc7.3、clang 6 和 msvc 2017,并将它们运行在 Core i7-8700K 上的 Windows 10 / Ubuntu 16.10 系统中。我们将通过编译一个 .cpp 文件(debug 使用默认选项,release 使用 -O2)来测量编译性能,并通过将 buddha.obj (1M 左右的三角形网格)简化为其大小的 25%,用来测试运行时性能。在我们达到这一状态之后,我们再来探究将代码更改为纯 C99。

请注意,我完成这些实现的方式是通过获取现在可以在存储中看到的代码,并将其更改为更惯用的 Modern C ++ [1]。但是,这些通常与之前版本的simplifier.cpp非常接近,不同之处在于现在可以直接比较变化。

 

 

640?wx_fmt=png

Baseline:很多 C ++ 代码

 

我们开始的版本是来自 current meshoptimizer master 的原始 simplifier.cpp,具有以下修改:

  • 所有原始指针都更改为 std::vector

  • 我们使用 std::unordered_set 取代原自定义的哈希表

  • 我们使用 std::sort 取代原自定义的排序例程

下表是我们得到的结果:

compiler/stl

debug compile

release compile

debug run

release run

gcc

520 ms

646 ms

2273 ms

572 ms

clang

400 ms

684 ms

2356 ms

566 ms

clang libc++

400 ms

725 ms

1535 ms

584 ms

msvc

422 ms

566 ms

36317 ms

579 ms

从表中我们可以看出来这是一个很好的开始。我们可以看到性能在发布运行时非常的稳定,简化 1M 三角形网格用了 0.6 秒是一个很好的性能水平。通常在调试时或多或少基本都是合理的,除了一个明显的例外 MSVC(MSVC STL在调试模式下的不良行为是一个强制函数会将从 meshoptimizer 中删除所有 STL 的使用)。而在编译时长方面基本都有所不同,但没有特别奇怪的情况。

为了正确看待编译时长,Jonathan Blow 最近发布了一个带有编译器性能改进的视频流(video stream with compiler performance improvements),他的游戏引擎和用他的新语言编写的游戏在大约一秒内完成编译和链接(编译本身大约需要 0.9 秒)。这是在具有 100K 行的代码库上, 而我们的算法只有 1K 行代码(当然我们的代码中不包括 STL 虽然排除 STL 并不完全公平,但是加入 STL 计算代码行也不完全公平,因为我们知道我们的算法完全可以在没有任何 STL 依赖的情况下用 1K 行代码来实现)。在编译代码时你会注意到 400 毫秒,即使它只有一个文件。而当我处理代码的时候,这样的事情会让我不那么开心,因为有很多这样的文件,累积的编译性能可能会很差。这样的情况是因为我们的实现对于 STL 依赖非常简单,我们只使用其中三个算法/容器。让我们看看当我们停止使用其中一个时会发生什么。

 

640?wx_fmt=png

 

首先不使用 unordered_set

 

我们基准测试的先前版本的秘密就在于 unordered_set 从来没有在那个版本中存在过。虽然 meshoptimizer 最初使用的是 STL 容器和算法,但它从未使用过 std::unordered_set。因为根据以前的经验,我预计性能不足以满足我想要编写的算法类型,但是有一个自定义替代方式就是使用二次探测在一个大的二维数组中实现,这类似于谷歌的 dense_hash_set 设计。它是我通常在不同的代码库中为不同的应用程序经常实现和使用的一种哈希表,所以我对它非常熟悉。在 simplifier.cpp 中的实现只有35行代码 [2],可见这个方式很容易插入并适应手头的用例。让我们看看当我们使用它时会发生什么。

compiler/stl

debug compile

release compile

debug run

release run

gcc

334 ms

461 ms

2054 ms

460 ms

clang

270 ms

517 ms

2152 ms

452 ms

clang libc++

314 ms

609 ms

1179 ms

415 ms

msvc

361 ms

461 ms

28337 ms

380 ms

从结果上看,额外的 35 行用于手动实现的更好的哈希表是值得的。我们在整个版本,调试/发布以及编译时长和运行时长方面都看到了显著的性能提升。运行时长性能的最大提升是在 MSVC 编译器上,我们快了 1.5 倍,事实上哈希表没有被用作算法的核心部分,它仅仅是用于在算法开始之前建立各个顶点之间的唯一性关系。

测试结果突显了 std::unordered_set 不适用于起决定性能的重要工作,特别是那些插入量很大的工作负载。不幸的是,这不是一个实现缺陷,因此无法纠正,这个问题是无序容器的标准要求妨碍了更有效的实现。希望最后我们能够在标准中得到一个更好的哈希表。

 

640?wx_fmt=png

高估了精确的排序算法

 

在开发 simplifier 的过程中,对各种网格的重复分析表明,大量时间都花在了 std::sort 上。现在,std::sort 不是最快的排序算法,但它通常与自定义实现相比极具竞争力,并且在不改变问题的情况下很难被击败。在我的例子中,排序用于边压缩的数组,排序键是一个浮点错误值,所以很自然的是使用3遍基数排序,依次使用键的11位,11位和10位(浮点值为32位每次使用一部分用于排序)。但是,我们这里有一个有趣的替代方案,我们可以使用11位的排序键仅需进行1次基数排序 [3]

我们有一个 32 位的非负浮点值会发生什么;如果我们取前 12 位并忽略最前面的1位(因为第一位是一个符号位且始终为0),我们得到11位代表8位指数和3位尾数,这本质上给了我们一个近似的数值但却存在一个严重的舍入错误。如果我们使用此值作为键进行排序,那么排序顺序就不会完全按照完整的32位键进行排序。然而,在我们的例子中,我们需要排序以便能够首先更好的基于启发式算法处理边压缩,并且启发式算法是一个粗略的近似过程,因此我们的排序带来的额外错误并不明显。这种技术在其他您不一定需要确切顺序的领域中非常有用。一次基数排序的好处是它更快(你只需要对数据进行1次排序而不是 3 次!)并且比完整的基数排序更容易实现,只需 36 行代码 [4]

compiler/stl

debug compile

release compile

debug run

release run

gcc

287 ms

403 ms

949 ms

334 ms

clang

230 ms

461 ms

962 ms

327 ms

clang libc++

312 ms

546 ms

940 ms

328 ms

msvc

330 ms

430 ms

26824 ms

285 ms

这次编译时间的增加稍微适度。我们已经删除了<algorithm> 标题,但它似乎并没有对编译时长产生非常显著的好处,因为我们仍然存在 <vector>,并且可能两者都提取了一些大 STL 头文件。但是,对运行性能的影响非常显著,特别是在 libstdc ++ 中的调试运行性能上(很可能 std::sort在调试中非常慢)此外在发布版本的收效上也同样令人兴奋。从这张图表的结果中观察不出来排序算法变得多么的快,与其他工作相比,它几乎完全从配置文件中消失,然而整个算法“仅”运行速度快了 1.35 倍。但单纯在排序代码上测试得到的收效更好,在发布版本中从 117 毫秒减少到了 10 毫秒。

 

640?wx_fmt=png

 

再见,std :: vector

 

有一个数字是我们尚未大幅度调整的,那就是使用 MSVC 在调试代码所需的时间。虽然很自然的会想到未经优化的构建过程会比优化后的慢,但是优化后的代码它们必须足够快才行。有时你希望在有意义的输入数据集上调试问题。有时你希望运行调试能够进行全面检查以通过你的测试,确保在发布版本中它们不会触发任何可能在隐匿的 bug。有时你试图调试程序的不同部分,但仍需要运行其余部分。程序员创造性地提出了许多变通方法,使问题不那么严重,例如你可以制作特殊的构建来实现一些优化而不是全部,你也可以对不同的项目使用混合优化设置,你可以使用 #pragma optimize 这样的指令来暂时禁用有问题的部分的代码的优化,但所有的这些看起来像是临时使用的补丁。让我们尝试用一个非常简单的动态数组替换我们仍然使用的唯一 STL 组件 std::vector。我们的代码中不需要 resize 或 push_back,所有数组都使用正确的大小进行初始化。我们的要求足够低,我们这种 std::vector 的替代方式仅仅需要 40行代码 [5],并且主要由 operator[]  定义组成。

compiler/stl

debug compile

release compile

debug run

release run

gcc

158 ms

303 ms

980 ms

318 ms

clang

138 ms

320 ms

1021 ms

297 ms

clang libc++

142 ms

324 ms

1028 ms

299 ms

msvc

156 ms

219 ms

3482 ms

265 ms

上表中的结果相当的有趣。通过用我们自己的类型替换 std::vector ,我们不仅显著提高了 MSVC 的调试性能,而且还减半了我们测试使用的几个编译器的编译时间。gcc / clang 中的调试运行性能有点退步,我相信这是因为我的替换代码中使用 assert 来对每个 operator[] 访问执行边界检查,而在 libc ++ 和 libstdc ++ 中,它们分别使用  _GLIBCXX_ASSERTIONS 和_LIBCPP_DEBUG 单独定义来完成边界检查控制的。为 std::vector 的变量启用这些定义会将两个库的调试运行时长提高到大约 1350 ms [6],因此在启用类似功能时,我们的替换代码运行速度会更快。

发布的性能整体来看也略有提高,这是因为对于我们代码中的许多数组而言,std::vector 的构造函数执行的默认初始化是多余的,因为我们无论如何都要填充数组。当然,使用 std::vector,你也可以 resize 那些大数组的大小,然后计算条目(这需要对每个条目进行冗余的默认初始化),或者 reserve 和 push_back(这需要更多的代码来每个条目进行添加,而这个花销是累加起来的)。与之相反的是,使用自定义容器,可以轻松地选择跳过初始化。实际上,在我们的替换代码中这是唯一的选项,因为如果需要,可以很轻松的手动添加 memset 设置数组大小。

 

640?wx_fmt=png

 

又回到了之前

 

带有边界检查的 operator[] 的自定义容器大部分都是成功的,但它并不能让我满意。在某些算法中,容器的额外成本仍然非常庞大。在一些算法中,内部函数将使用原始指针来最佳化发布的运行性能,这意味着无论如何都不会执行边界检查。此外,算法输入使用原始指针,需要仔细处理。由于在许多关键位置使用了原始指针,我会使用 Address Sanitizer 作为 CI 管道的一部分运行构建,偶尔也会在本地运行尝试,因此我对缺少越界访问感到安全。在没有自定义可视化工具的情况下,调试器将无法显示数组,更关键的是,在评估成员访问权限时会遇到问题(这在 std::vector 中也是如此,因为这取决于调试器),这使得查看表达式更加复杂,调试也不那么愉快。现状是既没有提供完美的安全性,也没有提供完美的性能,因此我决定尝试使用原始指针。

当然,容器的另一个好处是对内存泄漏的额外保护,由于我不是特别热衷于记住释放每个分配的指针,所以我创建了一个 meshopt_Allocator 类[7]。这个类可以分配大块的类型数据并且会记住分配的每一个指针,在运行末尾阶段,它将会删除所有已分配的块。这导致融合的分配器+数组的类被拆分为两部分,一个是特殊的分配器类用于完成了内存管理任务,而对于数组而言一个原始指针就足够了。Address Sanitizer,以及严格的测试和手动填写的断言声明,这些将保持代码正确。

compiler/stl

debug compile

release compile

debug run

release run

gcc

147 ms

260 ms

720 ms

320 ms

clang

132 ms

294 ms

699 ms

301 ms

clang libc++

131 ms

297 ms

697 ms

300 ms

msvc

141 ms

194 ms

1080 ms

261 ms

虽然我对这种权衡并不是百分之百满意,但到目前为止它仍然运行良好。删除与确定每个函数中是否应该使用原始指针、迭代器或容器相关的检测的开销是很有必要的。值得注意的是,使用 Address Sanitizer 构建的开销是非常合理的,并且使用它会让我感觉更安全,因为它会捕获容器中的问题边界检查的超集。

compiler/sanitizer

compile

run

gcc

147 ms

721 ms

gcc asan

200 ms

1229 ms

gcc asan ubsan

260 ms

1532 ms

clang

135 ms

695 ms

clang asan

154 ms

1266 ms

clang asan ubsan

180 ms

1992 ms

 

 

640?wx_fmt=png

让我们来试试改成 C

 

一旦我们切换到原始指针,我们的代码中 C ++ 就剩不下多少了。偶尔还有一两个模板(template),但实例化的数量足够小,这样我们可以仅为我们需要的每种类型复制代码。meshoptimizer 使用了 C ++ 中的指针类型强制转换和函数调用方式的强制转换(例如int(v)),但 C 语言没有这两种强制转化的方式,所以必须对代码进行相应的调整。同样,我们还遇到了一些其他的语法问题,但实际上在这一方面将代码更改为 C 语言的版本并不难。这样做的确需要更多的牺牲,还有就是 MSVC 的问题,要么我们必须使用 C89,要么将我们的 C99 代码编译为 C ++,除非我们愿意只支持最新的 MSVC 版本,但这样做确实是可行的。在我们停止使用每个 C ++ 标准头之后,这些真的重要吗?

compiler/stl

debug compile

release compile

debug run

release run

gcc

105 ms

209 ms

710 ms

321 ms

clang

95 ms

254 ms

711 ms

310 ms

msvc c++

139 ms

192 ms

1087 ms

262 ms

msvc c99

125 ms

180 ms

1085 ms

261 ms

对 gcc / clang 编译时间有显着影响,我们通过将代码切换到 C 语言之后可以节省大约 40 ms。此时的真正区别在于标准头文件上。例如simplifier.cpp 使用的 math.h 这个头文件在 C ++模式下与 C 模式下相比实际上大了不少,一旦默认编译模式设置为 C ++ 17 时,这种差异将会增加得更多:

compiler

c99

c++98

c++11

c++14

c++17

gcc

105 ms

143 ms

147 ms

147 ms

214 ms

clang

95 ms

129 ms

133 ms

134 ms

215 ms

clang libc++

95 ms

130 ms

132 ms

136 ms

140 ms

问题是 math.h 在 gcc / clang 编译时会包含 cmath,cmath 会带来很多 C ++ 机制进而增加运行成本,而在 libstdc ++ 中的 C ++ 17 中则会添加一连串新的特殊函数,这些函数却很少有用,但无论如何都会使编译速度变慢。在这种情况下,删除对 math.h 的依赖很容易[8]

#ifdef __GNUC__
#define fabsf(x) __builtin_fabsf(x)
#define sqrtf(x) __builtin_sqrtf(x)
#else
#include <math.h>
#endif

就是上述这样的方式一直到改成 C 语言版本的编译时间。这绝对是 libstdc++ 和 libc++ 未来可以改进的领域。我认为对使用 C 的头文件的而言,承担 C++ 的包带来的成本是不合理的。除了 math.h 问题之外,假设在编译时间中 C 语言的代码有意识的用到了 C++ 的子集,这样的结果看起来 C 语言版本的代码的编译时间并不比 C++ 版本的快,所以这种情况的时候切换到 C 语言也不能保证 meshoptimizer 会更快。

 

640?wx_fmt=png

 

结论

 

希望通过 simplifier.cpp 中的过去、现在和未来可能的变化进行探索是有用的。在制作 C / C ++ 库时,重要的是要注意不仅仅只有代码的正确性,而可移植性、编译的简易性、编译时间、在调试和发布时的运行时间、可调试性等等,所有的这些都很重要,这些有助于减少库和代码贡献者之间的冲突。C ++ 是一种无情的语言,但是,如果有足够的时间和精力,就可以获得良好的表现。前提是你愿意质疑一切,甚至包括有时被认为是极其常见的方法,例如 STL 或 CRT 的有效性或效率。

我们在调试模式下在 gcc 中用了半秒的编译时间,在 MSVC 中用了 36s 的运行时间,并以 gcc 的 100ms 编译时间和 MSVC 上大约一秒的运行时间结束,这种方式使用起来更加愉快。当然,在 1K 行编译 100ms 的前提下,并假设是线性关系,每 10K 行我们大约需要一整秒,这样的结果仍然比其他一些语言慢得多,但这对于在单核上运行的完整构建来说并非完全不合理。为开发多年的大型代码库提供服务是一个更难的问题,这些将留给读者作为练习了;)

点击此链接(https://gist.github.com/zeux/bf847986e0474cf48f61bb5749da38e4)可以获得对 simplifier.cpp 的所有源修改;按照文章中描述的顺序,它们依次是simplifiervsm.cpp、simplifiervs.cpp、simplifierv.cpp、simplifierb.cpp、simplifier.cpp、simplifier.c。

注:

[1]:去年,在工作中讨论了 C ++,有人说“这是一个很好的 C++ 子集,一个拥有类的 C 语言”,我回答说“有一个更好的子集,拥有结构的 C 语言”。这就是大多数 meshoptimizer 源代码的样子,除了几个模板。

[2]:哈希表接口只有两个函数,hashBuckets和hashLookup:simplifier.cpp:124 。

[3]:使用 11 位是一个合理的选择,因为它需要一个 2048 条目的直方图,它需要 8 KB 并且可以轻松地适应 16 KB 的 L1 缓存。给定 32 KB L1 高速缓存,你可以将直方图扩展到 12 位,但超出此范围通常效率较低。你可以在 Pierre Terdiman 的 Radix Sort Revisited 文章中阅读有关基数排序的更多信息(http://www.codercorner.com/RadixSortRevisited.htm)。 

[4]:sortEdgeCollapses 函数的完整实现可在此处获得: simplifier.cpp:712(https://github.com/zeux/meshoptimizer/blob/c93ba0987baa84bd73b61edf1c0ba7ba2e48df4b/src/simplifier.cpp#L712)。

[5]:这个类不再是 meshoptimizer 的一部分了,但你可以在这里查看较旧的稍长版本:meshoptimizer.h:605(https://github.com/zeux/meshoptimizer/blob/5b0d10bb3c0c174965b716dda3270bce4f3278b6/src/meshoptimizer.h#L605)。

[6]:我在调查了调试中的奇怪性能差异后发现了这一点;我不愿重复所有先前测试用例的调试基准,所以我假设开销是 std::vector 导致的额外的大约 30%。希望这不会改变一般情况。我不确定为什么默认情况下这些断言没有首先启用,这似乎不是用户友好的,但这应该反映了使用这些库的默认体验。

[7]:所有 meshoptimizer 中的算法都使用了此类,可在此处获得: meshoptimizer.h:662(https://github.com/zeux/meshoptimizer/blob/c93ba0987baa84bd73b61edf1c0ba7ba2e48df4b/src/meshoptimizer.h#L662)。

[8]:这感觉就像补丁,而且我必须独立地应用于多个源文件,所以现在我选择不这样做。但是,如果在修复此问题之前 C ++ 17 模式成为默认模式,我将不得不重新考虑,因为 2x 编译时间损失有点太大了。

挑战高薪,进军人工智能领域:

https://edu.csdn.net/topic/ai30?utm_source=csdn_bw

原文:https://zeuxcg.org/2019/01/17/is-c-fast

本文为 CSDN 翻译,如需转载,请注明来源出处。

640?wx_fmt=jpeg

 热 文 推 荐 

WinRAR 曝 19 年前重大漏洞,可完全控制电脑!| 附解决方法

☞ 字节跳动(今日头条),战斗力为何如此凶猛?| 畅言

☞ @程序员,如何深度解密 HTTP 通信细节? | 技术头条

☞ 那些简历造假拿 Offer 的程序员,后来都怎么样了?

☞ 被V神点赞, 我是如何用五子棋打败以太坊排名最高的应用的? |人物志

☞ 50个最有价值的数据可视化图表(推荐收藏)

一键免费自动AI抠图,效果连PS大哥也点赞!

史上最难的一道Java面试题

 

print_r('点个好看吧!');
var_dump('点个好看吧!');
NSLog(@"点个好看吧!");
System.out.println("点个好看吧!");
console.log("点个好看吧!");
print("点个好看吧!");
printf("点个好看吧!\n");
cout << "点个好看吧!" << endl;
Console.WriteLine("点个好看吧!");
fmt.Println("点个好看吧!");
Response.Write("点个好看吧!");
alert("点个好看吧!")
echo "点个好看吧!"

640?wx_fmt=gif点击阅读原文,输入关键词,即可搜索您想要的 CSDN 文章。

640?wx_fmt=png喜欢就点击“好看”吧!

Logo

20年前,《新程序员》创刊时,我们的心愿是全面关注程序员成长,中国将拥有新一代世界级的程序员。20年后的今天,我们有了新的使命:助力中国IT技术人成长,成就一亿技术人!

更多推荐