终极 C+避坑指南

作者:boreholehu,腾讯 WXG 后台开发工程师
前言
C++是一门古老的语言,但仍然在不间断更新中,不断引用新特性。但与此同时 C++又甩不掉巨大的历史包袱,并且 C++的设计初衷和理念造成了 C++异常复杂,还出现了很多不合理的“缺陷”。
本文主要有 3 个目的:
总结一些 C++晦涩难懂的语法现象,解释其背后原因,作为防踩坑之用;
和一些其他的编程语言进行比较,列举它们的优劣;
发表一些我自己作为 C++程序员的看法和感受。
来自 C 语言的历史包袱
C++有一个很大的历史包袱,就是 C 语言。C 语言诞生时间很早,并且它是为了编写 OS 而诞生的,语法更加底层。有人说,C 并不是针对程序员友好的语言,而是针对编译期友好的语言。有些场景在 C 语言本身可能并没有什么不合理,但放到 C++当中会“爆炸”,或者说,会迅速变成一种“缺陷”,让人异常费解。
C++在演变过程中一直在吸收其他语言的优势,不断提供新的语法、工具来进行优化。但为了兼容性(不仅仅是语法的兼容,还有一些设计理念的兼容),还是会留下很多坑。
数组
数组本身其实没有什么问题,这种语法也非常常用,主要是表示连续一组相同的数据构成的集合。但数组类型在待遇上却和其他类型(比如说结构体)非常不一样。
数组的复制
我们知道,结构体类型是可以很轻松的复制的,比如说:
但数组却并不可以,比如:
明明这里 arr2 和 arr1 同为类型,但是并不支持复制。照理说,数组应当比结构体更加适合复制场景,因为需求是很明确的,就是元素按位复制。
数组类型传参
由于数组不可以复制,导致了数组同样不支持传参,因此我们只能采用“首地址+长度”的方式来传递数组:
而为了方便程序员进行这种方式的传参,C 又做了额外的 2 件事:
提供一种隐式类型转换,支持将数组类型转换为首元素指针类型(比如说这里 arr 是类型,传参时自动转换为类型)
函数参数的语法糖,如果在函数参数写数组类型,那么会自动转换成元素指针类型,比如说下面这几种写法都完全等价:
所以这里非常容易误导人的就在这个语法糖中,无论中括号里写多少,或者不写,这个值都是会被忽略的,要想知道数组的边界,你就必须要通过额外的参数来传递。
但通过参数传递这是一种软约束,你无法保证调用者传的就是数组元素个数,这里的危害详见后面“指针偏移”的章节。
分析和思考
之所以 C 的数组会出现这种奇怪现象,我猜测,作者考虑的是数组的实际使用场景,是经常会进行切段截取的,也就是说,一个数组类型并不总是完全整体使用,我们可能更多时候用的是其中的一段。举个简单的例子,如果数组是整体复制、传递的话,做数组排序递归的时候会不会很尴尬?首先,排序函数的参数难以书写,因为要指定数组个数,我们总不能针对于 1,2,3,4,5,6,...元素个数的数组都分别写一个排序函数吧?其次,如果取子数组就会复制出一个新数组的话,也就不能对原数组进行排序了。
所以综合考虑,干脆这里就不支持复制,强迫程序员使用指针+长度这种方式来操作数组,反而更加符合数组的实际使用场景。
当然了,在 C++中有了引用语法,我们还是可以把数组类型进行传递的,比如:
但绝大多数的场景似乎都不会这样去用。一些新兴语言(比如说 Go)就注意到了这一点,因此将其进行了区分。在 Go 语言中,区分了“数组”和“切片”的概念,数组就是长度固定的,整体来传递;而切片则类似于首地址+长度的方式传递(只不过没有单独用参数,而是用 len 函数来获取)
上面例子里,f1 就必须传递长度是 5 的数组类型,而 f2 则可以传递任意长度的切片类型。
而 C++其实也注意到了这一点,但由于兼容问题,它只能通过 STL 提供容器的方式来解决,就是定长数组,而就是变长数组,跟上述 Go 语言中的数组和切片的概念是基本类似的。这也是 C++中更加推荐使用 vector 而不是 C 风格数组的原因。
类型说明符
类型不是从左向右说明
C/C++中的类型说明符其实设计得很不合理,除了最简单的变量定义:
上面这个还是很清晰明了的,但稍微复杂一点的,就比较奇怪了:
arr 明明是类型,但是这里的 int 和[5]却并没有写到一起,如果这个还不算很容易造成迷惑的话,那来看看下面的:
a1 是类型,表示 a1 是个数组,有 5 个元素,每个元素都是指针类型的。
a2 是类型,是一个指针,指针指向了一个类型的数组。
这里离谱的就在这个类型上,也就是说,“指向类型的指针”并不是,而是,类型说明符是从里往外描述的,而不是从左往右。
类型说明符同时承担了动作语义
这里的另一个问题就是,C/C++并没有把“定义变量”和“变量的类型”这两件事分开,而是用类型说明符来同时承担了。也就是说,“定义一个 int 类型变量”这件事中,int 这一个关键字不仅表示“int 类型”,还表示了“定义变量”这个意义。这件事放在定义变量这件事上可能还不算明显,但放到定义函数上就不一样了:
上面这个例子中,int 和()共同表示了“定义函数”这个意义。也就是说,看到 int 这个关键字,并不一定是表示定义变量,还有可能是定义函数,定义函数时 int 表示了函数的返回值的类型。
正是由于 C/C++中,类型说明符具有多重含义,才造成一些复杂语法简直让人崩溃,比如说定义高阶函数:
DC 是一个函数,它有一个参数,是类型的函数指针,它的返回值是一个类型的函数指针。但从直观性上来说,上面的写法完全毫无可读性,如果没有那一行注释,相信大家很难看得出这个语法到底是在做什么。
C++引入了返回值右置的语法,从一定程度上可以解决这个问题:
但用 auto 作为占位符仍然还是有些突兀和晦涩的。
将类型符和动作语义分离的语言
我们来看一看其他语言是如何弥补这个缺陷的,最简单的做法就是把“类型”和“动作”这两件事分开,用不同的关键字来表示。Go 语言:
Swift 语言:
JavaScript 语言:
指针偏移
指针的偏移运算让指针操作有了较大的自由度,但同时也会引入越界问题:
换句话说,指针的偏移是完全随意的,静态检测永远不会去判断当前指针的位置是否合法。这个与之前章节提到的数组传参的问题结合起来,会更加容易发生并且更加不容易发现:
因为参数中的值和数组的实际长度并没有要求强一致。
其他语言的指针
在其他语言中,有的语言(例如 java、C#)直接取消了指针的相关语法,但由此就必须引入“值类型”和“引用类型”的概念。例如在 java 中,存在“实”和“名”的概念:
本质上来说,这个“名”就是栈空间上的一个指针,而“实”则是堆空间中的实际数据。如果取消指针概念的话,就要强行区分哪些类型是“值类型”,会完全复制,哪些是“引用类型”,只会浅复制。
C#中的结构体和类的概念恰好如此,结构体是值类型,整体复制,而类是引用类型,要用库函数来复制。
而还有一些语言保留了指针的概念(例如 Go、Swift),但仅仅用于明确指向和引用的含义,并不提供指针偏移运算,来防止出现越界问题。例如 go 中:
swift 中虽然仍然支持指针,但非常弱化了它的概念,从语法本身就能看出,不到迫不得已并不推荐使用:
OC 中的指针更加特殊和“奇葩”,首先,OC 完全保留了 C 中的指针用法,而额外扩展的“类”类型则不允许出现在栈中,也就是说,所有对象都强制放在堆中,栈上只保留指针对其引用。虽然 OC 中的指针仍然是 C 指针,但由于操作对象的“奇葩”语法,倒是并不需要太担心指针偏移的问题。
隐式类型转换
隐式类型转换在一些场景下会让程序更加简洁,降低代码编写难度。比如说下面这些场景:
但是有的时候隐式类型转化却会引发很奇怪的问题,比如说:
结合之前所说,函数参数中的数组其实是数组首元素指针的语法糖,所以中的其实是类型,这时候再对其进行运算,结果是指针的大小,而并非数组的大小。如果程序员不能意识到这里发生了->的隐式类型转换,那么就可能出错。还有一些隐式类型转换也很离谱,比如说:
这里发生的隐式转换是 bool->int,同样可能不符合预期。关于布尔类型详见后面章节。C 中的这些隐式转换可能影响并不算大,但拓展到 C++中就可能有爆炸性的影响,详见后面“隐式构造”和“多态转换”的相关章节。
赋值语句的返回值
C/C++的赋值语句自带返回值,这一定算得上一大缺陷,在 C 中赋值语句返回值,在 C++中赋值语句返回左值引用。
这件事造成的最大影响就在和这两个符号上,比如:
这里原本想写,但是错把写成了,但编译是可以完全通过的,因为本身返回了 a1 的引用,再触发一次隐式类型转换,把 bool 转化为 int(这里详见后面非布尔类型的布尔意义章节)。
更有可能的是写在 if 表达式中:
可以看到,执行后 a 的值变为 1,返回的 a 的值就是 1,所以这里的变成了恒为真。
C++为了兼容这一特性,又不得不要求自定义类型要定义赋值函数
这里赋值函数的返回值强制要求定义为当前类型的左值引用,一来会让人觉得有些无厘头,记不住这里的写法,二来在发生继承关系的时候非常容易忘记处理父类的赋值。
其他语言的赋值语句
古老一些的 C 系扩展语言基本还是保留了赋值语句的返回值(例如 java、OC),但一些新兴语言(例如 Go、Swift)则是直接取消了赋值语句的返回值,比如说在 swift 中:
会返回,所以再赋值给 c 时会报错
非布尔类型的布尔意义
在原始 C 当中,其实并没有“布尔”类型,所有表示是非都是用 int 来做的。所以,int 类型就赋予了布尔意义,0 表示 false,非 0 都表示 true,由此也诞生了很多“野路子”的编程技巧:
所有表示判断逻辑的语法,都可以用非布尔类型的值传入,这样的写法其实是很反人类直觉的,更严重的问题就是与 true 常量比较的问题。
正是由于非布尔类型具有了布尔意义,才会造成一些非常反直觉的事情,比如说:
其他语言的布尔类型
基本上除了 C++和一些弱类型脚本语言(比如 js)以外,其他语言都取消了非布尔类型的布尔意义,要想转换为布尔值,一定要通过布尔运算才可以,例如在 Go 中:
这样其实更符合直觉,也可以一定程度上避免出现写成类似于出现的问题。C++中正是由于“赋值语句有返回值”和“非布尔类型有布尔意义”同时生效,才会在这里出现问题。
解指针类型
关于 C/C++到底是强类型语言还是弱类型语言,业界一直争论不休。有人认为,变量的类型从定义后就不能改变,并且每个变量都有固定的类型,所以 C/C++应该是强类型语言。
但有人持相反意见,是因为这个类型,仅仅是“表面上”不可变,但其实是可变的,比如说看下面例程:
根源就在于,指针的解类型是可以改变的,原本类型的变量,我们只要把它的首地址保存下来,然后按照另一种类型来解,那么就可以做到“改变 a 的类型”的目的。
这也就意味着,指针类型是不安全的,因为你不一定能保证现在解指针的类型和指针指向数据的真实类型是匹配的。
还有更野一点的操作,比如:
这里的指针类型问题和前面章节提到的指针偏移问题,综合起来就是说 C/C++的指针操作的自由度过高,提升了语言的灵活度,同时也增加了其复杂度。
后置自增/自减
如果仅仅在 C 的角度上,后置自增/自减语法并没有带来太多的副作用,有时候在程序中作为一些小技巧反而可以让程序更加精简,比如说:
但这个特性继承到 C++后问题就会被放大,比如说下面的例子:
这段代码看似特别正常,但仔细想想,iter 作为一个对象类型,如果后置,一定会发生复制。后置原本的目的就是在表达式的位置先返回原值,表达式执行完后再进行自增。但如果放在类类型来说,就必须要临时保存一份原本的值。例如:
这也从侧面解释了,为什么前置要求返回引用,而后置则是返回非引用,因为这里需要复制一份快照用于返回。
那么,写在 for 循环中的后置就会平白无故发生一次复制,又因为返回值没有接收,再被析构。
C++保留的和的语义,也是因为它和或语义并不完全等价。我们可以用顺序迭代器来解释。对于顺序迭代器(比如说链表的迭代器),表示取下一个节点,表示取上一个节点。而或者则表示偏移了,这种语义更适合随机访问(所以说随机迭代器支持和,但顺序迭代器只支持和)。
其他语言的自增/自减
其他语言的做法基本分两种,一种就是保留自增/自减语法,但不再提供返回值,也就不用区分前置和后置,例如 Go:
另一种就是干脆删除自增/自减语法,只提供普通的操作赋值语句,例如 Swift:
类型长度
这里说的类型长度指的是相同类型在不同环境下长度不一致的情况,下面总结表格
由于这里出现了 32 位和 64 位环境下长度不一致的情况,C 语言特意提供了头文件(C++中在 cstddef 中引用),定义了定长类型,例如在 32 位环境下其实是,而在 64 位环境下其实是。
但这里的问题点在于:
1. 并没有定长格式符
例如在 32 位环境下对应的格式符是,但是在 64 位环境下对应的格式符是。有一种折中的解决办法是自定义一个宏:
但这样会让字符串字面量从中间断开,非常不直观。
2. 类型不一致
例如在 64 位环境下,和都是 64 位长,但编译器会识别为不同类型,在一些类型推导的场景会出现和预期不一致的情况,例如:
上述例子表明,和是不同实例,尽管在 64 位环境下和真的看不出什么区别,但是编译器就是会识别成不同类型。
格式化字符串
格式化字符串算是非常经典的 C 的产物,不仅是 C++,非常多的语言都是支持这种格式符的,例如 java、Go、python 等等。
但 C++中的格式化字符串可以说完全就是 C 的那一套,根本没有任何扩展。换句话说,除了基本数据类型和 0 结尾的字符串以外,其他任何类型都没有用于匹配的格式符。
例如,对于结构体类型、数组、元组类型等等,都没法匹配到格式符:
对于这些组合类型,我们就不得不手动去访问内部成员,或者用循环访问,非常不方便。
针对于字符串,还会有一个严重的潜在问题,比如:
由于 str 中出现了,如果用格式符来匹配的话,会在 0 的位置截断,也就是说其实只获取到了中的第一个 abc,第二个 abc 就被丢失了。
其他语言中的格式符
而一些其他语言则是扩展了格式符功能用于解决上述问题,例如 OC 引入了格式符,用于调用对象的方法来拼接字符串:
而 Go 语言引入了更加方便的格式符,可以用来匹配任意类型,用它的默认方式打印。
Python 则是用作为万能格式符来使用:
枚举
枚举类型原本是用于解决固定范围取值的类型表示,但由于在 C 语言中被定义为了整型类型的一种语法糖,导致枚举类型的使用上出现了一些问题。
1. 无法前置声明
枚举类型无法先声明后定义,例如下面这段代码会编译报错:
主要是因为类型是动态选择基础类型的,比如这里只有 4 个取值,那么可能会选取,而如果定义的取值范围比较大,或者中间出现大枚举值的成员,那么可能会选取或者。也就是说,枚举类型如果没定义完,编译期是不知道它的长度的,因此就没法前置声明。
C++中允许指定枚举的基础类型,制定后可以前置声明:
但如果你是在调别人写的库的时候,人家的枚举没有指定基础类型的话,那你也没辙了,就是不能前置声明。
2. 无法确认枚举值的范围
也就是说,我没有办法判断某个值是不是合法的枚举值:
3. 枚举值可以相同
4. C 风格的枚举还存在“成员名称全局有效”和“可以隐式转换为整型”的缺陷
但因为 C++提供了风格的枚举类型,解决了这两个问题,因此这里不再额外讨论。
宏这个东西,完全就是针对编译器友好的,编译器非常方便地在宏的指导下,替换源代码中的内容。但这个玩意对程序员(尤其是阅读代码的人)来说是极其不友好的,由于是预处理指令,因此任何的静态检测均无法生效。一个经典的例子就是:
因为宏就是简单粗暴地替换而已,并没有任何逻辑判断在里面。
宏因为它很“好用”,所以非常容易被滥用,下面列举了一些宏滥用的情况供参考:
1. 用宏来定义类成员
这种用法相当于屏蔽了内部实现,对阅读者非常不友好,与此同时加不加 DEFAULT_MEM 是一种软约束,实际开发时极容易出错。
再比如这种的:
这位同学,我理解你是想封装一下单例的实现,但咱是不是可以考虑一下更好的方式?(比如用模板)
2. 用宏来屏蔽参数
这位同学,咱要是真想写一个安全版本的函数,咱就好好去判断 dst_buf_size 如何?
3. 用宏来拼接函数处理
这种用宏来做函数名的拼接看似方便,但最容易出的问题就是类型不一致,加入和中虽然都有这个字段,但类型不一样,那么这样用就可能造成类型转换。试想是类型,而是类型,这样做是不是有可能造成数据的截断呢?
4. 用宏来改变语法风格
这位同学你到底是写 python 写惯了不适应 C 语法呢,还是说你为了让代码扫描工具扫不出来你的圈复杂度才出此下策的呢~~
共合体
共合体的所有成员共用内存空间,也就是说它们的首地址相同。在很多人眼中,共合体仅仅在“多选一”的场景下才会使用,例如:
上例中用于查找某个数据的 key,可以通过 id 查找,也可以通过 name,但只能二选一。
这种场景确实可以使用共合体来节省空间,但缺点在于,共合体的本质就是同一个数据的不同解类型,换句话说,程序是不知道当前的数据是什么类型的,共合体的成员访问完全可以用更换解指针类型的方式来处理,例如:
共合体只不过把有可能需要的解类型提前写出来罢了。所以说,共合体并不是用来“多选一”的,笔者认为这是大家曲解的用法。毕竟真正要做到“多选一”,你就得知道当前选的是哪一个,例如:
用过 google protobuf 的读者一定很熟悉上面的写法,这个就是 proto 中语法的实现方式。
在 C++17 中提供了,正是为了解决“多选一”问题存在的,它其实并不是为了代替共合体,因为共合体原本就不是为了这种需求的,把共合体用做“多选一”实在是有点“屈才”了。
更加贴合共合体本意的用法,是我最早是在阅读处理网络报文的代码中看到的,例如某种协议的报文有如下规定(例子是我随便写的):
这里能看出来,整个报文有 2 字节,一般的处理时,我们可能只需要关注这个报文的这 2 个字节值是多少(比如说用十六进制表示),而在排错的时候,才会关注报文中每一位的含义,因此,“整体数据”和“内部数据”就成为了这段报文的两种获取方式,这种场景下非常适合用共合体:
因此,这里的需求就是“用两种方式来访问同一份数据”,才是完全符合共合体定义的用法。
共合体应该是 C 语言的特色了,其他任何高级语言都没有类似的语法,主要还是因为 C 语言更加面相底层,C++仅仅是继承了 C 的语法而已。
const 引用
先说说 const
先来吐槽一件事,就是 C/C++中这个关键字,这个名字起的非常非常不好!为什么这样说呢?const 是 constant 的缩写,翻译成中文就是“常量”,但其实在 C/C++中,并不是表示“常量”的意思。
我们先来明确一件事,什么是“常量”,什么是“变量”?常量其实就是衡量,比如说就是常量,它永远都是这个值。再比如就是个常量,同样,它永远都是和它 ASCII 码对应的值。“变量”其实是指存储在内存当中的数据,起了一个名字罢了。如果我们用汇编,则不存在“变量”的概念,而是直接编写内存地址:
但是这个地址太突兀了,也很难记,另一个缺点就是,内存地址如果固定了,进程加载时动态分配内存的操作空间会下降(尽管可以通过相对内存的方式,但程序员仍需要管理偏移地址),所以在略高级一点的语言中,都会让程序员有个更方便的工具来管理内存,最简单的方法就是给内存地址起个名字,然后编译器来负责翻译成相对地址。
所以“变量”其实指“内存变量”,它一定拥有一个内存地址,和可变不可变没啥关系。
因此,C 语言中用于修饰的一定是“变量”,来控制这个变量不可变而已。用修饰的变量,其实应当说是一种“只读变量”,这跟“常量”根本挨不上。
这就是笔者吐槽这个关键字的原因,你叫个之类的不是就没有歧义了么?
C#就引入了关键字来表示“只读变量”,而则更像是给常量取了个别名(可以类比为 C++中的宏定义,或者,后面章节会详细介绍):
左右值
C++由于保留了 C 当中的关键字,但更希望表达其“不可变”的含义,因此着重在“左右值”的方向上进行了区分。左右值的概念来源于赋值表达式:
赋值表达式的左边表示即将改变的变量,右边表示从什么地方获取这个值。因此,很自然地,右值不会改变,而左值会改变。那么在这个定义下,“常量”自然是只能做右值,因为常量仅仅有“值”,并没有“存储”或者“地址”的概念。而对于变量而言,“只读变量”也只能做右值,原因很简单,因为它是“只读”的。
虽然常量和只读变量是不同的含义,但它们都是用来“读取值”的,也就是用来做右值的,所以,C++引入了“const 引用”的概念来统一这两点。所谓 const 引用包含了 2 个方面的含义:
作为只读变量的引用(指针的语法糖)
作为只读变量
换言之,const 引用可能是引用,也可能只是个普通变量,如何理解呢?请看例程:
也就是说,当用一个 const 引用来接收一个变量的时候,这时的引用是真正的引用,其实在内部保存了的地址,当我们操作的时候,会通过解指针的语法来访问到
但与此同时,const 引用还可以接收常量,这时,由于常量根本不是变量,自然也不会有内存地址,也就不可能转换成上面那种指针的语法糖。那怎么办?这时,就只能去重新定义一个变量来保存这个常量的值了,所以这时的 const 引用,其实根本不是引用,就是一个普通的只读变量。
思考
const 引用的这种设计,更多考虑的是语义上的,而不是实现上的。如果我们理解了 const 引用,那么也就不难理解为什么会有“将亡值”和“隐式构造”的问题了,因为搭配 const 引用,可以实现语义上的统一,但代价就是同一语法可能会做不同的事,会令人有疑惑甚至对人有误导。
在后面“右值引用”和“因式构造”的章节会继续详细介绍它们和 const 引用的联动,以及可能出现的问题。
右值引用与移动语义
C++11 的右值引用语法的引入,其实也完全是针对于底层实现的,而不是针对于上层的语义友好。换句话说,右值引用是为了优化性能的,而并不是让程序变得更易读的。
右值引用
右值引用跟 const 引用类似,仍然是同一语法不同意义,并且右值引用的定义强依赖“右值”的定义。根据上一节对“左右值”的定义,我们知道,左右值来源于赋值语句,常量只能做右值,而变量做右值时仅会读取,不会修改。按照这个定义来理解,“右值引用”就是对“右值”的引用了,而右值可能是常量,也可能是变量,那么右值引用自然也是分两种情况来不同处理:
右值引用绑定一个常量
右值引用绑定一个变量
我们先来看右值引用绑定常量的情况:
和 const 引用一样,常量没有地址,没有存储位置,只有值,因此,要把这个值保存下来的话,同样得按照“新定义变量”的形式,因此,当右值引用绑定常量时,相当于定义了一个普通变量:
所以这时的右值引用并不是谁的引用,而是一个普普通通的变量。
我们再来看看右值引用绑定变量的情况:这里的关键问题在于,什么样的变量适合用右值引用绑定?如果对于普通的变量,C++不允许用右值引用来绑定,但这是为什么呢?
我们按照上面对左右值的分析,当一个变量做右值时,该变量只读,不会被修改,那么,“引用”这个变量自然是想让引用成为这个变量的替身,而如果我们希望这里做的事情是“当通过这个引用来操作实体的时候,实体不能被改变”的话,使用 const 引用就已经可以达成目的了,没必要引入一个新的语法。
所以,右值引用并不是为了让引用的对象只能做右值(这其实是 const 引用做的事情),相反,右值引用本身是可以做左值的。这就是右值引用最迷惑人的地方,也是笔者认为“右值引用”这个名字取得迷惑人的地方。
右值引用到底是想解决什么问题呢?请看下面示例:
我们忽略编译器的优化问题,只分析 C++语言本身。在函数内部,是一个局部变量,局部变量的生命周期是从创建到当前代码块结束,也就是说,当函数结束时,这个一定会被释放掉
既然这个局部变量会被释放掉,那么函数如何返回呢?这就涉及了“值赋值”的问题,假如是一个整数,那么函数返回的时候容易理解,就是返回它的值。具体来说,就是把这个值推到寄存器中,在跳转会调用方代码的时候,再把寄存器中的值读出来:
翻译成汇编就是:
之所以能这样返回,主要就是 eax 放得下 t 的值。但如果 t 是结构体的话,一个 eax 寄存器自然是放不下了,那怎么返回?(这里汇编代码比较长,而且跟编译器的优化参数强相关,就不放代码了,有兴趣的读者可以自己汇编看结果。)简单来说,因为寄存器放不下整个数据,这个数据就只能放到内存中,作为一个临时区域,然后在寄存器里放一个临时区域的内存地址。等函数返回结束以后,再把这个临时区域释放掉。
那么我们再回来看这段代码:
那么整个过程发生了 2 次复制和 2 次释放,如果我们按照程序的实际行为来改写一下代码,那么其实应该是这样的:
如果我真的把代码写成这样,相信一定会被各位前辈骂死,质疑我为啥不直接用出参。的确,用出参是可以解决这种多次无意义复制的问题,所以 C++11 以前并没有要去从语法层面来解决,但这样做就会让代码不得不“面相底层实现”来编程。C++11 引入的右值引用,就是希望从“语法层面”解决这种问题。
试想,这片非常短命的临时空间,究竟是否有必要存在?既然这片空间是用来返回的,返回完就会被释放,那我何必还要单独再搞个变量来接收,如果这片临时空间可以持续使用的话,不就可以减少一次复制吗?于是,“右值引用”的概念被引入。
所以,右值引用的目的是为了延长临时变量的生命周期,如果我们把函数返回的临时空间中的对象视为“临时对象”的话,正常情况下,当函数调用结束以后,临时对象就会被释放,所以我们管这个短命的对象叫做“将亡对象”,简单粗暴理解为“马上就要挂了的对象”,它的使命就是让外部的复制一下,然后它就死了,所以这时候你对他做什么操作都是没意义的,他就是让人来复制的,自然就是个只读的值了,所以才被归结为“右值”。我们为了让它不要死那么快,而给它延长了生命周期,因此使用了右值引用。所以,右值引用是不是应该叫“续命引用”更加合适呢~
当用右值引用捕获一个将亡对象的时候,对象的生命周期从“将亡”变成了“与右值引用共存亡”,这就是右值引用的根本意义,这时的右值引用就是“将亡对象的引用”,又因为这时的将亡对象已经不再“将亡”了,那它既然不再“将亡”,我们再对它进行操作(改变成员的值)自然就是有意义的啦,所以,这里的右值引用其实就等价于一个普通的引用而已。既然就是个普通的引用,而且没用 const 修饰,自然,可以做左值咯。右值引用做左值的时候,其实就是它所指对象做左值而已。不过又因为普通引用并不会影响原本对象的生命周期,但右值引用会,因此,右值引用更像是一个普通的变量,但我们要知道,它本质上还是引用(底层是指针实现的)。
总结来说就是,右值引用绑定常量时相当于“给一个常量提供了生命周期”,这时的“右值引用”并不是谁的引用,而是相当于一个普通变量;而右值引用绑定将亡对象时,相当于“给将亡对象延长了生命周期”,这时的“右值引用”并不是“右值的引用”,而是“对需要续命的对象”的引用,生命周期变为了右值引用本身的生命周期(或者理解为“接管”了这个引用的对象,成为了一个普通的变量)。
const 引用绑定将亡对象
需要知道的是,const 引用也是可以绑定将亡对象的,正如上文所说,既然将亡对象定义为了“右值”,也就是只读不可变的,那么自然就符合 const 引用的语义。
这样看来,const 引用同样可以让将亡对象延长生命周期,但其实这里的出发点并不同,const 引用更倾向于“引用一个不可变的量”,既然这里的将亡对象是一个“不可变的值”,那么,我就可以用 const 引用来保存“这个值”,或者这里的“值”也可以理解为这个对象的“快照”。所以,当一个 const 引用绑定一个将亡值时,const 引用相当于这个对象的“快照”,但背后还是间接地延长了它的生命周期,但只不过是不可变的。
移动语义
在解释移动语义之前,我们先来看这样一个例子:
上面这段代码定义了一个非常简单的缓冲区处理类,函数想做的事是传进来一个 buffer,然后对这个 buffer 做一些修改的操作,最后可能把这个 buffer 输出出去之类的(代码中没有体现,但是一般业务肯定会有)。
如果像上面这样写,会出现什么问题?不难发现在于的参数,这里会发生复制。由于我们在类中定义了拷贝构造函数来实现深复制,那么任何传入的 buffer 都会在这里进行一次拷贝构造(深复制)。再观察中调用,仅仅是传了一个临时对象而已。临时对象本身也是将亡对象,复制给后,就会被释放,也就是说,我们进行了一次无意义的深复制。有人可能会说,那这里参数用引用能不能解决问题?比如这样:
所以这里需要我们注意的是,C++当中,并不只有在显式调用的时候才会赋值,在函数传参的时候仍然由赋值语义(也就是实参赋值给形参)。所以上面就相当于:
所以自然不合法。那,用 const 引用可以吗?由于 const 引用可以接收将亡对象,那自然可以用于传参,但函数中却对对象进行了修改操作,所以 const 引用不能满足要求:
正如上一节描述,const 引用倾向于表达“保存快照”的意义,因此,虽然这个对象仍然是放在内存中的,但 const 引用并不希望它发生改变(否则就不叫快照了),因此,这里最合适的,仍然是右值引用:
我们再来看下面的场景:
因为右值引用是要来绑定将亡对象的,但这里的是函数的局部变量,并不是将亡的,所以右值引用不能接受。但如果我有这样的需求,就是说我不打算用了,我想把它的控制权交给函数中的,相当于,我主动让提前“亡”,是否可以强制把它弄成将亡对象呢?STL 提供了函数来完成这件事,“期望强制把一个对象变成将亡对象”:
的本意是提前让一个对象“将亡”,然后把控制权“移交”给右值引用,所以才叫「move」,也就是“移动语义”。但很可惜,C++并不能真正让一个对象提前“亡”,所以这里的“移动”仅仅是“语义”上的,并不是实际的。如果我们看一下的实现就知道了:
如果这里参数中的符号让你懵了的话,可以参考后面“引用折叠”的内容,如果对其他乱七八糟的语法还是没整明白的话,没关系,我来简化一下:
哈?就这么简单?是的!真的就这么简单,这个不是什么多高大上的处理,就是简单把普通引用给强制转换成了右值引用,就这么简单。
所以,我上线才说“C++并不能真正让一个对象提前亡”,这里的就是跟编译器玩了一个文字游戏罢了。
所以,C++的移动语义仅仅是在语义上,在使用时必须要注意,一旦将一个对象 move 给了一个右值引用,那么不可以再操作原本的对象,但这种约束是一种软约束,操作了也并不会有报错,但是就可能会出现奇怪的问题。
移动构造、移动赋值
有了右值引用和移动语义,C++还引入了移动构造和移动赋值,这里简单来解释一下:
为了解决用一个将亡对象来构造/赋值另一个对象的情况,引入了移动构造和移动赋值函数,既然是用一个将亡对象,那么参数自然是右值引用来接收了。
这里主要考虑的问题是,既然是用将亡对象来构造新对象,那么我们应当尽可能多得利用将亡对象的“遗体”,在将亡对象中有一个指针,指向了一片堆空间,那这片堆空间就可以直接利用起来,而不用再复制一份了,因此,移动构造和移动赋值应该这样实现:
细心的读者应该能发现,所谓的“移动构造/赋值”,其实就是一个“浅复制”而已。当出现移动语义的时候,我们想象中是“把旧对象里的东西移动到新对象中”,但其实没法做到这种移动,只能是“把旧对象引用的东西转为新对象来引用”,本质就是一次浅复制
引用折叠
引用折叠指的是在模板参数以及 auto 类型推导时遇到多重引用时进行的映射关系,我们先从最简单的例子来说:
当实例化为时,函数变成了:
但如果实例化为和时呢?难道是这样吗?
我们发现,这种情况下编译并没有出错,本身带引用时,再跟参数后面的引用符结合,也是可以正常通过编译的。这就是所谓的引用折叠,简单理解为“两个引用撞一起了,以谁为准”的问题。引用折叠满足下面规律:
简单来说就是,除非是两个右值引用遇到一起,会推导出右值引用以外,其他情况都会推导出左值引用,所以是左值引用优先。
auto &&
这种规律同样同样适用于,当遇到左值时会推导出左值引用,遇到右值时才会推导出右值引用:
由于比优先级高,因此一定推出左值引用,如果用绑定常量或将亡对象则会报错:
右值引用传递时失去右性
前面的章节笔者频繁强调一个概念:右值引用一旦绑定,则相当于普通的引用(左值)。
这也就意味着,“右值”性质无法传递,请看例子:
在函数中调用,的参数是,用来绑定常量没问题,但是,在函数内,是一个右值引用,而右值引用一旦绑定,则相当于左值,因此,不能再用右值引用去接收。所以内部调的过程会报错。这就是所谓“右值引用传递时会失去右性”。
那么如何保持右性呢?很无奈,只能层层转换:
但我们来考虑另一个场景,在模板函数中这件事会怎么样?
由于和都是模板,因此,传入左值和传入右值的可能性都要有的,我们没法在中再强制了,因为这样做会让左值变成右值传递下去,我们希望的是保持其左右性。
但如果不这样做,当我向传递右值时,右性无法传递下去,也就是是类型,但是传递给的时候,变成了类型,这时是的引用(就是左值引用绑定右值引用的场景),并不是我们想要的。那怎么解决,如何让这种左右性质传递下去呢?就要用到模板元编程来完成了:
上面展示的是的一个示例型的代码,便于读者理解,实际实现要稍微复杂一点。思路就是,根据传入的参数来判断,如果是左值引用就直接传出,如果是右值引用就变成右值再传出,保证其左右性。又被称为“完美转发”,意义就在于传递引用时能保持其左右性。
auto 推导策略
C++11 提供了来自动推导类型,很大程度上提升了代码的直观性,例如:
但 auto 的推导仍然引入了不少奇怪的问题。首先,关键字仅仅是用来代替“类型符”的,它并没有改变“C++类型说明符具有多重意义”这件事,在前面“类型说明符”的章节我曾介绍过,C++中,类型说明符除了表示“类型”以外,还承担了“定义动作”的任务,可以视为一种带有类型推导的类型说明符,其本质仍然是类型说明符,所以,它同样承担了定义动作的任务,例如:
但却不可以和组合定义数组,比如:
在定义函数上,更加有趣,在 C++14 以前,并不支持用推导函数返回值类型,但是却支持返回值后置语法,所以在这种场景下,仅仅是一个占位符而已,它既不表示类型也不表示定义动作,仅仅就是为了结构完整占位而已:
到了 C++14 才支持了返回值类型自动推导,但并不支持自动生成多种类型的返回值:
auto 的语义
同样还是出自这句话“auto 是用来代替类型说明符的”,因此在语义上也更加倾向于“用它代替类型说明符”这种行为,尤其是它和引用、指针类型结合时,这种特性更加明显:
我们看到,无论用普通变量、只读变量、引用、常量去初始化 auto 变量时,都只会推导其类型,而不会带有左右性、只读性这些内容。
所以,的类型推导,并不是“推导某个表达式的类型”,而是“推导当前位置合适的类型”,或者可以理解为“这里最简单可以是什么类型”。比如说上面这里,可以推导为,,,,,而选择的是里面最简单的那一种。
还可以跟指针符、引用符结合,而这种时候它还是满足上面“最简单”的这种原则,并且此时指的是“本身最简单”,举例来说:
和都是指针,但都是用最简原则来推导的,这里因为我们已经显式写了一个了,所以只会推导出,因此最终类型仍然是而不会变成。同样的道理在和上也成立。
在一些将“类型”和“动作”语义分离的语言中,就完全不会有 auto 的这种困扰,它们可以用“省略类型符”来表示“自动类型推导”的语义,而起“定义”语义的关键字得以保留而不受影响,例如在 swift 中:
在 Go 中也是类似的:
auto 引用
在前面“引用折叠”的章节曾经提到过的推导原则,有可能会推导出左值引用来,所以并不是要“定义一个右值引用”,而是“定义一个保持左右性的引用”,也就是说,绑定一个左值时会推导出左值引用,绑定一个右值时会推导出右值引用。
更详细的内容可以参考前面“引用折叠”的章节。
C 语言曾经的 auto
我相信大家现在看到都第一印象是 C++当中的“自动类型推导”,但其实并不是 C++11 引入的新关键在,在原始 C 语言中就有这一关键字的。
在原始 C 中,表示“自动变量位置”,与之对应的是。在之前“const 引用”章节中笔者曾经提到,“变量就是内存变量”,但其实在原始 C 中,除了内存变量以外,还有一种变量叫做“寄存器变量”,也就是直接将这个数据放到 CPU 的寄存器中。也就是说,编译器可以控制这个变量的位置,如果更加需要读写速度,那么放到寄存器中更合适,因此表示让编译器自动决定放内存中,还是放寄存器中。而修饰的则表示人工指定放在寄存器中。至于没有关键字修饰的,则表示希望放到内存中。
需要注意的是,寄存器变量不能取址。这个很好理解,因为只有内存才有地址(地址本来指的就是内存地址),寄存器是没有的。因此,修饰的变量如果被取址了,那么一定会放在内存中:
然而在 C++中,几乎不会人工来控制变量的存放位置了,毕竟 C++更加上层一些,这样超底层的语法就被摒弃了(C++11 取消了关键字,而关键字也失去其本意,变为了“自动类型推导”的占位符)。而关于变量的存储位置则是全权交给了编译器,也就是说我们可以理解为,在 C++11 以后,所有的变量都是自动变量,存储位置由编译器决定。
static
笔者在前面章节吐槽了这个命名,也吐槽了“右值引用”这个命名。那么就是笔者下一个要重点吐槽的命名了。这个词本身没有什么问题,其主要的槽点就在于“一词多用”,也就是说,这个词在不同场景下表示的是完全不同的含义。(作者可能是出于节省关键词的目的吧,明明是不同的含义,却没有用不同的关键词)。
在局部变量前的,限定的是变量的生命周期
在全局变量/函数前的,限定的变量/函数的作用域
在成员变量前的,限定的是成员变量的生命周期
在成员函数前的,限定的是成员函数的调用方(或隐藏参数)
上面是关键字的 4 种不同含义,接下来逐一我会解释。
静态局部变量
当用修饰局部变量时,表示其生命周期:
上例中,是一个局部变量,既然已经是“局部变量”了,那么它的作用域很明显,就是函数内部。而这里的表示的是其生命周期。普通的全局变量在其所在函数(或代码块)结束时会被释放。而用修饰的则不会,我们将其称为“静态局部变量”。静态局部变量会在首次执行到定义语句时初始化,在主函数执行结束后释放,在程序执行过程中遇到定义(和初始化)语句时会忽略。
例如上面例程的输出结果会是:
详细的说明已经在注释中,这里不再赘述。
内部全局变量/函数
当修饰全局变量或函数时,用于限定其作用域为“当前文件内”。同理,由于已经是“全局”变量了,生命周期一定是符合全局的,也就是“主函数执行前构造,主函数执行结束后释放”。至于全局函数就不用说了,函数都是全局生命周期的。
因此,这时候的不会再对生命周期有影响,而是限定了其作用域。与之对应的是。用修饰的全局变量/函数作用于整个程序内,换句话说,就是可以跨文件:
而用修饰的全局变量/函数则只能在当前文件中使用,不同文件间的全局变量/函数可以同名,并且互相独立。
所以我们发现,在这种场景下,并不表示“静态”的含义,而是表示“内部”的含义,所以,为什么不再引入个类似于的关键字呢?这里很容易让程序员造成迷惑。
静态成员变量
静态成员变量指的是用修饰的成员变量。普通的成员变量其生命周期是跟其所属对象绑定的。构造对象时构造成员变量,析构对象时释放成员变量。
而用修饰后,其声明周期变为全局,也就是“主函数执行前构造,主函数执行结束后释放”,并且不再跟随对象,而是全局一份。
所以静态成员变量基本就相当于一个全局变量,而这时的类更像一个命名空间了。唯一的区别在于,通过类的实例(对象)也可以访问到这个静态成员变量,就像上面的和完全等价。
静态成员函数
关键字修饰在成员函数前面,称为“静态成员函数”。我们知道普通的成员函数要以对象为主调方,对象本身其实是函数的一个隐藏参数(this 指针):
上面其实等价于:
也就是说,本质上就是,并且这个参数强制叫做。这个特性在 Go 语言中尤为明显,Go 不支持封装到类内的成员函数,也不会自动添加隐藏参数,这些行为都是显式的:
回到 C++的静态成员函数这里来。用修饰的成员函数表示“不需要对象作为主调方”,也就是说没有那个隐藏的参数。
可以看出,这时的静态成员函数,其实就相当于一个普通函数而已。这时的类同样相当于一个命名空间,而区别在于,如果这个函数传入了同类型的参数时,可以访问私有成员,例如:
或者我们可以把静态成员函数理解为一个友元函数,只不过从设计角度上来说,与这个类型的关联度应该是更高的。但是从语法层面来解释,基本相当于“写在类里的普通函数”。
小结
其实 C++中造成的迷惑,同样也是因为 C 中的缺陷被放大导致的。毕竟在 C 中不存在构造、析构和引用链的问题。说到这个引用链,其实 C++中的静态成员变量、静态局部变量和全局变量还存在一个链路顺序问题,可能会导致内存重复释放、访问野指针等情况的发生。这部分的内容详见后面“平凡、标准布局”的章节。
总之,我们需要了解关键字有多义性,了解其在不同场景下的不同含义,更有助于我们理解 C++语言,防止踩坑。
平凡、标准布局
前阵子我和一个同事对这样一个问题进行了非常激烈的讨论:
到底应不应该定义 std::string 类型的全局变量
这个问题乍一看好像没什么值得讨论的地方,我相信很多程序员都在不经意间写过类似的代码,并且确实没有发现什么执行上的问题,所以可能从来没有意识到,这件事还有可能出什么问题。
我们和我同事之所以激烈讨论这个问题,一切的根源来源于谷歌的 C++编程规范,其中有一条是:
大致翻译一下就是说:不允许非 POD 类型的全局变量、静态全局变量、静态成员变量和静态局部变量,因为可能会导致难以定位的 bug。而是非 POD 类型的,自然,按照规范,也不允许类型的全局变量。
但是如果我们真的写了,貌似也从来没有遇到过什么问题,程序也不会出现任何 bug 或者异常,甚至下面的几种写法都是在日常开发中经常遇到的,但都不符合这谷歌的这条代码规范。
全局字符串
静态映射表
单例模式
上面的几个例子都存在“非 POD 类型全局或静态变量”的情况。
全局、静态的生命周期问题
既然谷歌规范中禁止这种情况,那一定意味着,这种写法存在潜在风险,我们需要搞明白风险点在哪里。首先明确变量生命周期的问题:
全局变量和静态成员变量在主函数执行前构造,在主函数执行结束后释放;
静态局部变量在第一次执行到定义位置时构造,在主函数执行后释放。
这件事如果在 C 语言中,并没有什么问题,设计也很合理。但是 C++就是这样悲催,很多 C 当中合理的问题在 C++中会变得不合理,并且缺陷会被放大。
由于 C 当中的变量仅仅是数据,因此,它的“构造”和“释放”都没有什么副作用。但在 C++当中,“构造”是要调用构造函数来完成的,“释放”之前也是要先调用析构函数。这就是问题所在!照理说,主函数应该是程序入口,那么在主函数之前不应该调用任何自定义的函数才对。但这件事放到 C++当中就不一定成立了,我们看一下下面例程:
运行上面程序会得到以下输出:
也就是说,Test 的构造函数在主函数前被调用了。解释起来也很简单,因为“全局变量在主函数执行之前构造,主函数执行结束后释放”,而因为类型是类类型,“构造”时要调用构造函数,“释放”时要调用析构函数。所以上面的现象也就不奇怪了。
这种单一个的全局变量其实并不会出现什么问题,但如果有多变量的依赖,这件事就不可控了,比如下面例程:
test.h
test.cc
main.cc
上面这种情况,程序编译、链接都是没问题的,但运行时会概率性出错,问题就在于,和都是全局变量,并且是在不同文件中定义的,并且由于全局变量构造在主函数前,因此其初始化顺序是随机的
假如在之前初始化,那么整个程序不会出现任何问题,但如果在前初始化,那么在的构造函数中,得到的就是一个未初始化的引用,这时候访问就是操作野指针了。
这时我们就能发现,全局变量出问题的根源在于全局变量的初始化顺序不可控,是随机的,因此,如果出现依赖,则会导致问题。同理,析构发生在主函数后,那么析构顺序也是随机的,可能出问题,比如:
在上面示例中,构造的时候使用了,由于是静态局部变量,因此是在第一个调用时(主函数中调用时)构造。这时已经是主函数执行过程中了,因此已经构造完毕的,所以构造时不会出现问题。
但是,静态成员变量是在主函数执行完成后析构,这和全局变量相同,因此,和的析构顺序无法控制。如果比先析构,那么不会出现任何问题。但如果比先析构,那么在析构时,对访问成员这一步,就会访问野指针。因为所指向的已经先行析构了。
那么这个时候我们就可以确定,全局变量、静态变量之间不能出现依赖关系,否则,由于其构造、析构顺序不可控,因此可能会出现问题。
谷歌标准中的规定
回到我们刚才提到的谷歌标准,这里标准的制定者正是因为担心这样的问题发生,才禁止了非 POD 类型的全局或静态变量。但我们分析后得知,也并不是说所有的类类型全局或静态变量都会出现问题。
而且,谷歌规范中的“POD 类型”的限定也过于广泛了。所谓“POD 类型”指的是“平凡”+“标准内存布局”,这里我来解释一下这两种性质,并且分析分析为什么谷歌标准允许 POD 类型的全局或静态变量。
平凡
“平凡(trivial)”指的是:
拥有默认无参构造函数
拥有默认析构函数
拥有默认拷贝构造函数
拥有默认移动构造函数
拥有默认拷贝赋值函数
拥有默认移动赋值函数
换句话说,六大特殊函数都是默认的。这里要区分 2 个概念,我们要的是“语法上的平凡”还是“实际意义上的平凡”。语法上的平凡就是说能够被编译期识别、认可的平凡。而实际意义上的平凡就是说里面没有额外操作。比如说:
上面的例子中,就是个真正意义上的平凡类型,语法上是平凡的,因此编译器也会认为其是平凡的。我们可以用 STL 中的工具来判断一个类型是否是平凡的:
但这里的 Test2,由于我们自定义了其无参构造函数和析构函数,那么对编译器来说,它就是非平凡的,我们用来判断也会得到。但其实内部并没有什么外链操作,所以其实我们把类型定义全局变量时也不会出现任何问题,这就是所谓“实际意义上的平凡”。
C++对“平凡”的定义比较严格,但实际上我们看看如果要做全局变量或静态变量的时候,是不需要这样严格定义的。对于全局变量来说,只要定义全局变量时,使用的是“实际意义上平凡”的构造函数,并且拥有“实际意义上平凡”的析构函数,那这个全局变量定义就不会有任何问题。而对于静态局部变量来说,只要拥有“实际意义上平凡”的析构函数的就一定不会出问题。
标准内存布局
标准内存布局的定义是:
所有成员拥有相同的权限(比如说都,或都,或都);
不含虚基类、虚函数;
如果含有基类,基类必须都是标准内存布局;
如果函数成员变量,成员的类型也必须是标准内存布局。
我们同样可以用 STL 中的来判断一个类型是否是标准内存布局的。这里的定义比较简单,不在赘述。
POD(Plain Old Data)类型
所谓 POD 类型就是同时符合“平凡”和“标准内存布局”的类型。符合这个类型的基本就是基本数据类型,加上一个普通 C 语言的结构体。换句话说,符合“旧类型(C 语言中的类型)行为的类型”,它不存在虚函数指针、不存在虚表,可以视为普通二进制来操作的。
因此,在 C++中,只有 POD 类型可以用这种二进制方法来复制而不会产生副作用,其他类型的都必须用用调用拷贝构造。
以前有人向笔者提出疑问,为何扩容时不直接用类似于的方式来复制,而是要以此调用拷贝构造。原因正是在此,对于非 POD 类型的对象,其中可能会包含虚表、虚函数指针等数据,复制时这些内容可能会重置,并且内部可能会含有一些类似于“计数”这样操作其他引用对象的行为,因为一定要用拷贝构造函数来保证这些行为是正常的,而不能简单粗暴地用二进制方式进行拷贝。
STL 中可以用来判断是个类型是否是 POD 的。
小结
我们再回到谷歌规范中,POD 的限制比较多,因此,确实 POD 类型的全局/静态变量是肯定不会出问题的,但直接将非 POD 类型的一棍子打死,笔者个人认为有点过了,没必要。
所以,笔者认为更加精确的限定应该是:对于全局变量、静态成员变量来说,初始化时必须调用的是平凡的构造函数,并且其应当拥有平凡的析构函数,而且这里的“平凡”是指实际意义上的平凡,也就是说可以自定义,但是在内部没有对任何其他的对象进行操作;对于静态局部变量来说,其应当拥有平凡的析构函数,同样指的是实际意义上的平凡,也就是它的析构函数中没有对任何其他的对象进行操作。
最后举几个例子:
是非平凡的(因为无参构造函数没有定义),但它仍然可以定义全局/静态变量,因为构造函数是“实际意义上平凡”的。
是非平凡的,并且构造函数需要引用其他类型,因此它不能通过定义全局变量或静态成员变量,但可以通过来定义全局变量或静态成员变量,因为这是一个“实际意义上平凡”的构造函数。而且因为它的析构函数是“实际意义上平凡”的,因此类型可以定义静态局部变量。
是非平凡的,构造函数对有引用,并且析构函数中调用了方法,因此类型不能用来定义局部/静态变量。
也是非平凡的,并且内部存在同样非平凡的类型成员,但是因为不是引用或指针,一定会随着类型的对象的构造而构造,析构而析构,不存在顺序依赖问题,因此可以用来定义全局/静态变量。
所以全局 std::string 变量到底可以不可以?
最后回到这个问题上,笔者认为定义一个全局的类型的变量并不会出现什么问题,在的内部,数据空间是通过的方式申请的,并且一般情况下都不会被其他全局变量所引用,在对象析构时,对这片空间会进行,所以并不会出现析构顺序问题。
但是,如果你用的不是默认的内存分配器,而是自定义了内存分配器的话,那确实要考虑构造析构顺序的问题了,你要保证在对象构造前,内存分配器是存在的,并且内存分配器的析构要在所有对象之后。
当然了,如果你仅仅是想给字符串常量起个别名的话,有一种更好的方式:
毕竟指针一定是平凡类型,而且用修饰后可以变为编译期常量。这里详情可以在后面“constexpr”的章节了解。
而至于其他类型的静态局部变量(比如说单例模式,或者局部内的之类的映射表),只要让它不被析构就好了,所以可以用堆空间的方式:
非平凡析构类型的移动语义
在讨论完平凡类型后,我们发现平凡析构其实是更加值得关注的场景。这里就引申出非平凡析构的移动语义问题,请看例程:
还是这个简单的缓冲区的例子,如果我们调用函数,那么结束时会报重复释放内存的异常。
那么在上面例子中,和中的指向的是同一片空间,当函数结束时,销毁会触发一次的析构,析构时也会触发一次的析构。而析构函数中是操作,所以堆空间会被释放两次,导致报错。
这也就是说,对于非平凡析构类型,其发生移动语义后,应当放弃对原始空间的控制
如果我们修改一下代码,那么这种问题就不会发生:
由于移动构造函数和移动赋值函数是我们可以自定义的,因此,可以把重复析构产生的问题在这个里面考虑好。例如上面的把对应指针置空,而析构时再进行判空即可。
因此,我们得出的结论是并不是说非平凡析构的类型就不可以使用移动语义,而是非平凡析构类型进行移动构造或移动赋值时,要考虑引用权释放问题
私有继承和多继承
C++是多范式语言
在讲解私有继承和多继承之前,笔者要先澄清一件事:C++不是单纯的面相对象的语言。同样地,它也不是单纯的面向过程的语言,也不是函数式语言,也不是接口型语言……
真的要说,C++是一个多范式语言,也就是说它并不是为了某种编程范式来创建的。C++的语法体系完整且庞大,很多范式都可以用 C++来展现。因此,不要试图用任一一种语言范式来解释 C++语法,不然你总能找到各种漏洞和奇怪的地方。
举例来说,C++中的“继承”指的是一种语法现象,而面向对象理论中的“继承”指的是一种类之间的关系。这二者是有本质区别的,请读者一定一定要区分清楚。
以面向对象为例,C++当然可以面向对象编程(OOP),但由于 C++并不是专为 OOP 创建的语言,自然就有 OOP 理论解释不了的语法现象。比如说多继承,比如说私有继承。
C++与 java 不同,java 是完全按照 OOP 理论来创建的,因此所谓“抽象类”,“接口(协议)类”的语义是明确可以和 OOP 对应上的,并且,在 OOP 理论中,“继承”关系应当是"A is a B"的关系,所以不会存在 A 既是 B 又是 C 的这种情况,自然也就不会出现“多继承”这样的语法。
但是在 C++中,考虑的是对象的布局,而不是 OOP 的理论,所以出现私有继承、多继承等这样的语法也就不奇怪了。
笔者曾经听有人持有下面这样类似的观点:
虚函数都应该是纯虚的
含有虚函数的类不应当支持实例化(创建对象)
能实例化的类不应当被继承,有子类的类不应当被实例化
一个类至多有一个“属性父类”,但可以有多个“协议父类”
等等这些观点,它们其实都有一个共同的前提,那就是“我要用 C++来支持 OOP 范式”。如果我们用 OOP 范式来约束 C++,那么上面这些观点都是非常正确的,否则将不符合 OOP 的理论,例如:
既然作为一个抽象概念存在,自然就不应当有实体。同理,如果一个类含有未完全实现的虚函数,就证明这个类属于某种抽象,它就不应该允许创建实例。而可以创建实例的类,一定就是最“具象”的定义了,它就不应当再被继承。
在 OOP 的理论下,多继承也是不合理的:
但如果是“协议父类”的多继承就是合理的:
上面例子中,虽然有 2 个父类,但才是真正意义上的父类,也就是的关系,而是协议父类,也就是,只要一个类型可以完成某些行为,那么它就可以“作为”这样一种类型。
在 java 中,这两种类型是被严格区分开的:
子类与父类的关系叫“继承”,与协议(或者叫接口)的关系叫“实现”。
与 C++同源的 Objective-C 同样是 C 的超集,但从名称上就可看出,这是“面向对象的 C”,语法自然也是针对 OOP 理论的,所以 OC 仍然只支持单继承链,但可以定义协议类(类似于 java 中的接口类),“继承”和“遵守(类似于 java 中的实现语义)”仍然是两个分离的概念:
相比,C++只能说“可以”用做 OOP 编程,但 OOP 并不是其唯一范式,也就不会针对于 OOP 理论来限制其语法。这一点,希望读者一定要明白。
私有继承与 EBO
私有继承本质不是「继承」
在此强调,这个标题中,第一个“继承”指的是一种 C++语法,也就是这种写法。而第二个“继承”指的是 OOP(面向对象编程)的理论,也就是 A is a B 的抽象关系,类似于“狗”继承自“动物”的这种关系。
所以我们说,私有继承本质是表示组合的,而不是继承关系,要验证这个说法,只需要做一个小实验即可。我们知道最能体现继承关系的应该就是多态了,如果父类指针能够指向子类对象,那么即可实现多态效应。请看下面的例程:
这里我们给类分别编写了、、三个子类,分别是、和继承。然后用类型的指针去分别指向、、。发现只有继承的对象可以用直接指向,而和都会报这样的错:
也就是说,私有继承是不支持多态的,那么也就印证了,他并不是 OOP 理论中的“继承关系”,但是,由于私有继承会继承成员变量,也就是可以通过和去使用的成员,那么其实这是一种组合关系。或者,大家可以理解为,把改写成了而已。
那么私有继承既然是用来表示组合关系的,那我们为什么不直接用成员对象呢?为什么要使用私有继承?这是因为用成员对象在某种情况下是有缺陷的。
空类大小
在解释私有继承的意义之前,我们先来看一个问题,请看下面例程
是一个空类,里面什么都没有,那么这时的大小是多少?照理说,空类的大小就是应该是,但如果真的设置为的话,会有很严重的副作用,请看例程:
发现了吗?假如的大小是,那么指针的偏移量就永远是,类型的数组大小也将是,而如果它成为了一个成员的话,问题会更严重:
由于是大小,那么此时结构体中,和就会在同一首地址。所以,为了避免这种 0 长的问题,编译器会针对于空类自动补一个字节的大小,也就是说其实是 1,而不是 0
这里需要注意的是,不仅是绝对的空类会有这样的问题,只要是不含有非静态成员变量的类都有同样的问题,例如下面例程中的几个类都可以认为是空类:
有了自动补 1 字节,的长度变成了 1,那么的偏移量也会变成 1,就不会出现 0 长的问题。但是,这么做就会引入另一个问题,请看例程:
由于是空类,编译器补了 1 字节,所以此时是 1 字节,而是 8 字节,之后要进行字节对齐,因此变成了 16 字节。如果中出现了很多空类成员,这种问题就会被继续放大。
这就是用成员对象来表示组合关系时,可能会出现的问题,而私有继承就是为了解决这个问题的。
空基类成员压缩(EBO,Empty Base Class Optimization)
在上一节最后的历程中,为了让不再占用空间,但又能让中继承类的其他内容(例如函数、类型重定义等),我们考虑将其改为继承来实现,EBO 就是说,当父类为空类的时候,子类中不会再去分配父类的空间,也就是说这种情况下编译器不会再去补那 1 字节了,节省了空间。
但如果使用继承会怎么样?
由于是的子类,所以会触发多态性,会当做类型传入中。这显然问题很大呀!如果用这个例子看不出问题的话,我们换一个例子:
内存分配器往往就是个空类,因为它只提供一些方法,不提供具体成员。是一个容器,如果这里用继承,那么容器将成为分配器的一种,然后调用的时候可以传一个容器进去,这显然很不合理呀!
那么此时,用私有继承就可以完美解决这个问题了
此时,由于私有继承不可触发多态,那么就并不是的一种,也就是说,从 OOP 理论上来说,他们并不是继承关系。而由于有了私有继承,在中可以调用里的方法以及类型重命名,所以这其实是一种组合关系。而又因为 EBO,所以也不用担心占用的成员空间的问题。
谷歌规范中规定了继承必须是的,这主要还是在贴近 OOP 理论。另一方面就是说,虽然使用私有继承是为了压缩空间,但一定程度上也是牺牲了代码的可读性,让我们不太容易看得出两种类型之间的关系,因此在绝大多数情况下,还是应当使用继承。不过笔者仍然持有“万事皆不可一棒子打死”的观点,如果我们确实需要 EBO 的特性否则会大幅度牺牲性能的话,那么还是应当允许使用私有继承。
多继承
与私有继承类似,C++的多继承同样是“语法上”的继承,而实际意义上可能并不是 OOP 中的“继承”关系。再以前面章节的 Pet 为例:
从形式上来说,同时继承自和,但从 OOP 理论上来说,和是继承关系,而和是实现关系,前面章节已经介绍得很详细了,这里不再赘述。
但由于 C++并不是完全针对 OOP 的,因此支持真正意义上的多继承,也就是说,即便父类不是这种纯虚类,也同样支持集成,从语义上来说,类似于“交叉分类”。请看示例:
上面就是一个交叉分类法的例子,使用多继承语法合情合理。如果换做其他 OOP 语言,可能会强行把“酸”或者“有机物”定义为协议类,然后用继承+实现的方式来完成。但如果从化学分类上来看,无论是“酸碱盐”还是“有机物无机物”,都是一种强分类,比如说“碳酸钠”,它就是一种“无机物”,也是一种“盐”,你并不能用类似于“猫是一种动物,可以作为宠物”的理论来解释,不能说“碳酸钠是一种盐,可以作为一种无机物”。
因此 C++中的多继承是哪种具体意义,取决于父类本身是什么。如果父类是个协议类,那这里就是“实现”语义,而如果父类本身就是个实际类,那这里就是“继承”语义。当然了,像私有继承的话表示是“组合”语义。不过 C++本身并不在意这种语义,有时为了方便,我们也可能用公有继承来表示组合语义,比如说:
这里继承了,但显然不是说“圆是一个点”,这里想表达的就是圆类“包含了”点类的成员,所以只是为了复用。从意义上来说,类中继承来的和显然表达的是圆心的坐标。不过这样写并不符合设计规范,但笔者用这个例子希望解释的是C++并不在意类之间实际是什么关系,它在意的是数据复用,因此我们更需要了解一下多继承体系中的内存布局。
对于一个普通的类来说,内存布局就是按照成员的声明顺序来布局的,与 C 语言中结构体布局相同,例如:
那么的内存布局就是
但如果类中含有虚函数,那么还会在末尾添加虚函数表的指针,例如:
多继承时,第一父类的虚函数表会与本类合并,其他父类的虚函数表单独存在,并排列在本类成员的后面。
菱形继承与虚拟继承
C++由于支持“普适意义上的多继承”,那么就会有一种特殊情况——菱形继承,请看例程:
根据内存布局原则,类首先是类的元素,然后类自己的元素,最后是类元素:
如果再展开,会变成这样:
可以发现,A 类的成员出现了 2 份,这就是所谓“菱形继承”产生的副作用。这也是 C++的内存布局当中的一种缺陷,多继承时第一个父类作为主父类合并,而其余父类则是直接向后扩写,这个过程中没有去重的逻辑(详情参考上一节)。这样的话不仅浪费空间,还会出现二义性问题,例如到底是指从继承来的还是从里继承来的呢?
C++引入虚拟继承的概念就是为了解决这一问题。但怎么说呢,C++的复杂性往往都是因为为了解决一种缺陷而引入了另一种缺陷,虚拟继承就是非常典型的例子,如果你直接去解释虚拟继承(比如说和普通继承的区别)你一定会觉得莫名其妙,为什么要引入一种这样奇怪的继承方式。所以这里需要我们了解到,它是为了解决菱形继承时空间爆炸的问题而不得不引入的。
首先我们来看一下普通的继承和虚拟继承的区别:普通继承:
的对象模型应该是这样的:
图片
而如果使用虚拟继承:
对象模型是这样的:
图片
虚拟继承的排布方式就类似于虚函数的排布,子类对象会自动生成一个虚基表来指向虚基类成员的首地址。
就像刚才说的那样,单纯的虚拟继承看上去很离谱,因为完全没有必要强行更换这样的内存布局,所以绝大多数情况下我们是不会用虚拟继承的。但是菱形继承的情况,就不一样了,普通的菱形继承会这样:
的对象模型:
图片
但如果使用虚拟继承,则可以把每个类单独的东西抽出来,重复的内容则用指针来指向:
的对象模型将会变成:
图片
也就是说此时,共有的虚基类只会保存一份,这样就不会有二义性,同时也节省了空间。
但需要注意的是,继承自和时是普通继承,如果用了虚拟继承,则会在 D 内部又额外添加一份虚基表指针。要虚拟继承的是和对的继承,这也是虚拟继承语法非常迷惑的地方,也就是说,菱形继承的分支处要用虚拟继承,而汇聚处要用普通继承。所以我们还是要明白其底层原理,以及引入这个语法的原因(针对解决的问题),才能更好的使用这个语法,避免出错。
隐式构造
隐式构造指的就是隐式调用构造函数。换句话说,我们不用写出类型名,而是仅仅给出构造参数,编译期就会自动用它来构造对象。举例来说:
上面例子中,需要接受的是类型的对象,然而我们在调用时仅仅使用了构造参数,并没有指定类型,但编译器会进行隐式构造。
尤其,当构造参数只有 1 个的时候,可以省略大括号:
这样做的好处显而易见,就是可以让代码简化,尤其是在构造或者的时候更加明显:
当然,如果遇到函数重载,原类型的优先级大于隐式构造,例如:
但如果有多种类型的隐式构造则会报二义性错误:
在返回值场景也支持隐式构造,例如:
但隐式构造有时会让代码含义模糊,导致意义不清晰的问题(尤其是单参的构造函数),例如:
上例中,表示一个系统,其构造参数是这个系统的版本号。那么这时用版本号的隐式构造就显得很突兀,而且只通过这种调用很难让人想到第一个参数竟然是类型的。
因此,是否应当隐式构造,取决于隐式构造的场景,例如我们用来构造就很自然,用一组数据来构造一个也很自然,或者说,代码的阅读者非常直观地能反应出来这里发生了隐式构造,那么这里就适合隐式构造,否则,这里就应当限定必须显式构造。用关键字限定的构造函数不支持隐式构造:
还有一种情况就是,对于变参的构造函数来说,更要优先考虑要不要加,因为变参包括了单参,并且默认情况下所有类型的构造(模板的所有实例,任意类型、任意个数)都会支持隐式构造,例如:
所以避免爆炸(生成很多不可控的隐式构造),对于变参构造最好还是加上,如果不加的话一定要慎重考虑其可能实例化的每一种情况。
在谷歌规范中,单参数构造函数必须用限定,但笔者认为这个规范并不完全合理,在个别情况隐式构造意义非常明确的时候,还是应当允许使用隐式构造。另外,即便是多参数的构造函数,如果当隐式构造意义不明确时,同样也应当用来限定。所以还是要视情况而定。
C++支持隐式构造,自然考虑的是一些场景下代码更简洁,但归根结底在于C++主要靠 STL 来扩展功能,而不是语法。举例来说,在 Swift 中,原生语法支持数组、map、字符串等:
因此,它并不需要所谓隐式构造的场景,因为语法本身已经表明了它的类型。
而 C++不同,C++并没有原生支持、、等的语法,这就会让我们在使用这些基础工具的时候很头疼,因此引入隐式构造来简化语法。所以归根结底,C++语言本身考虑的是语法层面的功能,而数据逻辑层面靠 STL 来解决,二者并不耦合。但又希望程序员能够更加方便地使用 STL,因此引入了一些语言层面的功能,但它却像全体类型开放了。
举例来说,Swift 中,的语法强绑定类型,的语法强绑定类型,因此这里的“语言”和“工具”是耦合的。但 C++并不和 STL 耦合,他的思路是就是构造参数,哪种类型都可以用,你交给时就是表示数组,你交给时就是表示 kv 对,并不会将“语法”和“类型”做任何强绑定。因此把隐式构造和都提供出来,交给开发者自行处理是否支持。
这是我们需要体会的 C++设计理念,当然,也可以算是 C++的缺陷。
C 风格字符串
字符串同样是 C++特别容易踩坑的位置。出于对 C 语言兼容、以及上一节所介绍的 C++希望将“语言”和“类型”解耦的设计理念的目的,在 C++中,字符串并没有映射为类型,而是保留 C 语言当中的处理方式。编译期会将字符串常量存储在一个全局区,然后再使用字符串常量的位置用一个指针代替。所以基本可以等价认为,字符串常量(字面量)是类型。
但是,更多的场景下,我们都会使用类型来保存和处理字符串,因为它功能更强大,使用更方便。得益于隐式构造,我们可以把一个字符串常量轻松转化为类型来处理。
但本质上来说,和是两种类型,所以一些场景下它还是会出问题。
类型推导问题
在进行类型推导时,字符串常量会按来处理,有时会导致问题,比如:
代码的原意是将“值类型”和“指针类型”分开处理,至于字符串,照理说应当是一个“对象”,所以要按照值类型来处理。但如果我们用的是字符串常量,则会识别为类型,直接匹配到了指针处理方式,而并不会触发隐式构造。
截断问题
C 风格字符串有一个约定,就是以 0 结尾。它并不会去单独存储数据长度,而是很暴力地从首地址向后查找,找到 0 为止。但不同,其内部有统计个数的成员,因此不会受 0 值得影响:
截断问题在传参时更加明显,比如说:
前面的章节曾经提到过,C++没有引入额外的格式符,因此把传入格式化函数的时候,也容易发生截断问题:
总之,C 风格的字符串永远难逃 0 值截断问题,而又因为 C++中仍然保留了 C 风格字符串的所有行为,并没有在语言层面直接关联,因此在使用时一定要小心截断问题。
指针意义不明问题
由于 C++保留了 C 风格字符串的行为,因此在很多场景下,把就默认为了字符串,都会按照字符串去解析。但有时可能会遇到一个真正的指针,那么此时就会有问题,比如说:
STL 中所有流接收到或时,并不会按指针来解析,而是按照字符串解析。在上面例子中,本身应当就是个单纯指针,但是输出流却将其按照字符串处理了,也就是会持续向后搜索找到 0 值为止,那这里显然是发生越界了。
因此,如果我们给、、类型取地址时,一定要考虑会不会被识别为字符串。
int8_t 和 uint8_t
原本和是用来表示“8 位整数”的,但是不巧的是,他们的定义是:
由于 C 语言历史原因,ASCII 码只有 7 位,所以“字符”类型有无符号是没区别的,而当时没有定制规范,因此不同编译器可能有不同处理。到后来干脆把当做独立类型了。所以和以及是不同类型。这与其他类型不同,例如和是同一类型。
但是类似于流的处理中,却没有把和单独拿出来处理,都是按照字符来处理了(这里笔者也不知道什么原因)。而和又是基于此定义的,所以也会出现奇怪问题,比如:
原本是想屏蔽掉这层含义,让它单纯地表示 8 位整数的,但是在 STL 的解析中,却又让它有了“字符”的含义,去按照 ASCII 码来解析了,让的定义又失去了原本该有的含义,所以这里也是很容易踩坑的地方。
(这一点笔者真的没想明白为什么,明明是不同类型,但为什么没有区分开。可能同样是历史原因吧,总之这个点可以算得上真正意义上的“缺陷”了。)
new 和 delete
这个运算符相信大家一定不陌生,即便是非 C++系其他语言一般都会保留这个关键字。而且这个已经成为业界的一个哏了,比如说“没有对象怎么办?不怕,new 一个!”
从字面意思就能看得出,这是“新建”的意思,不过在 C++中,远不止字面看上去这么简单。而且,关键字基本算得上是 C++的特色了,其他语言中基本见不到。
分配和释放空间
“堆空间”的概念同样继承自 C 语言,它是提供给程序手动管理、调用的内存空间。在 C 语言中,用于分配堆空间,用于回收。自然,在 C++中仍然可以用和
但使用有一个不方便的地方,我们来看一下的函数原型:
接收的是字节数,也就是我们需要手动计算出我们需要的空间是多少字节。它不能方便地通过某种类型直接算出空间,通常需要运算。返回值是类型,是一个泛型指针,也就是没有指定默认解类型的,使用时通常需要类型转换,例如:
而运算符可以完美解决上面的问题,注意,在 C++中是一个运算符
同理,也是一个运算符,用于释放空间:
运算符本质是函数调用
熟悉 C++运算符重载的读者一定清楚,C++中运算符的本质其实就是一个函数的语法糖,例如实际上就是,实际上就是,甚至仿函数、下标运算也都是函数调用,比如就是,就是。
既然和也是运算符,那么它就应当也符合这个原理,一定有一个的函数存在,下面是它的函数原型:
这个跟我们直观想象可能有点不一样,它的返回值仍然是,也并不是一个模板函数用来判断大小。所以,运算符跟其他运算符并不一样,它并不只是单纯映射成,而是做了一些额外操作。
另外,这个拥有 2 个参数的重载又是怎么回事呢?这个等一会再来解释。
系统内置的本质上就是,所以如果我们直接调和的话,本质上来说,和和其实没什么区别:
而当我们用运算符的形式来书写时,编译器会自动处理类型的大小,以及返回值。运算符必须作用于一个类型,编译器会将这个类型的 size 作为参数传给,并把返回值转换为这个类型的指针,也就是说:
运算符要作用于一个指针,编译器会将这个指针作为参数传给,也就是说:
重载 new 和 delete
之所以要引入和还有一个原因,就是可以重载。默认情况下,它们操作的是堆空间,但是我们也可以通过重载来使得其操作自己的内存池。
另一个点,相信大家已经发现了,和是支持异常抛出的,而我们这里引用直接用空指针来表示分配失败的情况了,于是加上了修饰。而默认的情况下,可以通过接收异常来判断是否分配成功,而不用每次都对指针进行判空。
构造函数和 placement new
的另一个问题就是处理非平凡构造的类类型。当一个类是非平凡构造时,它可能含有虚函数表、虚基表,还有可能含有一些额外的构造动作(比如说分配空间等等),我们拿一个最简单的字符串处理类为例:
上面例子中,就是一个非平凡的类型,它在构造函数中创建了堆空间。如果我们直接通过分配一片大小的空间,然后就直接用的话,显然是会出问题的,因为构造函数没有执行,其中管理的堆空间也是没有进行分配的。所以,在 C++中,创建一个对象应该分 2 步:
分配内存空间
调用构造函数
同样,释放一个对象也应该分 2 步:
调用析构函数
释放内存空间
这个理念在 OC 语言中贯彻得非常彻底,OC 中没有默认的构造函数,都是通过实现一个类方法来进行构造的,因此构造前要先分配空间:
但是在 C++中,初始化方法并不是一个普通的类方法,而是特殊的构造函数,那如何手动调用构造函数呢?
我们知道,要想调用构造函数(构造一个对象),我们首先需要一个分配好的内存空间。因此,要拿着用于构造的内存空间,以构造参数,才能构造一个对象(也就是调用构造函数)。C++管这种语法叫做就地构造(placement new)
就地构造的语法就是,看得出,这也是运算符的一种。这时我们再回去看的一个重载,应该就能猜到它是干什么的了:
就是用于支持就地构造的函数。要注意的是,如果是通过就地构造方式构造的对象,需要再回收内存空间之前进行析构。以上面为例,如果不析构直接回收,那么所指的空间就不能得到释放,从而造成内存泄漏:
new = operator new + placement new
看到本节的标题,相信读者会恍然大悟。C++中运算符同时承担了“分配空间”和“构造对象”的任务。上一节的例子中我们是通过和来管理的,自然,通过和也是一样的,而且它们还支持针对类型的重载。
因此,我们说,一次,相当于先(分配空间)加(调用构造函数)。
同理,一次相当于先“析构”,再(释放空间)
这就是和的神秘面纱,它确实和普通的运算符不一样,除了对应的函数外,还有对构造、析构的处理。但也正是由于 C++总是进行一些隐藏操作,才会复杂度激增,有时也会出现一些难以发现的问题,所以我们一定要弄清楚它的本质。
new []和 delete []
和的语法看起来是“创建/删除数组”的语法。但其实它们也并不特殊,就是封装了一层的和
可以看出,和完全一样,和也完全一样,所以区别应当在编译器的解释上。的时候,会计算出个类型的总大小,然后调用,之后,会依次对每个元素进行构造。也就是说:
同理,会首先依次调用析构,然后再调用来释放空间:
总结下来相当于一次内存分配加多次就地构造,运算符相当于多次析构加一次内存释放。
constexpr
全程叫“常量表达式(constant expression)”,顾名思义,将一个表达式定义为“常量”。
关于“常量”的概念笔者在前面“const 引用”的章节已经详细叙述过,只有像,,之类的才是真正的常量。储存在内存中的数据都应当叫做“变量”。
但很多时候我们在程序编写的时候,会遇到一些编译期就能确定的量,但不方便直接用常量表达的情况。最简单的一个例子就是“魔鬼数字”:
作为错误码的时候,我们只能知道业界约定表示成功,但其他的错误码就不知道什么含义了,比如这里的号错误码,非常突兀,根本不知道它是什么含义。
C 中的解决的办法就是定义宏,又有宏是预编译期进行替换的,因此它在编译的时候一定是作为常量存在的,我们又可以通过宏名称来增加可读性:
(对于错误码的场景当然还可以用枚举来实现,这里就不再赘述了。)
用宏虽然可以解决魔数问题,但是宏本身是不推荐使用的,详情大家可以参考前面“宏”的章节,里面介绍了很多宏滥用的情况。
不过最主要的一点就是宏不是类型安全的。我们既希望定义一个类型安全的数据,又不希望这个数据成为“变量”来占用内存空间。这时,就可以使用 C++11 引入的概念。
这里的虽然是类型的,类型安全,但因为用修饰了,因此它会在编译期间成为“常量”,而不会占用内存空间。
用修饰的表达式,会保留其原有的作用域和类型(例如上面的就跟全局变量的作用域是一样的),只是会变成编译期常量。
constexpr 可以当做常量使用
既然叫“常量表达式”,那么也就是说有一些编译期参数只能用常量,用修饰的表达式也可以充当。
举例来说,模板参数必须是一个编译期确定的量,那么除了常量外,修饰的表达式也可以:
至于其他类型的表达式,也支持,原则在于它必须要是编译期可以确定的类型,比如说 POD 类型:
这里可能有一些和直觉不太一样的地方,我来解释一下。首先,数组类型是编译期可确定的(你可以单纯理解为一组数,使用时按对应位置替换为值,并不会真的分配空间)。
是 POD 类型,那么就跟普通的结构体、数组一样,所以都可以作为编译期常量。
后面几个指针需要重点解释一下。用修饰的除了可以是绝对的常量外,在编译期能确定的量也可以视为常量。比如这里的,由于函数的地址,在运行期间是不会改变的,编译期间尽管不能确定其绝对地址,但可以确定它的相对地址,那么作为函数指针,它就是将要保存的地址,所以,这就是编译期可以确定的量,也可用修饰。
同理,指向的是一个字符串常量,字符串常量同样是有一个固定存放地址的,位置不会改变,所以用于指向这个数据的指针也可以用修饰。要注意的是:表达式有固定的书写位置,与的位置不一定相同。比如说这里如果定义只读变量应该是,后面的修饰,前面的修饰。但换成常量表达式时,要放在最前,因此不能写成,而是要写成。当然,少了这个也是不对的,因为不仅是指针不可变,指针所指数据也不可变。这个也是 C++中推荐的定义字符串常量别名的方式,优于宏定义。
最后的这个也是一样的道理,因为全局变量的地址也是固定的,运行期间不会改变,因此也可以用常量表达式。
当然,如果运行期间可能发生改变的量(也就是编译期间不能确定的量)就不可以用常量表达式,例如:
constexpr 表达式也可能变成变量
希望读者看到这一节标题的时候不要崩溃,C++就是这么难以捉摸。
没错,虽然已经是常量表达式了,但是用修饰变量的时候,它仍然是“定义变量”的语法,因此 C++希望它能够兼容只读变量的情况。
当且仅当一种情况下,定义的变量会真的成为变量,那就是这个变量被取址的时候:
道理也很简单,因为只有变量才能取址。上面例子中,由于对进行了取地址操作,因此,不得不真正成为一个变量,也就是变为类型。
那另一个问题就出现了,如果说,我对一个常量表达式既取了地址,又用到编译期语法中了怎么办?
没关系,编译器会让它在编译期视为常量去给那些编译期语法(比如模板实例化)使用,之后,再把它用作变量写到内存中。
换句话说,在编译期,这里的相当于一个宏,所有的编译期语法会用替换,就变成了。之后,又会让成为一个只读变量写到内存中,也就变成了那么自然就是合法的了。
就地构造
“就地构造”这个词本身就很 C++。很多程序员都能发现,到处纠结对象有没有拷贝,纠结出参还是返回值的只有 C++程序员。
无奈,C++确实没法完全摆脱底层考虑,C++程序员也会更倾向于高性能代码的编写。当出现嵌套结构的时候,就会考虑复制问题了。举个最简单的例子,给一个进行操作时,会发生一次复制:
原因就在于,的原型是:
如果传入左值,则会进行拷贝构造,传入右值会移动构造。但是对于来说,无论深浅复制,都是相同的复制。这多构造一次临时对象本身就是多余的。
既然,我们已经有的构造参数了,能否想办法跳过这一次临时对象,而是直接在末尾的空间上进行构造呢?这就涉及了就地构造的问题。我们在前面“new 和 delete”的章节介绍过,“分配空间”和“构造对象”的步骤可以拆解开来做。首先对的进行扩容(如果需要的话),确定了要放置新对象的空间以后,直接使用进行就地构造。
比如针对的我们可以这样写:
STL 中把容器的就地构造方法叫做,原理就是通过传递构造参数,直接在对应位置就地构造。所以更加通用的方法应该是:
嵌套就地构造
就地构造确实能在一定程度上解决多余的对象复制问题,但如果是嵌套形式就实则没办法了,举例来说:
也就是说,我们没法在就地构造对象时对参数再就地构造。
这件事情放在或者上更加有趣,因为这两个容器的成员都是,所以对它进行的时候,就地构造的是而不是内部的对象:
不过好在,和提供了方法,可以在一定程度上解决这个问题,函数原型是:
这里把和拆开了,前者还是只能通过复制的方式传递,但后者可以就地构造。(实际使用时,更需要就地构造,一般来说都是整数、字符串这些。)那么我们可用它代替:
但看这个函数名也能猜到,它是“不覆盖逻辑”。也就是如果容器中已有对应的,则不会覆盖。返回值中第一项表示对应项迭代器(如果是新增,就返回新增这一条的迭代器,如果是已有则放弃新增,并返回原项的迭代器),第二项表示是否成功新增(如果已有会返回)。
不过有一些场景利用会很方便,比如处理多重时使用嵌套的场景,如果用要写成:
但是利用就可以更取巧一些:
解释一下,如果含有为的项,就返回对应迭代器,如果没有的话则会新增(由于没指定后面的参数,所以会构造一个空),并返回迭代器。迭代器在返回值的第一项,所以取得到迭代器,迭代器指向的是内部的,取得到内部的,再对其进行一次插入内部的元素。
当然了,这么做确实可读性会下降很多,具体使用时还需要自行取舍。
总结
曾经有很多朋友问过我,C++适不适合入门?C++适不适合干活?我学 C++跟我学 java 哪个更赚钱啊?
笔者持有这样的观点:C++并不是最适合生产的语言,但 C++一定是最值得学习的语言
如果说你单纯就是想干活,享受产出的快乐,那我不建议你学 C++,因为太容易劝退,找一些新语言,语法简单清晰容易上手,自然干活效率会高很多;但如果你希望更多地理解编程语言,全面了解一些自底层到上层的原理和进程,希望享受研究和开悟的快乐,那非 C++莫属了。掌握了 C++再去看其他语言,相信你一定会有不同的见解的。
所以到现在这个时间点,应该说,C++仍然还是我的信仰,我认为 C++将会在将来很长一段时间存在,并且以一个长老的身份发挥其在业界的作用和价值,但同时也会有越来越多新语言的诞生,他们在自己适合的地方发挥着不一样的光彩。我也不再会否认 C++的确有设计不合理的地方,不会否认其存在不擅长的领域,也不会再去鄙视那些吐槽 C++复杂的人。与此同时,我也不会拒绝涉足其他的领域,我认为,只有不断学习比较,不断总结沉淀,才能持续进步。
如果你能读到这里的话,那非常感激你的支持,听我说谢谢你,因为有你……咳咳~。这篇文章作为我学习 C++多年的一个沉淀,也希望借此把我的想法分享给读者,如果你有任何疑问或者建议,欢迎评论区留言!针对更多 C++的特性的用法、编程技巧等内容,请期待我其他系列的文章。