介绍

Bitcask 是一个单机 KV 存储引擎,项目起因于 Riak 分布式 KV 数据库需要一个能满足以下条件的单机 KV 存储引擎:

  • 低延迟的单条读写
  • 高吞吐,尤其是面对流式随机 KV 写入
  • 能支持远比内存大的数据量
  • 能从崩溃中快速恢复以及不丢失数据
  • 能轻松的备份和还原数据
  • 相对简单,易理解的代码结构和数据格式
  • 在高负载和大数据场景下系统的行为是可预期的
  • 软件的许可证要能轻易的适配 Riak 使用

作者看了一圈发现市面上还没有一款 KV 存储能全部满足这些条件,因此 Bitcask 就应运而生。

API

Bitcask 的接口非常精简:

接口 描述
bitcask:open(DirectoryName, Opts) -> BitCaskHandle | {error, any()} 在指定目录下以指定选项打开或新建一个 Bitcask 实例。支持的选项包括 read_write 或者 sync_on_put
  • read_write:可读可写
  • sync_on_put:每次写操作后刷盘
连接的进程需要有 DirectoryName 对应目录的读写权限,同时一个时刻只能有一个进程以 read_write 的方式打开 Bitcask 实例。
bitcask:open(DirectoryName) -> BitCaskHandle | {error, any()} 在指定目录下以只读模式打开或新建一个 Bitcask 实例。连接的进程需要有 DirectoryName 对应目录及其内部所有文件的读权限。
bitcask:get(BitCaskHandle, Key) -> not_found | {ok, Value} 获取指定键对应的值。
bitcask:put(BitCaskHandle, Key, Value) -> ok | {error, any()} 插入一个键值对。
bitcask:delete(BitCaskHandle, Key) -> ok | {error, any()} 删除指定键。
bitcask:list_keys(BitCaskHandle) -> [Key] | {error, any()} 返回所有的键。
bitcask:fold(BitCaskHandle, Fun, Acc0) -> Acc 对每一个键值对应用 Fun 函数,Fun 的函数签名为 F(K, V, Acc0) -> Acc。类似于 JavaScriptreduce
bitcask:merge(DirectoryName) -> ok | {error, any()} 合并目录下的数据文件以减少重复的键值对。同时生成 hintfile 辅助加速程序启动时间。
bitcask:sync(BitCaskHandle) -> ok 强制刷盘。
bitcask:close(BitCaskHandle) -> ok 关闭 Bitcask 实例的连接并刷盘。

存储

文件组织

Bitcask 的文件组织非常简单,任意时刻目录下最多只有一个 active data file 接收写操作,其余都是不可修改的历史数据文件。任意时刻 Bitcask 只允许一个进程以写模式建立连接,写入进程只会向 active data file 写入,当其大小超过指定阈值后就会关闭当前文件,然后新建一个 active data file

alt

数据格式

写入进程以追加写的方式写入 active data file,从而避免了随机写的磁盘寻址,其写入数据格式如下:

alt

  • crc:循环冗余校验码,验证数据完整性
  • tstamp:32位整型本地时间戳,仅内部使用,不对外暴露
  • ksz:键的长度
  • value_sz:值的长度
  • key:键的内容
  • value:值的内容

对于每一条记录,前面四个部分都是定长,以此为基址 base,则 basebase + ksz 就是键的内容,base + kszbase + ksz + value_sz 就是值的内容。

如果要删除指定的键,Bitcask 会再次追加写入一个键值对,只不过写入的值是一个特殊值,程序后续读到这条记录时比较值的内容就可以判断该条记录是否已被删除。所以,Bitcask 每个文件内容就是一行行的记录:

alt

读写

Bitcask 写入的同时会在内存中维护写入的键到数据文件的映射(keydir):
alt

其中 file_id 能够定位具体的数据文件,value_pos 是该条记录的值在文件中的起始偏移位置,那么 value_posvalue_pos + value_sz 就是值的内容。因为 Bitcask 每次写数据的长度是可知的,值在每条记录中的偏移量可知,写之前 active data file 文件总长也可知,所以 value_pos 也能够推算出来。

对于重复写入的键值对,磁盘上会存在同一个键的多条记录,但是 keydir 中始终只保留最新的映射。

读取时先根据键查询 keydir 得到数据文件的映射,然后根据 file_id 定位数据文件,最后根据 value_posvalue_sz 返回值的内容,整个读取只涉及一次磁盘寻址。另一方面,文件系统的 read-ahead 缓存会进一步减少磁盘的交互:

alt

数据合并

由于 Bitcask 追加写的特性,有两种类型的数据是冗余的:

  • 被标记删除的数据
  • 同一个键的旧版本的数据

所以,为了避免磁盘空间的浪费,需要额外的数据合并操作对磁盘上的数据瘦身。数据合并只处理只读的数据文件,遍历剔除掉已删除和旧版本的数据。另外,每一个合并后的数据文件同时额外有一个对应的 hint file

alt

hint file 也是行记录的文件,每一行存储了:

  • tstamp:时间戳
  • ksz:键的长度
  • value_sz:值的长度
  • value_pos:值在数据文件中的起始地址偏移量
  • key:键

当程序启动时,如果 hint file 存在,那么就可以直接扫描 hint file 构建 keydir 从而加速程序启动;反之,则要扫描数据文件。

性能数据

原文并没有给出非常正规的测试报告,仅列出了一些早期未优化的测试数据:

  • 读写延迟:毫秒内
  • 写吞吐:5000~6000次/秒
  • 内存占用:几百万的键在 1GB 内(keydir 需要)

总结

Bitcask 的整体设计思路非常简单,其设计目的也不是为了成为最快的 KV 存储,而是最适合 Riak 的存储引擎,在足够快的同时有着高质量、简洁的代码,设计和数据格式。

参考

定义

自由的软件的定义四要素:

  • 以任何意愿,目的运行软件的自由
  • 学习软件运行原理的自由,并且能按自主意愿修改(前提还需要能自由访问源代码)
  • 将软件的副本再次分发给其他人的自由
  • 将修改后的软件的副本分发给其他人的自由

一个软件只有具备了上述四点才是自由的软件。

不过,自由的软件不表示不能商用,相反,GNU 鼓励并且认为商用是自由软件社区成功的重要途径。自由的软件必须能够在商业上使用,开发,以及分发。

自由与非自由的边界

以任何意愿运行软件的自由

任何个人或组织可以在任意计算机系统上,出于任意目的运行软件,而不需要事先和开发者或者其他组织联系。同时,你也可以将软件再分发给其他用户,其他用户也能自由的以他们自己的意愿去运行软件而不受你的约束。

学习软件源代码并修改的自由

自由的获取软件的源代码是能够自由修改软件和再分发的前提,不过,经过代码混淆工具处理过的代码不算是源代码。

同时,如果对修改软件有限制,那么该软件也不算是自由的软件,例如:

  • 某软件引用了修改后的软件 A,但不允许将其替换为你自己修改的版本
  • 要求你成为所修改的代码的版权拥有者
  • 只能做出其他人认为是改进的修改

软件再分发的自由

你可以自由的再分发未修改或修改后的软件副本给任何人,即使是收费。同时,你也可以自由的修改软件然后私用,而不需要让其他任何人知道;如果你将修改后的软件再分发,也不需要以任何形式知会任何人。

自由再分发的软件副本必须包含可执行文件,以及修改和未修改的源代码。不过有些软件可能(暂时)无法生成可执行的文件,但是依然要保留能够再分发可执行文件的自由。

Copyleft

版权的单词是 copyrightcopyleft 与之对应。它要求所修改和扩展的软件都必须依然保留自由软件的四要素(而不仅仅是免费),GNU 自己的项目就使用符合 copyleft 的许可证来保证软件的自由。不过,这里并不是说所有自由的软件都必须用 copyleft 许可证,不然也违背了自由一词。

软件分发的约束

只要不限制分发修改后的软件的自由,不限制私用修改后的软件,对软件分发做一定程度的约束是可接受的。例如,要求给修改后的软件换个名字,删除原有软件的 logo,或者声明修改为你所有。

出口规定

有时候政府的出口管制会限制你在国际上分发软件的自由。虽然身为开发人员无法对抗这些规定,但是你可以做也必须做的是,不添加这些法律条文作为软件的使用条件。

合规考虑

如果软件的用户没有做任何不合规的事,那么软件的开发人员不能随意的撤销软件的许可证,或添加使用限制,否则这就不是自由的软件。

基于合约的许可证

有些基于合约的许可证会引入较多的使用限制,从而可能违背自由软件的四要素,因此这类许可证不被认为是自由的许可证。例如某些免费的软件许可证会规定允许被安装的设备的数量,以及限制分享给他人使用。

软件之外

软件的使用手册也必须是自由的,因为手册也是软件的一部分。再扩展一步,自由不仅仅是用在软件上,任何能够以数字形式呈现的产物都可以是自由的。

参考

豆瓣个人评分标准:

  • 五星:一见钟情,简直停不下来,必然多周目起步
  • 四星:依然优秀,但是相比五星存在无法忽略的缺点,可能会多周目
  • 三星:没什么吸引人的地方,大部分能坚持到一周目结束,基本不会多周目
  • 二星:肉眼可见的烂,中途就弃
  • 一星:还没遇到过

以下是个人向五星里最喜欢的十款单机游戏,重剧情、代入感,轻玩法、动作,按接触时间倒序。

赛博朋克2077

一开始被蠢驴泼天的 bug 劝退了,一直没有上手。不过,看到 DLC 往日之影发售之后大受好评,而且据说2.0版本相比初版已改进不少,遂抱着试试看的心理购入,最终真香,依然吃蠢驴这套。遗憾的是支线的量不够多,意犹未尽。

上古卷轴5

2024年才接触老滚5,而且还没装 Mod,玩了200小时之后依然觉得还有200小时的内容在等待发掘。个人认为老滚5和荒野之息体现了做开放世界的两个赛道,在老滚5里我能停下来和每个人对话,探索世界的动力在于我会遇到什么样的人,会发生什么事。

荒野大镖客2

R 星的另一个代表作道德与法治5由于缺少对三个主角的代入感,加上整体枪车戏份过多,玩了一遍后就没有重拾的动力。反而比较适合大表哥2慢悠悠的世界,最终随着结尾曲响起,代入感达到顶峰,仿佛失去了一位朋友。

女神异闻录5

中二的剧情,新奇的 UI,魔性的音乐,不知不觉就过了100小时,并且回合制战斗也不显得枯燥。

巫师3

蠢驴入坑之作,虽然相比老滚5显得并不开放,但丰富的支线加上优秀的音乐让人流连忘返。

最后生还者

线性叙事的巅峰,没有一丝冗余,剧情和动作完美结合,无时无刻不在关注下一秒的走向。

空之轨迹

一首星之所在伴随至今,相比于现在注水冗余的轨迹系列,剧情优秀,人物感情细腻。

三国志11

独特的水墨画风,恰到好处的音乐,相比于即时制更喜欢回合制的操控,能够一直待在电脑里,历史感十足。

太阁立志传5

自由度满分,做一个躺平散养的人,喝茶交友,四处乱逛,没有 KPI。

最终幻想10

很难想象当初顶着看不懂的日文玩到了最后,惊艳的 CG 和音乐,共情最深的 FF。

对于整数-5除以2,在 Python 中的结果是-3,但是在 C 中是-2。如果扩展到其他几种常见的语言,可以看到和 C 一致的比较多:

语言 结果
C -2
C++ -2
Java -2
C# -2
Rust -2
Go -2
Python -3
Ruby -3

区别在于对于结果-2.5是选择向0取整还是向负无穷取整,PythonRuby 选择了后者。

对于整数 an,记 a 除以 n 的结果是 q,余数是 r,则有:a = n * q + r,其中 |r| < |n|。在数论中,r 始终是正数,但是不同的编程语言各自有不同的实现。

In number theory, the positive remainder is always chosen, but in computing, programming languages choose depending on the language and the signs of a or n.

编程语言实现

Truncated division

很多语言采用这种实现,约定 q=trunc(an)q = trunc(\frac{a}{n}),其中 trunc 表示向0取整,代表语言如 Java

Floored division

Donald Knuth 提倡这种实现,约定 q=anq = \lfloor \frac{a}{n} \rfloor,即向下取整,代表语言如 Python

Euclidean division

Raymond T. Boute 则提倡这种实现,约定:

q=sgn(n)an={anif n > 0anif n < 0q = sgn(n)\lfloor \frac{a}{|n|} \rfloor = \begin{cases} \lfloor \frac{a}{n} \rfloor & \text{if n > 0}\\ \lceil \frac{a}{n} \rceil & \text{if n < 0} \end{cases}

即根据 n 的正负号来判断是向下取整还是向上取整,代表语言如 ABAP

Rounded division

这是 Common LispIEEE 754 采用的实现,约定 q=round(an)q = round(\frac{a}{n}),其中 round 使用 rounding half to even,即在常规的取整之外,对于1.5,2.5,x.5这样的数字取整到最近的偶数,例如6.5取整到6,7.5取整到8。

Ceiling division

这是 Common Lisp 提供的另一种实现,约定 q=anq = \lceil \frac{a}{n} \rceil,即向上取整。

Python 实现

回到 Python,很难说上述哪种实现一定最优,Python 的作者提到采用 floored division 是因为对于某些应用来说,如果取模运算返回负数没有意义。例如,给定一个 POSIX timestamp,如何返回该天的时间部分,即时分秒?因为一天有86400秒,假设时间戳是 t,那么 t % 86400 就表示该天过了多少秒,就可以进一步转化为时分秒。而对于在 1970-01-01T00:00:00Z 之前的日期,t 则是负数,采用 floored division 的情况下 t % 86400 依然返回正数,并且结果也是正确的,而 truncated division 则返回负数,需要应用程序进一步处理。

不过,一种编程语言中不一定只提供一种实现,其他实现可以借助函数库。例如,Python-5 % 2 结果是1,实现方式为 floored division,但是 math.fmod(-5, 2) 结果是-1,实现方式为 truncated division

参考

介绍

SnowflakeData LoadingData Unloading 可以通过 S3 导入和导出数据。用户可以使用 AWS_KEY_IDAWS_SECRET_KEY 来授权 Snowflake 访问 S3,不过出于安全和权限控制的考虑,一般不会这么做。

Snowflake 建议通过 Storage Integration 来管理权限。

获取 VPC ID

在配置 Storage Integration 前,需要设置 S3 策略。首先获取 SnowflakeVPC ID,后续的 S3 策略配置中将只允许该 VPC 访问。

允许特定 VPC 访问的功能要求 Snowflake 实例和对应的 S3 Bucket 运行在相同的 AWS 区域内。

切换到 ACCOUNTADMIN 角色在 Snowflake 中执行:

1
2
USE ROLE ACCOUNTADMIN;
SELECT SYSTEM$GET_SNOWFLAKE_PLATFORM_INFO();

记录下返回的 VPC ID

1
{"snowflake-vpc-id":["vpc-abc"]}

创建 IAM 策略

然后,需要创建一个 S3 策略来定义 Snowflake 访问 S3 Bucket 的权限。

AWS 控制台进入 IAM,在左侧导航栏 Access management 下选择 Account settings

alt

Security Token Service (STS) 下查看所在区域的 STS 状态是否是 Active

alt

接着,在左侧导航栏 Access management 下选择 Policies,之后点击 Create policy

alt

切换到 JSON 后输入 S3 策略:

alt

下面的策略中 vpc-abcSnowflake 实例的 VPCsnowflake-storage-integration-example 是示例 Bucket 的名字,unloadingloading 是该 Bucket 下的两个文件夹,分别用于 Data UnloadingData Loading 使用:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
{
"Version": "2012-10-17",
"Statement": [
{
"Sid": "Statement1",
"Effect": "Allow",
"Action": [
"s3:PutObject",
"s3:GetObject",
"s3:GetObjectVersion",
"s3:DeleteObject",
"s3:DeleteObjectVersion"
],
"Resource": [
"arn:aws:s3:::snowflake-storage-integration-example/unloading/*",
"arn:aws:s3:::snowflake-storage-integration-example/loading/*"
],
"Condition": {
"StringEquals": {
"aws:SourceVpc": "vpc-abc"
}
}
},
{
"Sid": "Statement2",
"Effect": "Allow",
"Action": [
"s3:ListBucket",
"s3:GetBucketLocation"
],
"Resource": [
"arn:aws:s3:::snowflake-storage-integration-example"
],
"Condition": {
"StringLike": {
"s3:prefix": [
"unloading/*",
"loading/*"
]
},
"StringEquals": {
"aws:SourceVpc": "vpc-abc"
}
}
}
]
}

创建 IAM 角色

接着,创建一个 IAM 角色并绑定前一步创建的 S3 策略。在 IAM 左侧导航栏 Access management 下选择 Roles,之后点击 Create role

alt

Trusted entity type 选择 AWS account,然后在 An AWS account 下选择 Another AWS accountAccount ID 暂时先填当前账号的 ID,之后会修改:

alt

同时,选择 Require external ID (Best practice when a third party will assume this role)External ID 暂时用一个假的例如 0000 替代,之后同样会修改:

alt

最后绑定先前创建的 S3 策略:

alt

创建角色之后,记录下角色的 ARN,接下来会用到:

alt

创建 Storage Integration

这时就可以在 Snowflake 中创建 Storage Integration 了:

1
2
3
4
5
6
CREATE STORAGE INTEGRATION snowflake_storage_integration_example
TYPE = EXTERNAL_STAGE
STORAGE_PROVIDER = 'S3'
ENABLED = TRUE
STORAGE_AWS_ROLE_ARN = 'arn:aws:iam::123:role/snowflake-integration-role'
STORAGE_ALLOWED_LOCATIONS = ('s3://snowflake-storage-integration-example/loading/', 's3://snowflake-storage-integration-example/unloading/')

其中 STORAGE_AWS_ROLE_ARN 是之前所创建的 IAM 角色的 ARNSTORAGE_ALLOWED_LOCATIONS 是示例 Bucket 下的两个文件夹的地址。

只有授权了 CREATE INTEGRATION 权限的角色才能创建 STORAGE INTEGRATION,默认只有 ACCOUNTADMIN 才有这个权限。

获取 Snowflake 的用户 ARN 和 External ID

接着需要获取所创建的 Storage Integration 对应的 Snowflake IAM 用户的 ARNExternal ID

1
desc integration snowflake_storage_integration_example;

alt

记录下 STORAGE_AWS_IAM_USER_ARNSTORAGE_AWS_EXTERNAL_ID

授权 Snowflake 用户

回到之前创建的 IAM 角色,在 Trust relationships 下替换掉之前填写的临时 Account IDExternal ID

alt

alt

完成后,我们就可以执行一条 Data Unloading 命令来验证配置是否成功:

1
2
3
4
copy into 's3://snowflake-storage-integration-example/unloading/'
from (select OBJECT_CONSTRUCT_KEEP_NULL(*) from (select * from MY_DATABASE.MY_SCHEMA.MY_TABLE limit 10))
FILE_FORMAT = (type = json, COMPRESSION = NONE)
STORAGE_INTEGRATION = snowflake_storage_integration_example

如果配置成功,那么 Snowflake 会将表 MY_DATABASE.MY_SCHEMA.MY_TABLE 的数据导出到 s3://snowflake-storage-integration-example/unloading/ 文件夹下。

参考

翻到了一本压箱底的 Newton 科学世界,本期主题为 就诊指南,大概整理了一下,源文件

alt

参考

  • Newton 科学世界(2022.5)

介绍

这是一篇出现在 Hacker News 上的文章,作者阐述了关于不当管理者的17个理由。

17个理由

1. 你热爱你所做的事

  • 你会为能亲自实现某个功能而兴奋不已吗?
  • 你会时而在敲完一天代码后开心的哼着小曲下班吗?
  • 你会为过去所实现的功能、达成的成就感到自豪吗?

如果是的话,那么你是一个幸运的打工人。永远不要低估一颗热爱工作的心,同时也不要想当然的认为无论何时都能重拾这份热爱。

2. 找到一份工程师的工作很简单

在裁员时代,这点已经不再简单。不过在同等条件下,工程师岗位相对于管理者岗位来说:

  • 技能更能够量化,仅从通过面试来说,一部分技能甚至可以在面试过程中不断学习强化
  • 除了特定行业外,工程师的技能一般不和公司深度绑定。在上一家公司培养的技能并不会因为换了家公司就基本没用;而管理者在上一家公司与各团队构建的信任关系则一般无法带到下一家公司,或者换了一家公司后,需要应对未曾遇到的人员关系

3. 管理者岗位僧多粥少

管理者岗位一个萝卜一个坑,其招聘数量远少于工程师岗位。

4. 管理者最先被炒鱿鱼

如果真要裁员,光裁管理者是不够的,工程师反而有天然的【人数优势】。

除非是一锅端,否则各部门按比例的裁员场景下,应该不会有管理者自告奋勇的说自己产生不了直接价值,底下的人离开我也能转,裁我吧。

5. 管理者不易跳槽

除开管理者岗位本身的原因,年龄也有一定的影响,但这不仅仅针对管理者。管理者的年龄一般比下属的工程师大,即使一个工程师在年轻的时候可以一年两跳,到了管理者同样的年纪也可能会变得不容易跳槽。

6. 工程师会看轻管理者

大家都是打工的,没有必要谁看不起谁。当然也会有唯技术论的工程师,无视技术之外的一切;但同样的,也有始终认为自己是主子的管理者,这种,自然是没有必要迎合的。

那么,管理者需不需要懂技术?如果是放权型管理者,能安心将技术决策委托给核心工程师,是可以不用懂技术的,从而专注发挥好自己的管理长处。不过,这属于可遇不可求的情况,现实中没有那么多的刘备和孔明。虽然作者和他的同事们讨论后都认为所遇到的优秀的管理者都不懂技术,但是优秀的管理者本身是比优秀的工程师更为稀缺的存在。所以,对于一般的管理者,至少在技术上要能认识到十个女人一个月真的生不出孩子。

7. 管理者有时候要当坏人

身为管理者,难免会遇到以下的情况:

  • 绩效有人要背 C
  • 裁员指标
  • 传达上头不合理的要求

而并不是所有人都愿意和能合理的处理好这些场景。

8. 管理者的技能树比你想象中的要少

如果从工程师切到了管理者,可能会觉得自己一直在飘着,不再是实际的执行者,这对于某些工程师来说可能会比较难受。而另一方面,立志往管理线发展的人可能会更乐于去做引导一个产品或项目落地的过程,对实际执行并不太关心,并在这期间逐步提高自己的影响力。

我认为这里能体现管理者水平的地方包含但不限于如何处理:

  • 你的目标对你很重要,但对其他人不重要
  • 你有雄心壮志,但其他人只想安分守己

9. 做得好是你的本分,做不好是你的锅

大和田老师在半泽直树1里说过:

下属的功劳是上司的功绩,上司的过错是下属的责任

做不好又能把锅甩出去也是管理的一种能力。

10. 你需要以 IC 的身份和管理者分庭抗礼

IC 全称 Individual Contributor,常见翻译为独立贡献者或个人贡献者。IC 最明显的特点是没有管理职责,注意不等同于没有管理工作,他们利用自己的专业水平协同或者独立完成任务,最终可能成为某一方面的专家。

IC 也分等级,例如 Dropbox 的软件工程师职位就划分为了 IC1IC7,而管理者岗位则是 M 线。高级的 IC 也会有管理工作,例如项目管理(高级 IC 负责的项目很可能已经不是自己能独立完成的了)或者人员管理(什么地方用什么样的人)。

这里作者认为需要有能够发声的高级 IC,因为他们毕竟还是 IC 线,他们所代表的利益有时也符合普通工程师的利益。如果高级 IC 最终都转到了管理岗,那么本来就人微言轻的普通工程师的利益也更难传达到上层。不过,这也要求公司有能够让高级 IC 开花结果的土壤。

11. 管理只是一系列技能,你同样能以 IC 的身份去尝试所有有趣的管理工作

随着在 IC 路线上的成长,你会逐渐涉及一些技术之外的管理工作。有人可能就会乐于去尝试这些管理工作,例如担任导师,面试,参与决策,制定职业规划等。作者认为一个健康的公司应当鼓励并允许高级 IC 去参与这些工作。这样就避免了参与管理者职责中的一些不讨喜的活,例如绩效考核,裁人等。

12. 更难从工作中感到愉悦

修复一个问题或者学习新知识所带来的愉悦可能就此一去不复返,同时,工作中的正反馈周期也可能变长。

不过,这也因人而异,那些享受改完一个高深 Bug 的工程师可能根本不会想着做管理,而有些做管理的人也可能根本不认为改完一个高深的 Bug 是种享受,他们的愉悦点可能在于来自底下的服从。

13. 情绪影响会衍生甚至占据你的个人生活

身为管理者后,会与更多的人打交道,而人不是一个确定的个体,每个人有各自的行为处世,你可能会觉得更心累。

14. 你的时间不再属于你

普通工程师的时间都不能够一定保证,管理者可能更甚。

15. 会议

更恐怖的是无尽的低效会议。

16. 如果你的心之所向是技术引领

成为管理者后,你的做事方式就转变为了影响团队,提高团队。你的技术水平也会因此停滞不前,然后逐渐衰退。如果你认为这是一种折磨,那么你就不适合成为管理者。

17. 管理者岗位始终会等着你

即使是技术路线越往上走也越会要涉及管理工作,如果你不在乎一个头衔,又何必急于一时。

最后

理想的情况下自然是合适的人在合适的位置上,不过现实中也会有赶鸭子上架而做了管理者的人,或者为了延长自己的职业寿命而无奈转了管理者。但无论如何,管理并不是一个想当然的工作,并不是因为工程师干不下去了所以到时候就转管理,这既不尊重管理岗位本身,也不尊重团队中的其他人,只会多一个不靠谱的管理者,而不靠谱的管理者比不靠谱的工程师更糟糕。

参考

介绍

Grafana Cloud 为免费账户提供了一万条指标的存储额度,对于业余项目来说可以考虑将指标上传到由 Grafana Cloud 托管的 Prometheus 中。

安装 Grafana Agent

Prometheus 指标数据的上传需要通过 Grafana Agent 来完成,以下安装步骤以 Ubuntu 为例:

1
2
3
4
5
mkdir -p /etc/apt/keyrings/
wget -q -O - https://apt.grafana.com/gpg.key | gpg --dearmor | sudo tee /etc/apt/keyrings/grafana.gpg
echo "deb [signed-by=/etc/apt/keyrings/grafana.gpg] https://apt.grafana.com stable main" | sudo tee /etc/apt/sources.list.d/grafana.list
sudo apt-get update
sudo apt-get install grafana-agent

安装完成之后通过 sudo systemctl start grafana-agent 将其启动,并可通过 sudo systemctl status grafana-agent 显示 grafana-agent 的当前状态:

1
2
3
4
5
6
7
8
9
10
11
● grafana-agent.service - Monitoring system and forwarder
Loaded: loaded (/lib/systemd/system/grafana-agent.service; disabled; vendor preset: enabled)
Active: active (running) since Sun 2023-03-12 05:08:43 UTC; 13s ago
Docs: https://grafana.com/docs/agent/latest/
Main PID: 1049084 (grafana-agent)
Tasks: 7 (limit: 1041)
Memory: 125.6M
CGroup: /system.slice/grafana-agent.service
└─1049084 /usr/bin/grafana-agent --config.file /etc/grafana-agent.yaml -server.http.address=127.0.0.1:9090 -server.grpc.address=127.0.0.1:9091

Mar 12 05:08:43 example-name systemd[1]: Started Monitoring system and forwarder.

同时,如果希望系统重启后自动启动 grafana-agent 服务,可以执行如下的命令:

1
sudo systemctl enable grafana-agent.service

另外,可以通过 sudo journalctl -u grafana-agent 查看 grafana-agent 的运行日志:

1
2
3
4
5
6
7
8
-- Logs begin at Sun 2021-12-26 04:48:21 UTC, end at Sun 2023-03-12 06:34:53 UTC. --
Mar 12 05:08:43 example-name systemd[1]: Started Monitoring system and forwarder.
Mar 12 05:38:45 example-name grafana-agent[1049084]: ts=2023-03-12T05:38:45.6366501Z caller=cleaner.go:203 level=warn agent=prometheus component=cleaner msg="unable to fi>
Mar 12 06:08:45 example-name grafana-agent[1049084]: ts=2023-03-12T06:08:45.63549564Z caller=cleaner.go:203 level=warn agent=prometheus component=cleaner msg="unable to f>
Mar 12 06:20:16 example-name systemd[1]: Stopping Monitoring system and forwarder...
Mar 12 06:20:16 example-name systemd[1]: grafana-agent.service: Succeeded.
Mar 12 06:20:16 example-name systemd[1]: Stopped Monitoring system and forwarder.
Mar 12 06:20:16 example-name systemd[1]: Started Monitoring system and forwarder.

上报监控数据

grafana-agent 上报的监控数据分两种,一种是 grafana-agent 自身及其所在主机的监控数据,另一种是自定义服务的监控数据,我们需要修改 grafana-agent 的配置文件来指定如何收集监控数据。

grafana-agent 的默认配置文件为 /etc/grafana-agent.yaml

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
# Sample config for Grafana Agent
# For a full configuration reference, see: https://grafana.com/docs/agent/latest/configuration/.
server:
log_level: warn

metrics:
global:
scrape_interval: 1m
wal_directory: '/var/lib/grafana-agent'
configs:
# Example Prometheus scrape configuration to scrape the agent itself for metrics.
# This is not needed if the agent integration is enabled.
# - name: agent
# host_filter: false
# scrape_configs:
# - job_name: agent
# static_configs:
# - targets: ['127.0.0.1:9090']

integrations:
agent:
enabled: true
node_exporter:
enabled: true
include_exporter_metrics: true
disable_collectors:
- "mdadm"

自定义服务的监控数据收集需要定义在 metrics.configs 下,grafana-agent 自身及其所在主机的监控数据收集默认已经是开启的。

假设需要收集由 Spring Bootactuator 模块所暴露的 Prometheus 监控数据,则需要在 metrics.configs 下新增如下类似配置:

1
2
3
4
5
6
7
8
9
- name: 'My Spring Boot App'
scrape_configs:
- job_name: 'My Spring Boot App'
metrics_path: '/actuator/prometheus'
scrape_interval: 1m
static_configs:
- targets: ['127.0.0.1:8080']
labels:
application: 'My Spring Boot App'

最后,再通过 remote_write 设置将监控数据推送到 Grafana Cloud 下的 Prometheus

1
2
3
4
5
remote_write:
- url: https://prometheus-xxx.grafana.net/api/prom/push
basic_auth:
username: username
password: password

其中 urlusernamepassword 这三个信息都可以在所创建的 Grafana Cloud Stack 下的 Prometheus 的详情页中找到。password 对应 Grafana Cloud API Key,如果之前没有创建过的话需要新生成一个,角色选择 MetricsPublisher 即可:

alt

完整的配置文件示例如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
server:
log_level: warn

metrics:
global:
scrape_interval: 1m
wal_directory: '/var/lib/grafana-agent'
configs:
- name: 'My Spring Boot App'
scrape_configs:
- job_name: 'My Spring Boot App'
metrics_path: '/actuator/prometheus'
scrape_interval: 1m
static_configs:
- targets: ['127.0.0.1:8080']
labels:
application: 'My Spring Boot App'
remote_write:
- url: https://prometheus-xxx.grafana.net/api/prom/push
basic_auth:
username: username
password: password

integrations:
agent:
enabled: true
node_exporter:
enabled: true
include_exporter_metrics: true
disable_collectors:
- "mdadm"
prometheus_remote_write:
- url: https://prometheus-xxx.grafana.net/api/prom/push
basic_auth:
username: username
password: password

配置文件修改完成之后,通过 sudo systemctl restart grafana-agent 来重启 grafana-agent 服务。

Grafana 展示

对于自定义服务的监控展示使用自己熟悉的方式即可,例如 Java 应用可以配合使用 JVM (Micrometer)

对于 grafana-agent 自身的监控展示可以结合 agent-remote-write.json

alt

最后,grafana-agent 对于所在主机的监控展示可以借助 Node Exporter Full

alt

参考

介绍

Google API Design GuideGoogle 设计 Cloud APIs 和其他 Google APIs 的设计指南。

该指南面向的不仅仅是 REST APIs,同时也适用于 RPC APIs,其中 RPC APIs 主要面向的是 gRPC APIs

面向资源的设计

传统的 RPC 接口设计面向的是操作,各个接口之间是孤立的,没有明确的关联;不同系统的接口也有着不同的设计风格,存在着一定的学习和使用成本。

而面向资源的设计则将系统抽象为一系列资源,开发者则通过有限的几个标准方法来操作资源,从而实现对系统的修改。对于 RESTful 接口来说,有限的几个标准方法对应的就是 HTTP 请求方法中的 POSTGETPUTPATCHDELETE。另一方面,由于遵循了统一的设计,当开发者调用不同系统的接口时,能够自然的假定各个系统都支持相同的标准方法,从而降低了开发者学习的成本。

不管是面向资源的设计还是其他的设计标准,统一的标准胜过百花齐放,开发者应当将更多的精力放在自身系统的业务实现上,而不是耗费时间学习和调试其他系统的接口。

该指南建议按照如下的步骤设计面向资源的接口:

  • 确定接口所提供的资源类型
  • 确定资源间的关系
  • 根据资源类型和资源间的关系确定资源命名模式
  • 确定资源体系
  • 为每个资源设计最小限度的操作方法

在面向资源的设计体系下,各接口一般会按照资源的层级结构进行组织,层级结构中的每个节点可能是单一的资源,也可能是一个资源集合:

  • 一个资源集合包含了一系列相同类型的资源,例如,一个用户拥有一个联系人资源集合
  • 一个资源包含了若干的状态,同时也包含了0个或者多个子资源。每个子资源可以是一个单一资源或者是资源集合

以创建邮件接口为例,传统的接口设计可能是如下的方式:

1
2
3
4
5
6
7
8
9
POST /createMail

{
"userId": 123,
"title:" "Title",
"from": "from@example.com"
"to": "to@example.com",
"body": "Body"
}

而面向资源的接口设计则可能为:

1
2
3
4
5
6
7
8
POST /users/{userId}/mails

{
"title:" "Title",
"from": "from@example.com"
"to": "to@example.com",
"body": "Body"
}

可以看到,面向资源的接口设计体现了资源间的层级关系。一般而言,对于 RESTful 接口来说,请求 URL 中只会包含资源的名称(名词),而不会包含对资源的操作(动词),HTTP 的请求方法就对应了资源的标准操作方法。而该指南讨论的是通用的面向资源的设计,其对应的资源标准操作方法为:ListGetCreateUpdateDelete

资源名称

在面向资源的设计下,资源是一个命名实体,每个资源都有一个唯一的名称作为其标识符。一个资源的名称由三部分组成:

  1. 资源的 ID
  2. 所有父资源的 ID
  3. API 服务名,如 gmail.googleapis.com

资源集合被视为一种特殊的资源,它包含了一组相同类型的子资源,例如一个目录可以被视为一个资源集合,它包含了一组文件资源。同时,资源集合也有相应的 ID

资源名称由资源 ID 和资源集合 ID 组成,其定义也体现了资源的层级结构关系,各层级之间使用 / 进行分隔。例如,对于某个对象存储服务中的对象来说,其资源名称可能为 //storage.googleapis.com/buckets/bucket-123/objects/object-123,其中最顶层为服务名,即 //storage.googleapis.com,然后是一个资源集合,即 buckets,对象存储服务一般以 bucket 为维度来管理对象;接下来为了要定位到某个对象,需要先定位到具体的 bucketbucket-123 就是某个 bucket 的资源 ID,而每个 bucket 下包含了多个对象,进而产生了一个资源集合 objects,最后的 object-123 就是实际对象的资源 ID

一般来说,一个资源在实现上很可能对应一张数据库的表,所以可以用表的主键来作为资源的 ID。而由于使用了 / 来分隔资源的层级,因此只有最底层的资源才允许资源 ID 中包含 /,从而避免层级歧义。

如果资源 ID 中包含了 /,则必须在 API 文档中明确声明。

资源集合更多的是一种层级上的逻辑概念,所以其 ID 命名需要有意义,以及符合以下的规范:

  1. 必须是以小驼峰形式命名的英文单词复数,如果对应单词没有复数,则应当使用单词的单数形式
  2. 必须使用简洁明了的英文单词
  3. 避免使用过于宽泛的英文单词,例如,rowValues 优于 values。同时应当避免无条件的使用如下的英文单词:
    • elements
    • entries
    • instances
    • items
    • objects
    • resources
    • types
    • values

对于 Google 的服务来说,资源集合 ID 还会经常出现在自动生成的客户端类库代码中,所以它们的命名也必须是合法的 C/C++ 标识符。

完整的资源名称是协议无关的,虽然它看起来像 RESTful 服务的 HTTP 接口请求路径,但本质上这是两个东西。实际的资源请求还需要附带版本号,协议等信息,例如对于资源名称 //calendar.googleapis.com/users/john smith/events/123 来说,实际的 RESTful 请求路径可能是 https://calendar.googleapis.com/v3/users/john%20smith/events/123,和原本的资源名称相比有三点不同:

  1. 指明了具体的协议,HTTPS
  2. 指明了版本号,v3
  3. 对资源名称进行了 URL 转义

GoogleAPI 服务要求资源名称必须是字符串,除非有后向兼容的问题,资源名称在跨模块间传递时必须确保没有任何数据丢失。对于资源定义来说,第一个字段应该命名为 name,类型为字符串,用于表示资源的名称,以下是 gRPC 服务的定义示例:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
// 图书馆服务
service LibraryService {
// 获取一本书
rpc GetBook(GetBookRequest) returns (Book) {
option (google.api.http) = {
get: "/v1/{name=shelves/*/books/*}"
};
};

// 创建一本书
rpc CreateBook(CreateBookRequest) returns (Book) {
option (google.api.http) = {
post: "/v1/{parent=shelves/*}/books"
body: "book"
};
};
}

// 资源定义
message Book {
// 资源名称,必须以 "shelves/*/books/*" 的形式。
// 例如,"shelves/shelf1/books/book2"。
string name = 1;

// ... 其他属性
}

// 获取书籍请求
message GetBookRequest {
// 资源名称,例如 "shelves/shelf1/books/book2"。
string name = 1;
}

// 创建书籍请求
message CreateBookRequest {
// 父资源的名称,例如 "shelves/shelf1"。
string parent = 1;
// 需要创建的资源实体,客户端不允许设置 `Book.name` 属性。
Book book = 2;
}

为什么这里资源的名称字段要定义为 name 而不是 id?首先从命名上来说 name 本身要比 id 更适合作为 名称 一词的命名。其次,name 也是一个较为宽泛的词语,例如文件资源的 name 代表的是文件的名称还是完整的路径?通过将 name 作为标准字段,使得开发人员必须要选择更适合的命名,例如 display_nametitle 或者 full_name

为什么不直接使用资源 ID 来定位资源?一个系统中往往有多个资源,单纯的资源 ID 不具有辨识度以及缺少上下文信息。例如,如果使用数据库表的自增主键作为资源 ID,则无法简单的通过数字来定位资源。如果想要通过资源 ID 来定位资源,则势必要扩展资源 ID 的定义,例如使用元组来表示资源 ID,如 (bucket, object) 用于定位某个对象存储服务的对象。不过,这也带来了几个问题:

  1. 对开发人员不友好,需要额外理解和记忆(例如不同资源 ID 的元组元素个数不同,每个元组元素代表的含义是什么)
  2. 解析元组比解析字符串更为困难
  3. 对基础设施组件不友好,例如日志和访问控制系统无法直接理解元组
  4. 限制了 API 设计的灵活性,如提供可复用的 API 接口

标准方法

标准方法的作用在于为大多数的服务场景提供统一、易用的接口,超过 70% 的 Google APIs 都是标准方法。Google APIs 设计了5种标准方法:

  1. List
  2. Get
  3. Create
  4. Update
  5. Delete

下表是标准方法和 HTTP 请求方法的映射:

标准方法 HTTP 请求方法映射 HTTP 请求体 HTTP 响应体
List Get <资源集合 URL> 资源集合
Get GET <资源 URL> 资源
Create POST <资源集合 URL> 资源 资源
Update PUT 或者 PATCH <资源 URL> 资源 资源
Delete DELETE <资源 URL>

HTTP 响应体返回的资源可能不会包含资源的全部字段,例如客户端请求时可以指定只返回需要的字段。
如果 Delete 操作不是立即删除资源,例如只是更新资源的某个字段标记删除或者是创建一个 长时间运行任务 来删除资源,则 HTTP 响应体应该包含修改后的资源或者任务信息。

List

List 方法用于返回一系列同类的资源,同时该接口支持额外的参数从而允许只返回匹配的资源。它适合用于获取有限大小、未缓存的单一资源集合,对于更复杂的场景则可以考虑使用自定义方法中的 Search 接口。

如果想要批量获取资源,例如入参一组资源 ID 来返回每个资源 ID 所对应的资源,则应该考虑实现 BatchGet 的自定义方法,而不是在 List 方法上扩展。

List 方法和 HTTP 请求的映射关系如下:

  • List 方法必须对应 HTTPGET 请求
  • List 方法的 RPC 请求消息体的 name 字段(也就是资源集合名称)应该和 HTTP 的请求路径匹配,如果相匹配,则 HTTP 请求路径的最后一个段必须是字面量(即资源集合 ID
  • List 方法的 RPC 请求消息体的其他字段应该和 HTTP 请求路径的查询参数相匹配
  • 对应的 HTTP 请求无请求体;List 方法的 API 定义中不允许声明 body 语句
  • HTTP 响应体应该包含一组资源及可选的元数据信息

接口定义示例:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
// 获取书架上的书
rpc ListBooks(ListBooksRequest) returns (ListBooksResponse) {
// List 方法映射为 HTTP GET 请求
option (google.api.http) = {
// parent 对应父资源的名称,如 shelves/shelf1
get: "/v1/{parent=shelves/*}/books"
};
}

// 获取书籍集合请求
message ListBooksRequest {
// 父资源的名称,如shelves/shelf1
string parent = 1;

// 返回资源的最大个数
int32 page_size = 2;

// 返回第几页的资源集合,其值为前一个 List 请求返回的 next_page_token 字段
string page_token = 3;
}

// 获取书籍集合响应
message ListBooksResponse {
// 返回的书籍资源集合,该字段名应该和方法名中的 Books 相匹配。其数量上限由 ListBooksRequest 中的 page_size 决定
repeated Book books = 1;

// 下一页资源集合的页码信息,用于获取下一页的资源集合;没有下一页时为空
string next_page_token = 2;
}

Get

Get 方法接收一个资源名称及其他参数来返回某个指定的资源。

Get 方法和 HTTP 请求的映射关系如下:

  • Get 方法必须对应 HTTPGET 请求
  • Get 方法的 RPC 请求消息体的 name 字段(也就是资源名称)应该和 HTTP 的请求路径匹配
  • Get 方法的 RPC 请求消息体的其他字段应该和 HTTP 请求路径的查询参数相匹配
  • 对应的 HTTP 请求无请求体;Get 方法的 API 定义中不允许声明 body 语句
  • Get 方法返回的资源实体应该和 HTTP 的整个响应体相匹配

接口定义示例:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
// 获取一本书
rpc GetBook(GetBookRequest) returns (Book) {
// Get 方法映射为 HTTP GET 请求,资源名称映射到请求路径,无请求体
option (google.api.http) = {
// 所请求的资源名称,如 shelves/shelf1/books/book2
get: "/v1/{name=shelves/*/books/*}"
};
}

// 获取单个书籍请求
message GetBookRequest {
// 所请求的资源名称,如 shelves/shelf1/books/book2
string name = 1;
}

Create

Create 方法接收一个父资源名称,一个资源实体,以及其他的参数来在指定的父资源下创建一个新的资源,并返回创建的资源。

如果某个 API 服务支持创建资源,则应当为每一类的资源创建对应的 Create 方法。

Create 方法和 HTTP 请求的映射关系如下:

  • Create 方法必须对应 HTTPPOST 请求
  • Create 方法的 RPC 请求消息体应当包含一个 parent 字段用于表示所创建的资源的父资源的名称
  • Create 方法的 RPC 请求消息体中表示资源实体的各字段应当和 HTTP 请求体中的字段相对应。如果 Create 方法定义中标注了 google.api.http,则必须声明 body: "<resource_field>" 语句
  • Create 方法的 RPC 请求消息体可能包含一个 <resource>_id 字段来允许调用方指定所创建的资源的 id。这个字段可能会包含在资源字段实体内
  • Create 方法的其余参数应当和 URL 的查询参数相匹配
  • Create 方法返回的资源实体应该和 HTTP 的整个响应体相匹配

如果 Create 方法允许由调用方指定所创建的资源的名称,并且该资源已经存在,则该请求应当作失败处理并返回错误码 ALREADY_EXISTS;或者由服务端重新生成一个资源名称,并返回创建的资源,同时接口文档应当清晰的标注最终创建的资源的名称有可能和调用方传入的资源名称不同。

Create 方法的 RPC 请求消息体中必须包含资源实体,这样当资源实体的定义发生变更时,就无需同时变更请求消息体的定义。如果资源实体中的某些字段无法由客户端设置,则必须将其标注为 Output only 字段。

接口定义示例:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
// 在书架上创建一本书
rpc CreateBook(CreateBookRequest) returns (Book) {
// Create 方法对应 HTTP 的 POST 请求,URL 请求路径为资源集合名称
// HTTP 请求体中包含需要创建的资源
option (google.api.http) = {
// parent 对应父资源的名称,如 shelves/1
post: "/v1/{parent=shelves/*}/books"
body: "book"
};
}

// 创建书籍请求
message CreateBookRequest {
// 父资源名称
string parent = 1;

// 资源 id
string book_id = 3;

// 需要创建的资源
// 字段名称需要和 RPC 方法中的名词对应,即 book -> Book
Book book = 2;
}

// 创建一个书架
rpc CreateShelf(CreateShelfRequest) returns (Shelf) {
option (google.api.http) = {
post: "/v1/shelves"
body: "shelf"
};
}

// 创建书架请求
message CreateShelfRequest {
Shelf shelf = 1;
}

Update

Update 方法接收一个资源实体,以及其他的参数来更新指定的资源及其属性,并返回更新后的资源。

资源的可变属性应当能够通过 Update 方法修改,除非该属性包含资源的名称或父资源的名称。资源重命名或者将资源移动到另一个父资源下都不允许在 Update 方法中实现,而应当由自定义方法来实现。

Update 方法和 HTTP 请求的映射关系如下:

  • 标准的 Update 方法应该能够支持更新资源的部分属性,并通过 update_mask 字段来指明需要更新的属性,对应的 HTTP 请求方法为 PATCH。资源实体中标注为 Output only 的属性应该在资源更新时忽略
  • 如果要求 Update 方法实现更为高级的局部更新语义则应当将其作为自定义方法来实现,例如追加新值到资源的某个列表类型的属性上
  • 如果 Update 方法不支持局部属性更新,则对应的 HTTP 请求方法必须是 PUT。不过不建议 Update 方法仅支持全局更新,因为后续如果为资源添加新的属性则可能会有后向兼容问题
  • Update 方法的 RPC 请求消息体中表示资源名称的字段值必须和 URL 中的请求路径相匹配。这个资源名称字段可能包含在资源实体内
  • Update 方法的 RPC 请求消息体中表示资源实体的各字段必须和 HTTP 请求体中的字段相对应
  • Update 方法的其余参数必须和 URL 的查询参数相匹配
  • Update 方法的返回结果必须是更新后的资源实体

既然 URL 中已经有了资源名称,为什么请求体里面还要再传一遍资源名称?关于这一点不同的服务有不同的实现,例如 DigitalOcean 的更新接口就不要求请求体中再传一遍 idUpdate an App

Update 方法的返回结果必须是更新后的资源实体看起来是多此一举,但是某些资源的属性必须由服务端来更新,例如资源的更新时间,或者对于 Git 服务来说文件更新后的版本号等等,这些属性更新后也需要返回给客户端。

如果后端服务允许客户端指定资源名称则 Update 方法允许客户端调用时发送一个不存在的资源名称,然后服务端会自动创建一个新的资源。否则,Update 方法应当作失败处理并返回 NOT_FOUND 的错误码(如果这是唯一的错误的话)。

即使 Update 方法本身支持新建资源也应当提供额外的 Create 方法,否则服务的使用者可能会感到迷惑。

接口定义示例:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
// 更新一本书
rpc UpdateBook(UpdateBookRequest) returns (Book) {
// Update 方法对应 HTTP 的 PATCH 请求,资源名称映射到请求路径
// 资源实体包含在 HTTP 请求体中
option (google.api.http) = {
// 请求路径包含了需要更新的资源名称
patch: "/v1/{book.name=shelves/*/books/*}"
body: "book"
};
}

// 更新书籍请求
message UpdateBookRequest {
// 需要更新的书籍
Book book = 1;

// 指定需要更新的书籍属性,具体定义见 https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask
FieldMask update_mask = 2;
}

Delete

Delete 方法接受一个资源名称和其他参数来删除或者计划删除某个指定的资源。Delete 方法返回的消息体类型应当为 google.protobuf.Empty

服务调用方不应该依赖 Delete 方法返回的任何信息,因为 Delete 方法被重复调用时不一定每次都返回相同的信息。

Delete 方法和 HTTP 请求的映射关系如下:

  • Delete 方法必须对应 HTTPDELETE 请求
  • Delete 方法的 RPC 请求消息体中表示资源名称的字段值应当和 URL 中的请求路径相匹配
  • Delete 方法的其余参数应当和 URL 的查询参数相匹配
  • 对应的 HTTP 请求无请求体;Delete 方法的 API 定义中不允许声明 body 语句
  • 如果 Delete 方法在实现时是立即删除资源则该方法返回的消息体为空
  • 如果 Delete 方法在实现时是创建一个 长时间运行任务 来删除资源,则该方法返回的消息体应当为对应的任务信息
  • 如果 Delete 方法在实现时仅将资源标记为删除而不是物理删除,则该方法应当返回更新后的资源

Delete 方法应当是幂等的,但并不要求每次都返回相同的信息。对同一个资源的多个 Delete 请求应当使得该资源(最终)被删除,不过只有第一个成功删除资源的请求应当返回相应的成功信息,其余的请求应当返回 google.rpc.Code.NOT_FOUND 错误码。

接口定义示例:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
// 删除一本书
rpc DeleteBook(DeleteBookRequest) returns (google.protobuf.Empty) {
// Delete 方法对应 HTTP 的 DELETE 请求,资源名称映射到请求路径,无 HTTP 请求体
option (google.api.http) = {
// 请求路径包含了需要删除的资源名称,例如 shelves/shelf1/books/book2
delete: "/v1/{name=shelves/*/books/*}"
};
}

// 删除书籍请求
message DeleteBookRequest {
// 需要被删除的资源名称,如 shelves/shelf1/books/book2
string name = 1;
}

自定义方法

标准方法提供了对资源的基础操作功能,它们的职责都较为单一,基本上对应了基础的 CRUD 操作。不过,并不是所有对资源的操作都能或者适合抽象为 CRUD 操作,这也是对于 RESTful 风格的服务经常争论的地方。因此,自定义方法就应运而生。

不过,对于 API 的设计者而言应当尽可能的首选使用标准方法,因为标准方法有着更为统一的语义,对开发者而言更为简单易懂。

自定义方法可以应用于资源,资源集合或者服务。它可能会接收任意类型的输入和返回任意类型的输出,并且支持流式的请求和响应。

HTTP 请求映射

对于自定义方法来说,应当使用如下的 HTTP 请求映射:

1
https://service.name/v1/some/resource/name:customVerb

这里之所以选择 : 而不是 /namecustomVerb 分开是为了支持 name 中包含 / 的情况,例如将文件路径作为资源名称时则获取资源的请求可能为 GET /files/a/long/file/name,则撤销对该文件的删除操作所对应的自定义方法可能为 POST /files/a/long/file/name:undelete,如果 undelete 前用 / 分割则无法识别完整的资源名称。

自定义方法和 HTTP 请求的映射关系应当遵循如下规则:

  • 自定义方法应当使用 HTTP 请求的 POST 方法,除非该自定义方法是作为标准方法中的 List 或者 Get 方法的扩展,此时可以使用 HTTP 请求的 GET 方法
  • 自定义方法不应该使用 HTTP 请求的 PATCH 方法,但是可以使用其他 HTTP 请求方法
  • 对于使用 HTTP 请求的 GET 方法的自定义方法来说必须保证接口的幂等性
  • 自定义方法的 RPC 请求消息体中表示资源或者资源集合名称的字段值应当和 URL 中的请求路径相匹配
  • HTTP 请求的路径必须以 :customVerb 的形式结尾
  • 如果自定义方法对应的 HTTP 请求方法允许 HTTP 请求体(如 POSTPUTPATCH 或者自定义的 HTTP 方法),则该自定义方法的 HTTP 配置中必须声明 body: "*" 语句,并且 RPC 消息体中的剩余字段应当和 HTTP 请求体中的字段相匹配
  • 如果自定义方法对应的 HTTP 请求方法不接受 HTTP 请求体(如 GETDELETE),则该自定义方法的 HTTP 配置中不允许声明 body 语句,并且 RPC 消息体中的剩余字段应当和 URL 的查询参数相匹配

接口定义示例:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
// 服务级别的自定义方法
rpc Watch(WatchRequest) returns (WatchResponse) {
// 对应 HTTP 的 POST 请求,所有请求参数都来自于 HTTP 的请求体
option (google.api.http) = {
post: "/v1:watch"
body: "*"
};
}

// 资源集合级别的自定义方法
rpc ClearEvents(ClearEventsRequest) returns (ClearEventsResponse) {
option (google.api.http) = {
post: "/v3/events:clear"
body: "*"
};
}

// 资源级别的自定义方法
rpc CancelEvent(CancelEventRequest) returns (CancelEventResponse) {
option (google.api.http) = {
post: "/v3/{name=events/*}:cancel"
body: "*"
};
}

// 一个批量获取资源的自定义方法
rpc BatchGetEvents(BatchGetEventsRequest) returns (BatchGetEventsResponse) {
// 对应 HTTP 的 GET 请求
option (google.api.http) = {
get: "/v3/events:batchGet"
};
}

使用场景

以下是一些自定义方法比标准方法更适合的场景:

  • 重启一台虚拟机:其中一种反直觉的设计是在重启资源集合下创建一个重启资源,这属于生搬硬套;或者为虚拟机增加一个状态字段,重启操作就等价于资源的局部更新操作,即将虚拟机的状态由 RUNNING 改为 RESTARTING,虽然看似合理但是增加了使用人员的心智负担,例如除了这两种状态之外还有其他什么状态?另一方面也增加了接口实现的复杂度,标准方法的 Update 接口需要额外针对状态字段进行逻辑处理,违背了单一职责原则
  • 批处理:对于性能敏感的场景而言,提供批处理的自定义方法比一系列独立的标准方法可能有着更好的性能

对于 RESTful 服务的争论中最常提到的例子就是如何使用 RESTful 接口表示注册/登陆?注册/登陆并不适合作为标准方法来实现,使用自定义方法会更好。一般而言,标准方法的实现应当尽量简单直白,一旦需要对标准方法扩展处理额外的逻辑,就需要考虑是否使用自定义方法更合适。

错误处理

错误处理是 RESTful 又一个争论的点,即业务错误可能有很多,HTTP 的状态码根本不够,以及业务的状态码不应该和协议层的状态码相混淆。

错误模型

Google API 将错误统一封装为 google.rpc.Status

1
2
3
4
5
6
7
8
9
10
11
12
13
package google.rpc;

// 适用于不同编程环境的统一错误模型,包括 REST 接口和 RPC 接口
message Status {
// 错误码,具体错误码的定义见 google.rpc.Code
int32 code = 1;

// 错误信息,对错误原因的描述以及可能的修复方式
string message = 2;

// 错误的详细信息,开发人员可以通过详细信息找到一些有用的信息
repeated google.protobuf.Any details = 3;
}

由于大部分的 Google APIs 都是面向资源的设计,错误处理同样遵循了这样的设计,即使用一系列的标准错误来应对大多数的资源错误场景。例如使用标准的 google.rpc.Code.NOT_FOUND 错误来统一表示某个资源不存在,而不是为每一个资源定义一个 SOME_RESOURCE_NOT_FOUND 错误。

错误码

Google APIs 必须使用 google.rpc.Code 中定义的错误码,不允许独自额外定义错误码。

错误信息

错误信息应当能够帮助用户简单快速的理解和解决 API 错误。一般而言,描述错误信息可以遵循如下的规则:

  • 不要假设用户是你所开发的服务的专家,他们可能是客户端开发者,运维人员,IT 人员以及应用的终端用户
  • 不要假设用户知晓你所开发的服务任何的实现细节,或者熟悉错误的上下文
  • 尽可能的使得错误信息有助于技术用户(不一定是服务的开发人员)响应错误并修正
  • 保持错误信息简洁。如果可能的话在错误信息中提供一个帮助链接,以便于用户能够提问,反馈或者查找一些有用的信息

错误信息可能会随时变动,应用开发人员不应该强依赖错误信息。

错误详情

Google APIs 定义了一些列标准的 错误详情,这些错误详情覆盖了大部分的错误场景,例如配额分配失败以及无效的参数等等。和错误码一样,开发人员应当尽可能的优先使用标准的错误详情。

只有当错误详情有助于应用代码处理错误的情况下才应该考虑引入新的错误详情。如果当前错误只能由人工处理,则应依据错误信息由开发人员处理,而不是引入额外的错误详情。

以下是一些错误详情类型的例子:

  • ErrorInfo:提供稳定又可扩展的结构化错误信息
  • RetryInfo:告诉客户端什么时候可以对一个失败的请求进行重试,可能随错误码 Code.UNAVAILABLE 或者 Code.ABORTED 返回
  • QuotaFailure:描述为什么配额分配失败了,可能随错误码 Code.RESOURCE_EXHAUSTED 返回
  • BadRequest:客户端请求参数非法,可能随错误码 Code.INVALID_ARGUMENT 返回

错误映射

Google APIs 会被不同的编程环境访问,每个环境有自己的错误处理方式,所以需要将前面描述的错误模型对各个编程环境进行适配和映射。

HTTP 映射

对于 HTTP 接口来说,出于后向兼容性的考虑,Google APIs 定义了如下的错误模型:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
// 适用于 JSON HTTP 接口的错误模型
message Error {
// 废弃字段,仅用于 v1 格式的错误
message ErrorProto {}
// 和 `google.rpc.Status 有着相同的语义,出于和 Google API Client
// Libraries 后向兼容的考虑多了额外的 status 和 errors 字段
message Status {
// 错误码,同时也是 HTTP 状态码,对应 google.rpc.Status.code
int32 code = 1;
// 错误信息,对应 google.rpc.Status.message
string message = 2;
// 废弃字段,仅用于 v1 格式的错误
repeated ErrorProto errors = 3;
// 错误码的枚举值,对应 google.rpc.Status.code
google.rpc.Code status = 4;
// 错误详情,对应 google.rpc.Status.details
repeated google.protobuf.Any details = 5;
}
// 实际的错误消息体,之所以要额外包一层也是出于和 Google API Client
// Libraries 后向兼容的考虑,同时对于开发人员来说错误信息的可读性更高
Status error = 1;
}

具体示例:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
{
"error": {
"code": 400,
"message": "API key not valid. Please pass a valid API key.",
"status": "INVALID_ARGUMENT",
"details": [
{
"@type": "type.googleapis.com/google.rpc.ErrorInfo",
"reason": "API_KEY_INVALID",
"domain": "googleapis.com",
"metadata": {
"service": "translate.googleapis.com"
}
}
]
}
}

gRPC 映射

不同的 RPC 协议有着不同的错误处理模式,对于 gRPC 来说,上述的错误模型在各语言自动生成的代码中已经天然支持。

客户端类库映射

不同的编程语言对于错误处理有着不同的准则,客户端类库会尽量去适配这些准则,例如 google-cloud-go 遇到错误时会返回和 google.rpc.Status 实现了同样接口的错误,而 google-cloud-java 则会直接抛出错误。

错误处理

下表列出了 google.rpc.Code 定义的所有错误码:

HTTP gRPC
200 OK
400 INVALID_ARGUMENT
400 FAILED_PRECONDITION
400 OUT_OF_RANGE
401 UNAUTHENTICATED
403 PERMISSION_DENIED
404 NOT_FOUND
409 ABORTED
409 ALREADY_EXISTS
429 RESOURCE_EXHAUSTED
499 CANCELLED
500 DATA_LOSS
500 UNKNOWN
500 INTERNAL
501 NOT_IMPLEMENTED
502 N/A
503 UNAVAILABLE
504 DEADLINE_EXCEEDED

Google APIs 可能会并发的检查 API 请求是否满足条件,返回某个错误码不代表其他条件都符合要求,应用代码不应该依赖条件检查的顺序。

可以看到,即使是相同的 HTTP 状态码其代表的含义也是不同的,此时就需要 status 字段来进一步区分,类似于将所有错误划分几个大类,然后在每个大类中再细分小类,相比于单纯用 HTTP 状态码来表示不同的错误来说更加灵活,扩展性也更好。

与之相对的非 RESTful 做法则是 HTTP 状态码永远返回200,在返回的消息体中定义错误码和错误信息,例如:

1
2
3
4
5
{
"data": "some data",
"code": 123,
"message": "something is wrong"
}

重试错误

对于 503 UNAVAILABLE 错误客户端可以采用 exponential backoff 的方式进行重试,最短重试等待时间应该是1秒,以及默认重试次数应当是1次,除非文档有特别说明。

对于 429 RESOURCE_EXHAUSTED 错误客户端可以等待更长的时间进行重试,不过最短的等待时间应当是30秒。这种重试仅对于长时间运行任务有效。

对于其他的错误,重试可能就不太适合。

错误传播

如果当前服务依赖于其他服务,则不应该直接将其他服务的错误返回给客户端。在进行错误转换时建议:

  • 隐藏实现的细节及机密的信息
  • 调整负责该错误的一方,例如当前服务从其他服务收到 INVALID_ARGUMENT 错误时则返回 INTERNAL 错误给客户端

错误重现

如果通过日志分析和监控无法解决错误,则应该尝试通过简单、可重复的测试来重现错误。

设计模式

空响应

标准方法中的 Delete 方法应当返回 google.protobuf.Empty,除非 Delete 执行的是软删除,此时应当返回更新后的资源实体。

对于自定义方法来说,应当返回各自的 XxxResponse 消息体,因为即使该方法现在没有数据返回随着时间的推移有很大的可能会增加额外的字段。

范围表示

表示范围的字段应当使用左闭右开的区间,并以 [start_xxx, end_xxx) 的形式命名,例如 [start_key, end_key) 或者 [start_time, end_time)API 应当避免其他形式的范围表示,如 (index, count) 或者 [first, last]

资源标签

在面向资源的 API 设计下,资源的模式由 API 决定。为了让客户端能够给资源添加自定义的元数据(例如标记某台虚拟机为数据库服务器),资源定义中应当添加一个 map<string, string> labels 字段,例如:

1
2
3
4
message Book {
string name = 1;
map<string, string> labels = 2;
}

长时间运行操作

如果某个 API 方法需要很长时间才能完成,则该方法应该设计成返回一个长时间运行操作资源给客户端,客户端可以通过这个资源来跟踪方法的执行进展及获取执行结果。Operation 定义了标准的接口来处理长时间运行操作,各 API 不允许自行定义额外的长时间运行操作接口以避免不一致。

长时间运行操作资源必须以响应消息体的方式返回给客户端,并且该操作的任何直接结果都应该反应到其他 API 中。例如,如果有一个长时间运行操作用于创建资源,即使该资源未创建完成,LISTGET 标准方法也应该返回该资源,只是该资源会被标记为暂未就绪。当长时间操作完成时,Operation.response 字段应当包含该操作的执行结果。

长时间运行操作可以通过 Operation.metadata 字段来反馈其运行进展。API 在实现时应当为 Operation.metadata 定义消息类型,即使在一开始的实现中不会填充 metadata 字段。

List 方法分页

支持 List 方法的资源集合应当支持分页功能,即使该方法返回的结果集很小。

因为如果一开始 List 方法不支持分页,后续增加分页功能就会使得和原有 API 的行为不一致。客户端在不知道 List 方法使用分页的情况下依然会认为该方法返回的是完整的资源集合,而实际上有可能只是返回了第一页的资源。

为了兼容旧的逻辑,只能将分页信息设为非必要字段。

为了支持 List 方法的分页功能,API 应当:

  • List 方法的请求消息中定义 string 类型的 page_token 字段。客户端通过该字段来获取指定某页的资源
  • List 方法的请求消息中定义 int32 类型的 page_size 字段。客户端通过该字段来指定每页返回的最大数据量。对于服务端来说,可能会为客户端传入的 page_size 大小设置一个上限。如果 page_size 的值为0,则由服务端来决定需要返回多少数据
  • List 方法的响应消息中定义 string 类型的 next_page_token 字段。客户端通过该字段来获取下一页的资源,如果 next_page_token 的值为 "",则表示没有下一页的资源

接口定义示例:

1
2
3
4
5
6
7
8
9
10
11
12
rpc ListBooks(ListBooksRequest) returns (ListBooksResponse);

message ListBooksRequest {
string parent = 1;
int32 page_size = 2;
string page_token = 3;
}

message ListBooksResponse {
repeated Book books = 1;
string next_page_token = 2;
}

所有分页的实现可能会在响应消息中增加一个 int32 类型的 total_size 字段来表示资源的总个数。

查询子资源集合

有时候客户端可能会希望有一个 API 能够在多个子资源集合间查询资源。例如,某个图书馆 API 有一个书架的资源集合,每个书架包含一个书籍资源集合,客户端可能会希望在多个书架之间搜索某本书。这种情况建议对子资源使用标准的 List 方法,并使用通配符 - 来表示父资源集合,例如:

1
GET https://library.googleapis.com/v1/shelves/-/books?filter=xxx

从子资源集合获取唯一资源

有时候某个子资源集合下的资源在全局父资源下有着唯一的标识符。常规的做法是需要先知道该资源的父资源的名称然后才能获取该资源,这种情况建议对该资源使用标准的 Get 方法,并使用通配符 - 来表示父资源集合。例如,如果某本书在所有的书架上有着唯一的标识符,那么可以使用如下的请求来获取该本书籍:

1
GET https://library.googleapis.com/v1/shelves/-/books/{id}

另外,该接口返回的资源名称必须是完整的,其父资源名称必须返回实际的值,而不是 -,例如上述的请求应该返回资源名称 shelves/shelf713/books/book8141,而不是 shelves/-/books/book8141

排序顺序

如果某个 API 允许客户端指定资源的排序顺序,则请求消息体中应该包含一个 order_by 字段:

1
string order_by = ...;

order_by 应当遵循 SQL 语法:即使用逗号分割多个字段,例如 "foo,bar"。默认的排序规则是升序,如果需要降序排序,则应当在字段名后增加 " desc" 后缀,例如 "foo desc,bar"

同时,字段间额外的空格是无关紧要的,例如 "foo,bar desc"" foo , bar desc " 是等价的。

请求验证

如果某个 API 有副作用并且需要在执行前验证请求是否有效,则请求消息体中应该包含一个 validate_only 字段:

1
bool validate_only = ...;

如果设置为 true,则该 API 收到请求时仅进行验证而不会实际执行。

如果验证通过,则必须返回 google.rpc.Code.OK 给客户端,并且对于任何有着相同参数的请求都不应该返回 google.rpc.Code.INVALID_ARGUMENT 错误。不过该 API 依然有可能返回其他错误例如 google.rpc.Code.ALREADY_EXISTS

请求去重

对于网络 API 来说首选幂等的 API,因为当发生网络异常时可以安全的重试。不过某些 API 无法轻易的实现幂等,例如创建一个资源,但是又需要避免重复的请求。这种情况下请求消息体应该包含一个唯一的 ID,例如 UUID 使得服务端能够通过这个唯一的 ID 进行去重:

1
2
3
// 服务端根据此唯一的 ID 进行去重
// 该字段应当命名为 request_id
string request_id = ...;

当服务端监测到重复的请求时,服务端应当返回之前成功的相同请求的结果给客户端,因为客户端大概率没有收到之前的返回结果。

枚举默认值

每一个枚举的定义都必须以0作为起始值,当枚举值未明确时应当使用该0值,同时 API 文档必须标注如何处理0值。

枚举0值应当命名为 ENUM_TYPE_UNSPECIFIED。如果 API 有着通用的默认行为,则枚举值未定义时应当使用0值,否则0值应当被拒绝并返回 INVALID_ARGUMENT 错误。

枚举值示例:

1
2
3
4
5
6
7
8
9
10
11
12
enum Isolation {
// 未定义
ISOLATION_UNSPECIFIED = 0;
// 从快照读取数据,如果当前所有的读写操作与并发执行中的事务无法做到逻辑串行执行则发生冲突
SERIALIZABLE = 1;
// 从快照读取数据,如果当前有并发执行中的事务写入到相同的行则发生冲突
SNAPSHOT = 2;
...
}

// 当隔离级别未定义时,服务端可能会采用 SNAPSHOT 或者更优的隔离级别
Isolation level = 1;

在某些情况下可能使用某个惯用名表示枚举0值,例如 google.rpc.Code.OK 是错误码不存在时的默认值,它在语义上等价于 UNSPECIFIED

语法规则

在某些场景下,需要为特定的数据格式定义简单的语法,例如允许接受的文本输入。为了在各 API 间提供一致的开发体验,API 设计者必须使用如下的 Extended Backus-Naur Form (EBNF) 的变种来定义语法:

1
2
3
4
5
6
7
Production  = name "=" [ Expression ] ";" ;
Expression = Alternative { "|" Alternative } ;
Alternative = Term { Term } ;
Term = name | TOKEN | Group | Option | Repetition ;
Group = "(" Expression ")" ;
Option = "[" Expression "]" ;
Repetition = "{" Expression "}" ;

整数类型

设计 API 时应当避免使用无符号整型例如 uint32fixed32,因为某些重要的编程语言或者系统不能很好的支持无符号整型,例如 JavaJavaScriptOpenAPI,并且它们很大可能会造成整型溢出错误。另一个问题是不同的 API 可能将同一个值各自解析为不同的无符号整型或者带符号整型。

在某些场景下类型为带符号整型的字段值如果是负数则没有意义,例如大小,超时时间等等;API 设计者可能会用-1(并且只有-1)来表示特殊的含义,例如文件结束符(EOF),无限的超时时间,无限的配额或者未知的年龄等等。这种用法必须明确的在接口文档中标注以避免迷惑。同时 API 设计者也应当标注当整型数值为0时的系统行为,如果它不是非常直白明了的话。

局部响应

在某些情况下,客户端可能只希望获取资源的部分属性。Google API 通过 FieldMask 来支持这一场景。

对于任意 Google APIREST 接口,客户端都可以传入额外的 $fields 参数来表明需要获取哪些字段:

1
2
GET https://library.googleapis.com/v1/shelves?$fields=shelves.name
GET https://library.googleapis.com/v1/shelves/123?$fields=name

资源视图

为了减少网络传输,可以允许客户端指定需要返回资源的某个视图而不是完整的资源数据,这需要在请求消息体中增加一个额外的参数,该参数要求:

  • 应该是 enum 类型
  • 必须命名为 view

枚举类型的每一个值都定义了应当返回资源的哪部分数据。具体返回哪部分数据由实现决定并且应当在文档中标注。

接口定义示例:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
package google.example.library.v1;

service Library {
rpc ListBooks(ListBooksRequest) returns (ListBooksResponse) {
option (google.api.http) = {
get: "/v1/{name=shelves/*}/books"
}
};
}

enum BookView {
// 未定义,等同于 BASIC
BOOK_VIEW_UNSPECIFIED = 0;

// 默认视图,仅返回作者,标题,ISBN 和书籍 ID
BASIC = 1;

// 完整视图,返回书籍的全部数据,包括书籍的内容
FULL = 2;
}

message ListBooksRequest {
string name = 1;

// 指定需要返回书籍的哪个视图
BookView view = 2;
}

客户端就可以通过如下的方式调用:

1
GET https://library.googleapis.com/v1/shelves/shelf1/books?view=BASIC

ETags

ETag 用于客户端进行条件请求,例如客户端获取了某个资源后将其缓存,下次再请求相同的资源时附带上之前服务端返回的 ETag,如果服务端判断 ETag 没有发生变化则无需返回完整的资源实体。为了支持 ETag,应当在资源定义时添加 etag 字段,同时其语义应当同 ETag 的常见用法保持一致。

ETag 支持强校验和弱校验,弱校验时 ETag 的值需要添加前缀 W/。强校验模式下,如果两个资源有着相同的 ETag 则说明这两个资源的每个字节都是相同的,而且有着相同的额外字段(例如 Content-Type)。这表示强校验模式下获取的多个资源局部响应数据可以组合成为一个完整的资源数据。

相反的,弱校验模式下两个资源有着相同的 ETag 并不能说明两个资源的每一个字节都相同,因此不适合用于缓存字节范围的请求响应。

强弱 ETag 示例:

1
2
3
4
// 强 ETag,包括引号
"1a2f3e4d5b6c7c"
// 弱 ETag,包括前缀和引号
W/"1a2b3c4d5ef"

需要注意的是,引号也是 ETag 的一部分,所以如果 ETagJSON 中表示需要对引号进行转义:

1
2
3
4
// 强
{ "etag": "\"1a2f3e4d5b6c7c\"", "name": "...", ... }
// 弱
{ "etag": "W/\"1a2b3c4d5ef\"", "name": "...", ... }

输出字段

一个资源的某些字段可能不允许客户端设置而只能由服务端返回,这些字段应当需要额外标注。

需要注意的是如果仅作为输出的字段在请求消息体中设置了,或者包含在了 google.protobuf.FieldMask 中,服务端也必须接受该请求而不是返回错误,只不过服务端在处理时需要忽略这些输出字段。之所以要这么做是因为客户端经常会复用某个接口返回的资源,将其作为另一个接口的输入,例如客户端可能会先请求获取一个 Book 资源,将其修改后再调用 UPDATE 方法。如果服务端对输出字段进行校验,则要求客户端进行额外的处理来删除这些输出字段。

接口示例如下:

1
2
3
4
5
6
import "google/api/field_behavior.proto";

message Book {
string name = 1;
Timestamp create_time = 2 [(google.api.field_behavior) = OUTPUT_ONLY];
}

单例资源

当只有一个资源存在于某个父资源下(或服务,如果没有父资源的话)时,则可以使用单例资源。

标准方法的 CreateDelete 方法对单例资源无效,单例资源一般随着父资源的创建而创建,
随着父资源的删除而删除。单例资源必须通过标准方法的 GetUpdate 方法来访问,以及其他适合的自定义方法。

例如,每一个 User 资源可以有一个单例的 Settings 资源:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
rpc GetSettings(GetSettingsRequest) returns (Settings) {
option (google.api.http) = {
get: "/v1/{name=users/*/settings}"
};
}

rpc UpdateSettings(UpdateSettingsRequest) returns (Settings) {
option (google.api.http) = {
patch: "/v1/{settings.name=users/*/settings}"
body: "settings"
};
}

[...]

message Settings {
string name = 1;
// 省略其他字段
}

message GetSettingsRequest {
string name = 1;
}

message UpdateSettingsRequest {
Settings settings = 1;
// 支持局部更新
FieldMask update_mask = 2;
}

流式半关闭

对于任何的双向或者客户端流式 API,服务端应该依赖由 RPC 系统提供、客户端发起的半关闭来完成客户端流。没有必要额外的定义一个完成的消息。

任何在客户端发起半关闭前想要发送的消息都必须定义为请求消息体的一部分。

Domain-scoped 名称

domain-scoped 名称指的是添加了域名前缀的实体名称,用于避免不同服务的命名冲突。Google APIsKubernetes APIs 大量使用了 domain-scoped 名称:

  • ProtobufAny 类型:type.googleapis.com/google.protobuf.Any
  • Stackdriver 的指标类型:compute.googleapis.com/instance/cpu/utilization
  • 标签的键:cloud.googleapis.com/location
  • KubernetesAPI 版本号:networking.k8s.io/v1
  • x-kubernetes-group-version-kindOpenAPI 扩展中的 kind 字段

布尔值 vs. 枚举 vs. 字符串

设计 API 时有时候会遇到需要能够启用或者禁用某个功能的场景,从实现上说可以增加一个 boolenum 或者 string 类型的字段来控制,具体选择哪种类型可以遵循如下规则:

  • 如果确定只有两种状态且不希望在未来扩展时使用 bool,例如 enable_tracing 或者 enable_pretty_print
  • 如果希望设计更为灵活但是又不希望改动太频繁时使用 enum,一个评估的准则是一旦 enum 的值确定了,那么一年内只会改动一次或者更低频,例如 enum TlsVersion 或者 enum HttpVersion
  • string 有着最大的灵活性,适用于可能会频繁修改的场景,其对应的值必须清晰的在文档中标注,例如:

数据保留

对于某些服务而言,用户数据非常重要,如果用户数据不小心被软件 bug 或者人为错误删除,在缺少数据保留策略和撤销删除功能的情况下,可能对业务造成灾难性的影响。

一般而言,建议为 API 服务设置如下的数据保留策略:

  • 对于用户的元数据,用户设置等其他重要的数据,设置30天的数据保留期。例如监控指标,项目的元数据和服务定义
  • 对于大容量的用户数据,应该设置7天的数据保留期。例如对象存储和数据库表
  • 对于临时的状态数据或者昂贵的存储数据,如果可行的话应该设置1天的数据保留期。例如 memcacheRedis 内存中的数据

在数据保留期内,可以执行撤销删除的操作从而不会造成数据丢失。

大型传输载荷

网络 API 依赖分层的网络架构来传输数据,大多数的网络协议层对输入和输出的数据量设置了上限,一般而言,32 MB 是大多数系统中常用的大小上限。

如果某个 API 涉及的传输载荷超过 10 MB,则需要选择合适的策略以确保易用性和未来的扩展的需求。对于 Google APIs 来说,建议使用流式传输或者媒体上传/下载的方式来处理大型载荷,在流式传输下,服务端能够以增量同步的方式处理大量数据,例如 Cloud Spanner API。在媒体传输下,大量的数据流先流入到大型的存储系统中,例如 Google Cloud Storage,然后服务端可以异步的从存储系统中读取数据并处理,例如 Google Drive API

可选的基本类型字段

Protocol Buffers v3 支持 optional 基本类型字段,在语义上等同于众多编程语言中的 nullable 类型,它可以用于区分空值和未设置的值。

在实践中开发人员难以正确的处理可选字段,大多数的 JSON HTTP 客户端类库,包括 Google API Client Libraries,无法正确区分 proto3int32google.protobuf.Int32Value 以及 optional int32。如果存在一个方案更清晰而且也不需要可选的基本类型字段,则优先选择该方案。如果不使用可选的基本类型字段会造成复杂度上升或者含义不清晰,则选择可选的基本类型字段。但是不允许可选字段搭配包装类型使用。一般而言,从简洁和一致性考虑,API 设计者应当尽量选择基本类型字段,例如 int32

版本控制

Google APIs 借助版本控制来解决后向兼容问题。

所有的 Google API 接口都必须包含一个主版本号,这个主版本号会附加在 protobuf 包的最后,以及包含在 REST APIsURI 的第一个部分中。如果 API 要引入一个与当前版本不兼容的变更,例如删除或者重命名某个字段,则必须增加主版本号,从而避免引用了当前版本的用户代码受到影响。

所有 API 的新主版本不允许依赖同 API 的前一个主版本。一个 API 本身可能会依赖其他 API,这要求调用方知晓被依赖的 API 的版本稳定性风险。在这种情况下,一个稳定版本的 API 必须只依赖同样是稳定版本的其他 API

同一个 API 的不同版本在同一个客户端应用内必须能在一段合理的过渡时期内同时生效。这个过渡时期保障了客户端应用升级到新的 API 版本的平滑过渡。同样的,老版本的 API 也必须在废弃并最终停用之前留有足够的过渡时间。

对于会发布 alpha 或者 beta 版本的 API 来说,必须将 alpha 或者 beta 附加在主版本号之后,并且使用如下其一的策略:

  • 基于渠道的版本控制(推荐)
  • 基于发布的版本控制
  • 基于可见性的版本控制

基于渠道的版本控制

stability channel 是在某个稳定性级别下长期进行更新的版本。每个主版本号下的每个稳定性级别最多只有一个版本。因此,在这个策略下,每个主版本最多只有三个可用的版本:alphabeta,以及 stable

alphabeta 版本必须将稳定性级别附加到主版本号后,而 stable 则不需要也不允许。例如,v1 可用作为 stable 版本的版本号,但是 v1betav1alpha 不是。类似的,v1beta 或者 v1alpha 可用作为对应的 betaalpha 版本,但是 v1 不行。每个版本下会对新功能进行就地更新而不会修改版本号。

beta 版本的功能必须是 stable 版本的功能的超集,同时 alpha 版本的功能必须是 beta 版本的功能的超集。

对于任何版本的 API 来说,其中的元素(字段,消息体,RPC 方法等)都有可能被标记为废弃:

1
2
3
4
5
6
// Represents a scroll. Books are preferred over scrolls.
message Scroll {
option deprecated = true;

// ...
}

废弃的 API 功能不允许从 alpha 版本继续保留到 beta 版本,也不允许从 beta 版本保留到 stable 版本。也就是说某个功能不能在任何版本中预先废弃。

beta 版本的功能可以在废弃后经过合理的时间后删除,建议是180天。对于只存在于 alpha 版本的功能,不一定会标记为废弃,并且删除时也不会通知。

基于发布的版本控制

在该策略下,alpha 或者 beta 版本的功能在合并到 stable 版本之前只会在有限的时间内可用。因此,一个 API 在每个稳定性级别下可能有任意数量的版本发布。

基于渠道的版本控制和基于发布的版本控制都会就地更新 stable 版本。

alphabeta 版本发布时需要在 alpha 或者 beta 之后附加一个递增版本号,例如 v1beta1 或者 v1alpha5API 应当在文档中记录这些版本的时间顺序。

每个 alpha 或者 beta 版本都有可能就地进行后向兼容的更新。对于 beta 版本来说,如果发布了后向不兼容的版本则应当修改 beta 后的版本号,然后发布新的版本。例如,如果当前版本是 v1beta1,则新版本为 v1beta2

alphabeta 版本中的功能合并到 stable 版本之后就可以终止 alpha 或者 beta 版本。alpha 版本可能会在任一时刻终止,但是 beta 版本在终止前应当给用户留有足够的过渡期,建议是180天。

基于可见性的版本控制

API 可见性Google API 基础架构提供的一项高级功能。它允许 API 发布者将一个 API 对外暴露出多个不同的外部 API 视图,每个视图关联一个 API 可见性的标签,例如:

1
2
3
4
5
6
7
8
9
import "google/api/visibility.proto";

message Resource {
string name = 1;

// 预览功能,勿在生产环境使用
string display_name = 2
[(google.api.field_visibility).restriction = "PREVIEW"];
}

可见性标签是一个区分大小写的字符串,可以绑定到任意 API 元素上。一般来说,可见性标签应当始终使用全大写字母。所有的 API 元素默认绑定 PUBLIC 的可见性标签,除非显式的声明了可见性。

每个可见性标签本质上是一个允许访问的列表,API 生产者需要授权给 API 消费者合适的可见性标签才能使用 API。换句话说,可见性标签类似于 APIACLAccess Control List)。

每个 API 元素可以绑定多个可见性标签,各可见性标签之间用逗号分割(例如 PREVIEW,TRUSTED_TESTER)。多个可见性标签之间是逻辑或的关系,API 消费者只要授权了其中一个可见性标签就可以使用 API

一个 API 请求只能使用一个可见性标签,默认使用的是授权给当前 API 消费者的可见性标签。客户端可以显式的指定需要用哪个可见性标签:

1
2
3
4
GET /v1/projects/my-project/topics HTTP/1.1
Host: pubsub.googleapis.com
Authorization: Bearer y29....
X-Goog-Visibilities: PREVIEW

API 生产者可以借助可见性标签来实现版本控制,例如 INTERNALPREVIEWAPI 的新功能从 INTERNAL 可见性标签开始,然后升级到 PREVIEW 可见性标签。当功能稳定可用后,就删除所有的可见性标签,即等同于默认的可见性标签 PUBLIC

总体来说,API 的可见性比 API 版本号更容易实现增量的功能迭代,不过这要求比较成熟的 API 基础架构的支持。Google Cloud APIs 经常使用 API 可见性用于预览功能。

兼容性

这里的兼容性讨论的是对于 API 使用者的影响,API 生产者应当自身知晓为了实现兼容性需要哪方面的工作。

总的来说,API 的小版本更新或者补丁更新不应该对客户端造成兼容性问题。可能的不兼容问题包括:

  • 源代码兼容性:针对1.0版本编写的代码升级到1.1版本后编译失败
  • 二进制文件兼容性:针对1.0版本编译生成的二进制文件链接到1.1版本后运行失败
  • 通信兼容性:针对1.0版本编写的应用程序无法和运行1.1版本的服务端通信
  • 语义兼容性:针对1.0版本编写的应用程序升级到1.1版本后能够运行,但是存在不可预知的结果

从另一个角度来说,只要主版本号一致,运行着旧版本的客户端程序就能够和运行着新版本的服务端结合使用,并且客户端程序也能轻易的升级小版本。

后向兼容的修改

向 API 服务添加新的接口

从协议角度来看,添加新的接口始终是安全的。需要注意的是有可能新添加的接口名称已经被客户端代码占用了。如果当前新添加的接口与当前存在的接口完全不同,则基本不用担心;但是如果新添加的接口是当前某个存在的接口的简化版本,则有可能和客户端自定义实现的接口冲突。

向 API 接口添加新的方法

除非新添加的方法和客户端自动生成的代码中的某个方法冲突,否则这也是安全的。

例如当前已经存在了一个 GetFoo 方法,C# 的代码生成器会同时生成一个 GetFooAsync 的方法,如果此时再添加一个 GetFooAsync 方法,则会造成冲突。

向已有的方法添加 HTTP 绑定

假设绑定 HTTP 没有任何歧义,那么让服务端响应之前拒绝的 URL 就是安全的。这个操作可能在将某个已有的操作映射到某个新资源时发生。

向请求消息体添加新的字段

只要服务端在新版本的代码中处理未传入的新字段的逻辑和老版本代码中的逻辑一致,那么添加新的字段就是安全的。

一个最可能出错的场景是添加分页相关的字段:如果 v1.0 版本的代码中没有分页功能,那么也不能将分页功能添加到 v1.1 版本中,除非 page_size 的默认值是无限大(但这通常不是个好的设计)。否则的话依赖了 v1.0 版本的客户端期望一次请求获取所有的数据,但实际上可能只获取了第一页的数据。

向响应消息体添加新的字段

对于非资源类的响应消息体来说(例如 ListBooksResponse)添加一个字段都不会造成后向兼容性问题,只要新添加的字段不会影响其他字段的行为即可。消息体中之前暴露的字段应当继续以相同的语义保留,即使可能存在冗余。

例如,1.0版本的响应消息体中有一个字段是 contained_duplicates 表示返回的结果存在重复值并已经进行了去重。在1.1版本中新增了 duplicate_count 字段表示重复的数据数量,虽然原有的 contained_duplicates 已经冗余了但是该字段也必须保留。

向枚举添加新值

如果枚举是在请求消息体中使用,那么向枚举添加新值是安全的。因为客户端并不关心它们用不到的值。

对于在资源消息体或者响应消息体中的枚举,默认的假设是客户端需要能够处理未知的枚举值。不过,API 生产者应当知晓客户端如何正确的处理新的枚举值不是一件简单的事,因此必须在文档中标注如果客户端遇到未知的枚举值时期望的行为是什么。

添加新的输出字段

如果一个字段只可能会由服务端设置并仅作为输出使用,那么添加这个字段也是安全的。服务端可能会校验客户端发送的消息体中的字段,但是如果新添加的输出字段在请求消息体中不存在,服务端不允许抛出异常。

后向不兼容的修改

移除或者重命名服务,字段,方法或者枚举值

一般来说,移除或者重命名某个客户端代码可能引用的内容都是一次后向不兼容的修改,必须升级主版本号才能更新。对于某些编程语言来说如果引用了旧的名称则会造成编译问题(例如 C#Java)或者对于另一些编程语言来说造成运行时异常或者数据丢失。

更改 HTTP 映射

这里的更改指的是删除然后添加。例如,假设你想将某个已经存在的方法的 HTTP 映射改为 PATCH,而目前暴露的 HTTP 方法是 PUT,你可以添加一个新的 HTTP 映射,但是不能删除原有的 HTTP 映射。

更改字段类型

即使更改后的字段类型和当前的传输格式兼容,也可能造成客户端生成的代码不兼容,因此也必须升级主版本号才能更新。对于静态编译型编程语言来说,这很容易引入编译问题。

更改资源的命名格式

不允许修改资源的名称,这也意味着资源集合的名称也不允许修改。

如果客户端能够在 v2.0 版本中访问 v1.0 版本中创建的资源(或者反过来),那么该资源在两个版本中就应当使用相同的资源名称。

另外,有效的资源名称集也不能修改,因为:

  • 如果集合变小,那么之前成功的请求就有可能失败
  • 如果集合变大,那么客户端基于之前关于资源名称的假设可能失效。因为客户端很可能会根据资源名称所允许的字符和长度将其存储在其他地方,以及构建自己的资源名称验证规则

更改现有请求的可见行为

客户端经常会依赖 API 的行为和语义,即使这些行为没有明确的表示支持或者在文档中说明。因此,在大多数情况下更改 API 的行为会造成后向不兼容问题。如果你的 API 的行为不是非常的隐秘,你都应该假设用户已经识别出 API 的行为并依赖它。

因此,加密分页功能中的页码信息就很有必要(即使该数据没有什么意义),从而防止用户自行创建页码信息,然后当页码行为更改时遭遇后向不兼容问题。

更改 HTTP 定义中的 URL 格式

除了资源名称之外,还有两个关于 URL 格式的修改:

  • 自定义方法的名称:虽然自定义方法名称不是资源名称的一部分,但依然是 REST 请求路径的一部分,虽然修改 HTTP 的自定义方法名称不会破坏 gRPC 客户端,但依然要假设存在 REST 客户端的用户
  • 资源参数名称:例如从 v1/shelves/{shelf}/books/{book} 修改为 v1/shelves/{shelf_id}/books/{book_id} 不会影响资源名称,但是会影响客户端自动生成的代码

向资源消息体添加读/写字段

客户端经常会执行先读,然后修改,最后写入的一整套操作,大多数情况下如果某个字段客户端用不到就不会给它赋值。虽然服务端可以采取缺失值的字段就不执行写入的措施,但不适用于基本类型的字段(包括 stringbytes),因为基本类型默认值的存在造成无法区分出是客户端主动设置 int32 类型的字段值为0还是没有设置值从而使用默认值0。

总结

虽然 Google 的这篇 API 设计主要是面向资源的设计,但同时也针对其不足提出了改进的方案。不管是 RESTful 还是非 RESTful 的接口设计,都只是一种规范,有各自适合的场景没有孰优孰劣,统一的规范胜过生搬硬套。

参考

AWS EC2 的监控页面默认没有显示内存使用率,需要搭配 CloudWatch 配置使用。

由于需要在 EC2 上安装 CloudWatch agent 来上报监控数据到 CloudWatch,所以需要先为 EC2 配置 IAM 角色来授予需要的权限。创建 IAM 角色时,在第一步的 Trusted entity type 选择 AWS serviceUse case 选择 EC2;在第二步的 Permissions policies 添加 CloudWatchAgentServerPolicy 即可。更多细节可参考 Create IAM roles and users for use with CloudWatch agent

接着,在 Download and configure the CloudWatch agent using the command line 中根据实际 EC2 的操作系统下载和安装 CloudWatch agent,这里以 ARM64Ubuntu 系统为例:

1
2
wget https://s3.amazonaws.com/amazoncloudwatch-agent/ubuntu/arm64/latest/amazon-cloudwatch-agent.deb
sudo dpkg -i -E ./amazon-cloudwatch-agent.deb

然后,为 CloudWatch agent 创建一个配置文件,例如 cloudwatch.json,写入如下内容:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
{
"metrics":{
"metrics_collected":{
"mem":{
"measurement":[
"mem_used_percent"
],
"metrics_collection_interval":60
}
},
"append_dimensions": {
"InstanceId": "${aws:InstanceId}"
}
}
}

这表示每隔60秒收集一次内存使用率,接着启动 CloudWatch agent

1
sudo amazon-cloudwatch-agent-ctl -a fetch-config -m ec2 -c file:$HOME/cloudwatch.json -s

可以通过 amazon-cloudwatch-agent-ctl -a status 来查看 CloudWatch agent 的状态:

1
2
3
4
5
6
7
8
9
{
"status": "running",
"starttime": "2022-10-09T13:23:11+00:00",
"configstatus": "configured",
"cwoc_status": "stopped",
"cwoc_starttime": "",
"cwoc_configstatus": "not configured",
"version": "1.247355.0b252062"
}

此时 CloudWatch agent 的状态为运行中。

如果一切正常,那么在 AWS 控制台中 CloudWatchAll metrics 下会多出一项 CWAgent(如果原来没有添加过的话):

alt

点击进入后选择相应的 EC2,点击 Add to graph

alt

在当前页面上方就会显示对应的内存使用率的监控:

alt

之后也可以创建一个 Dashboard,将这个监控加入到自定义的 Dashboard 中。

如果在 AWS 控制台没有看到 CWAgent 项目,那么可以查看 EC2CloudWatch agent 的日志是否有异常,日志保存在 /opt/aws/amazon-cloudwatch-agent/logs/amazon-cloudwatch-agent.log。例如,如果忘记为 EC2 配置 IAM 角色,同时 EC2 上又没有其他的权限访问信息,CloudWatch agent 就无法上报监控数据,会提示如下类似的异常:

1
2
3
4
5
2022-10-09T13:27:36Z E! WriteToCloudWatch failure, err:  NoCredentialProviders: no valid providers in chain
caused by: EnvAccessKeyNotFound: failed to find credentials in the environment.
SharedCredsLoad: failed to load profile, .
EC2RoleRequestError: no EC2 instance role found
caused by: EC2MetadataError: failed to make EC2Metadata request

最后,如果想要添加更多的监控指标,可以参考 Metrics collected by the CloudWatch agent 添加相应的指标。

参考:

0%