正则表达式指南
**************

作者:
   A.M. Kuchling <amk@amk.ca>


摘要
^^^^

本文是关于在 Python 中通过 "re" 模块使用正则表达式的入门教程。它提供了
比“标准库参考”的相关章节更平易的介绍。


引言
====

正则表达式（Regular expressions，也叫 REs、regexs 或 regex patterns）
，本质上是嵌入 Python 内部并通过 "re" 模块提供的一种微小的、高度专业化
的编程语言。使用这种小语言，你可以为想要匹配的可能字符串编写规则；这些
字符串可能是英文句子、邮箱地址、TeX 命令或任何你喜欢的内容。然后，你可
以提出诸如“此字符串是否与表达式匹配？”、“字符串中是否存在表达式的匹配
项？”之类的问题。你还可以用正则来修改字符串，或以各种方式将其拆分。

正则表达式会被编译成一系列字节码，然后由 C 语言编写的匹配引擎执行。对
于高级用途，可能有必要特别注意引擎将如何执行一个给定的正则，并以某种方
式写入正则，以生成运行更快的字节码。本文不涉及优化问题，因为这要求你对
正则引擎的匹配过程有很好的了解。

正则表达式语言相对较小且受限，因此并非所有可能的字符串处理任务都可以使
用正则表达式完成。有些任务尽管 *可以* 用正则表达式来完成，但表达式会变
得非常复杂。这些情况下，最好通过编写 Python 代码来进行处理。也许
Python 代码会比精心设计的正则表达式慢，但它可能更容易理解。


简单正则
========

让我们从最简单的正则表达式开始吧。由于正则表达式是用来操作字符串的，我
们将从最常见的任务开始：匹配字符。

关于正则表达式背后的计算机科学的详细解释（确定性和非确定性有限自动机）
，你可以参考几乎所有关于编写编译器的教科书。


匹配字符
--------

大多数字母和符号都会简单地匹配自身。例如，正则表达式 "test" 将会精确地
匹配到 "test" 。（你可以启用不区分大小写模式，让这个正则也匹配 "Test"
或 "TEST"，稍后会详细介绍。）

但该规则有例外。有些字符是特殊的 *元字符（metacharacters）*，并不匹配
自身。事实上，它们表示匹配一些非常规的内容，或者通过重复它们或改变它们
的含义来影响正则的其他部分。本文的大部分内容都致力于讨论各种元字符及其
作用。

这是元字符的完整列表。它们的含义将在本 HOWTO 的其余部分进行讨论。

   . ^ $ * + ? { } [ ] \ | ( )

首先介绍的元字符是 "[" 和 "]" 。这两个元字符用于指定一个字符类，也就是
你希望匹配的字符的一个集合。这些字符可以单独地列出，也可以用字符范围来
表示（给出两个字符并用 "'-'" 分隔）。例如，"[abc]" 将匹配 "a"、"b"、
"c" 之中的任意一个字符；这与 "[a-c]" 相同，后者使用一个范围来表达相同
的字符集合。如果只想匹配小写字母，则正则表达式将是 "[a-z]"。

元字符 (除了 "\") 在字符类中是不起作用的。例如，"[akm$]" 将会匹配以下
任一字符 "'a'", "'k'", "'m'" 或 "'$'"；"'$'" 通常是一个元字符，但在一
个字符类中它的特殊性被消除了。

你可以通过对集合 *取反* 来匹配字符类中未列出的字符。方法是把 "'^'" 放
在字符类的最开头。例如，"[^5]" 将匹配除 "'5'" 之外的任何字符。如果插入
符出现在字符类的其他位置，则它没有特殊含义。例如："[5^]" 将匹配 "'5'"
或 "'^'"。

也许最重要的元字符是反斜杠，"\"。与 Python 字符串字面量一样，反斜杠后
面可以跟各种字符来表示各种特殊序列。它还用于转义元字符，以便可以在表达
式中匹配元字符本身。例如，如果需要匹配一个 "[" 或 "\"，可以在其前面加
上一个反斜杠来消除它们的特殊含义："\[" 或 "\\"。

一些以 "'\'" 开头的特殊序列表示预定义的字符集合，这些字符集通常很有用
，例如数字集合、字母集合或非空白字符集合。

让我们举一个例子："\w" 匹配任何字母数字字符。如果正则表达式以 bytes 类
型表示，"\w" 相当于字符类 "[a-zA-Z0-9_]"。如果正则表达式是 str 类型，
"\w" 将匹配由 "unicodedata" 模块提供的 Unicode 数据库中标记为字母的所
有字符。通过在编译正则表达式时提供 "re.ASCII" 标志，可以在 str 表达式
中使用较为狭窄的 "\w" 定义。

以下为特殊序列的不完全列表。有关 Unicode 字符串正则表达式的序列和扩展
类定义的完整列表，参见标准库参考中 正则表达式语法  的最后一部分。通常
，Unicode 版本的字符类会匹配 Unicode 数据库的相应类别中的任何字符。

"\d"
   匹配任何十进制数字，等价于字符类 "[0-9]"。

"\D"
   匹配任何非数字字符，等价于字符类 "[^0-9]"。

"\s"
   匹配任何空白字符，等价于字符类 "[ \t\n\r\f\v]"。

"\S"
   匹配任何非空白字符，等价于字符类 "[^ \t\n\r\f\v]"。

"\w"
   匹配任何字母与数字字符，等价于字符类 "[a-zA-Z0-9_]"。

"\W"
   匹配任何非字母与数字字符，等价于字符类 "[^a-zA-Z0-9_]"。

这些序列可以包含在字符类中。例如，"[\s,.]" 是一个匹配任何空白字符、
"','" 或 "'.'" 的字符类。

本节的最后一个元字符是 "."。它匹配除换行符之外的任何字符，并且有一个可
选模式（ "re.DOTALL" ），在该模式下它甚至可以匹配换行符。"." 通常用于
你想匹配“任何字符”的场景。


重复
----

能够匹配各种各样的字符集合是正则表达式可以做到的第一件事，而这是字符串
方法所不能做到的。但是，如果正则表达式就只有这么一个附加功能，它很难说
的上有多大优势。另一个功能是，你可以指定正则的某部分必须重复一定的次数
。

我们先来说说重复元字符 "*"。"*" 并不是匹配一个字面字符  "'*'" 。实际上
，它指定前一个字符可以匹配零次或更多次，而不是只匹配一次。

例如，"ca*t" 将匹配 "'ct'``（0 个 ``'a'"）、"'cat'``（1 个 ``'a'"）、
"'caaat'``（3 个 ``'a'"）等等。

类似 "*" 这样的重复是 *贪婪的*。当重复正则时，匹配引擎将尝试重复尽可能
多的次数。 如果表达式的后续部分不匹配，则匹配引擎将回退并以较少的重复
次数再次尝试。

通过一个逐步示例更容易理解这一点。让我们分析一下表达式 "a[bcd]*b"。该
表达式首先匹配一个字母 "'a'"，接着匹配字符类 "[bcd]" 中的零个或更多个
字母，最后以一个 "'b'" 结尾。现在想象一下用这个正则来匹配字符串
"'abcbd'"。

+--------+-------------+-----------------------------------+
| 步骤   | 匹配        | 说明                              |
|========|=============|===================================|
| 1      | "a"         | 正则中的 "a" 匹配成功。           |
+--------+-------------+-----------------------------------+
| 2      | "abcbd"     | 引擎尽可能多地匹配 "[bcd]*"，直至 |
|        |             | 字符串末尾。                      |
+--------+-------------+-----------------------------------+
| 3      | *失败*      | 引擎尝试匹配 "b"，但是当前位置位  |
|        |             | 于字符串末尾，所以匹配失败。      |
+--------+-------------+-----------------------------------+
| 4      | "abcb"      | 回退，让 "[bcd]*" 少匹配一个字符  |
|        |             | 。                                |
+--------+-------------+-----------------------------------+
| 5      | *失败*      | 再次尝试匹配 "b"，但是当前位置上  |
|        |             | 的字符是最后一个字符 "'d'"。      |
+--------+-------------+-----------------------------------+
| 6      | "abc"       | 再次回退，让 "[bcd]*" 只匹配 "bc" |
|        |             | 。                                |
+--------+-------------+-----------------------------------+
| 6      | "abcb"      | 再次尝试匹配 "b"。这一次当前位置  |
|        |             | 的字符是 "'b'"，所以它成功了。    |
+--------+-------------+-----------------------------------+

此时正则表达式已经到达了尽头，并且匹配到了 "'abcb'"。 这个例子演示了匹
配引擎一开始会尽其所能地进行匹配，如果没有找到匹配，它将逐步回退并重试
正则的剩余部分，如此往复，直至 "[bcd]*" 只匹配零次。如果随后的匹配还是
失败了，那么引擎会宣告整个正则表达式与字符串匹配失败。

另一个重复元字符是 "+"，表示匹配一次或更多次。请注意 "*" 与 "+" 之间的
差别。"*" 表示匹配 *零次* 或更多次，也就是说它所重复的内容是可以完全不
出现的。而 "+" 则要求至少出现一次。举一个类似的例子，"ca+t" 可以匹配
"'cat'``（1 个 ``'a'"）或 "'caaat'``（3 个 ``'a'"），但不能匹配 "'ct'"
。

此外还有两个重复操作符或限定符。问号 "?" 表示匹配一次或零次；你可以认
为它把某项内容变成了可选的。例如，"home-?brew" 可以匹配 "'homebrew'"
或 "'home-brew'"。

最复杂的限定符是 "{m,n}"，其中 *m* 和 *n* 都是十进制整数。该限定符表示
必须至少重复 *m* 次，至多重复 *n* 次。 例如，"a/{1,3}b" 将匹配
"'a/b'", "'a//b'" 和 "'a///b'"。它不能匹配 "'ab'"，因为其中没有斜杠，
也不能匹配 "'a////b'"，因为其中有四个斜杠。

*m* 和 *n* 不是必填的，缺失的情况下会设定为默认值。缺失 *m* 会解释为最
少重复 0 次，缺失 *n* 则解释为最多重复无限次。

最简单情况 "{m}" 将与前一项完全匹配 *m* 次。例如，"a/{2}b" 将只匹配
"'a//b'"。

细心的读者可能会注意到另外三个限定符都可以使用此标记法来表示。"{0,}"
等同于 "*", "{1,}" 等同于 "+", 而 "{0,1}" 等同于 "?"。在可能的情况下使
用 "*", "+" 或 "?" 会更好，因为它们更为简短易读。


使用正则表达式
==============

现在我们已经了解了一些简单的正则表达式，那么我们如何在 Python 中实际使
用它们呢？  "re" 模块提供了正则表达式引擎的接口，可以让你将正则编译为
对象，然后用它们来进行匹配。


编译正则表达式
--------------

正则表达式被编译成模式对象，模式对象具有各种操作的方法，例如搜索模式匹
配或执行字符串替换。:

   >>> import re
   >>> p = re.compile('ab*')
   >>> p
   re.compile('ab*')

"re.compile()" 也接受一个可选的 *flags* 参数，用于启用各种特殊功能和语
法变体。 我们稍后将介绍可用的设置，但现在只需一个例子

   >>> p = re.compile('ab*', re.IGNORECASE)

正则作为字符串传递给 "re.compile()"。正则被处理为字符串，因为正则表达
式不是核心 Python 语言的一部分，并且没有创建用于表达它们的特殊语法。
（有些应用程序根本不需要正则，因此不需要通过包含它们来扩展语言规范。）
相反，"re" 模块只是 Python 附带的 C 扩展模块，就类似于 "socket" 或
"zlib" 模块。

将正则放在字符串中可以使 Python 语言更简单，但有一个缺点是下一节的主题
。


反斜杠灾难
----------

如前所述，正则表达式使用反斜杠字符 ("'\'") 来表示特殊形式或允许使用特
殊字符而不调用它们的特殊含义。这与 Python 在字符串文字中用于相同目的的
相同字符的使用相冲突。

假设你想要编写一个与字符串 "\section" 相匹配的正则，它可以在 LaTeX 文
件中找到。 要找出在程序代码中写入的内容，请从要匹配的字符串开始。接下
来，您必须通过在反斜杠前面添加反斜杠和其他元字符，从而产生字符串
"\\section"。必须传递给 "re.compile()" 的结果字符串必须是 "\\section"
。 但是，要将其表示为 Python 字符串文字，必须 *再次* 转义两个反斜杠。

+---------------------+--------------------------------------------+
| 字符                | 阶段                                       |
|=====================|============================================|
| "\section"          | 被匹配的字符串                             |
+---------------------+--------------------------------------------+
| "\\section"         | 为 "re.compile()" 转义的反斜杠             |
+---------------------+--------------------------------------------+
| ""\\\\section""     | 为字符串字面量转义的反斜杠                 |
+---------------------+--------------------------------------------+

简而言之，要匹配文字反斜杠，必须将 "'\\\\'" 写为正则字符串，因为正则表
达式必须是 "\\"，并且每个反斜杠必须表示为 "\\" 在常规 Python 字符串字
面中。在反复使用反斜杠的正则中，这会导致大量重复的反斜杠，并使得生成的
字符串难以理解。

解决方案是使用 Python 的原始字符串表示法来表示正则表达式；反斜杠不以任
何特殊的方式处理前缀为 "'r'" 的字符串字面，因此 "r"\n"" 是一个包含
"'\'" 和 "'n'" 的双字符字符串，而 ""\n"" 是一个包含换行符的单字符字符
串。 正则表达式通常使用这种原始字符串表示法用 Python 代码编写。

此外，在正则表达式中有效但在 Python 字符串文字中无效的特殊转义序列现在
导致 "DeprecationWarning" 并最终变为 "SyntaxError"。这意味着如果未使用
原始字符串表示法或转义反斜杠，序列将无效。

+---------------------+--------------------+
| 常规字符串          | 原始字符串         |
|=====================|====================|
| ""ab*""             | "r"ab*""           |
+---------------------+--------------------+
| ""\\\\section""     | "r"\\section""     |
+---------------------+--------------------+
| ""\\w+\\s+\\1""     | "r"\w+\s+\1""      |
+---------------------+--------------------+


应用匹配
--------

一旦你有一个表示编译正则表达式的对象，你用它做什么？模式对象有几种方法
和属性。这里只介绍最重要的内容；请参阅 "re" 文档获取完整列表。

+--------------------+-------------------------------------------------+
| 方法 / 属性        | 目的                                            |
|====================|=================================================|
| "match()"          | 确定正则是否从字符串的开头匹配。                |
+--------------------+-------------------------------------------------+
| "search()"         | 扫描字符串，查找此正则匹配的任何位置。          |
+--------------------+-------------------------------------------------+
| "findall()"        | 找到正则匹配的所有子字符串，并将它们作为列表返  |
|                    | 回。                                            |
+--------------------+-------------------------------------------------+
| "finditer()"       | 找到正则匹配的所有子字符串，并将它们返回为一个  |
|                    | *iterator*。                                    |
+--------------------+-------------------------------------------------+

如果没有找到匹配， "match()" 和 "search()" 返回 "None" 。如果它们成功
，一个 匹配对象 实例将被返回，包含匹配相关的信息：起始和终结位置、匹配
的子串以及其它。

你可以通过交互式地试验 "re" 模块来学习这一点。

本 HOWTO 使用标准 Python 解释器作为示例。首先，运行 Python 解释器，导
入 "re" 模块，然后编译一个正则

   >>> import re
   >>> p = re.compile('[a-z]+')
   >>> p
   re.compile('[a-z]+')

现在，你可以尝试匹配正则 "[a-z]+" 的各种字符串。空字符串根本不匹配，因
为 "+" 表示“一次或多次重复”。 "match()" 在这种情况下应返回 "None"，这
将导致解释器不打印输出。你可以显式打印 "match()" 的结果，使其清晰。:

   >>> p.match("")
   >>> print(p.match(""))
   None

现在，让我们尝试一下它应该匹配的字符串，例如 "tempo"。在这个例子中
"match()" 将返回一个 匹配对象，因此你应该将结果储存到一个变量中以供稍
后使用。

   >>> m = p.match('tempo')
   >>> m
   <re.Match object; span=(0, 5), match='tempo'>

现在你可以检查 匹配对象 以获取有关匹配字符串的信息。匹配对象实例也有几
个方法和属性；最重要的是：

+--------------------+----------------------------------------------+
| 方法 / 属性        | 目的                                         |
|====================|==============================================|
| "group()"          | 返回正则匹配的字符串                         |
+--------------------+----------------------------------------------+
| "start()"          | 返回匹配的开始位置                           |
+--------------------+----------------------------------------------+
| "end()"            | 返回匹配的结束位置                           |
+--------------------+----------------------------------------------+
| "span()"           | 返回包含匹配 (start, end) 位置的元组         |
+--------------------+----------------------------------------------+

尝试这些方法很快就会清楚它们的含义:

   >>> m.group()
   'tempo'
   >>> m.start(), m.end()
   (0, 5)
   >>> m.span()
   (0, 5)

"group()" 返回正则匹配的子字符串。 "start()" 和 "end()" 返回匹配的起始
和结束索引。 "span()" 在单个元组中返回开始和结束索引。 由于 "match()"
方法只检查正则是否在字符串的开头匹配，所以 "start()" 将始终为零。 但是
，模式的 "search()" 方法会扫描字符串，因此在这种情况下匹配可能不会从零
开始。:

   >>> print(p.match('::: message'))
   None
   >>> m = p.search('::: message'); print(m)
   <re.Match object; span=(4, 11), match='message'>
   >>> m.group()
   'message'
   >>> m.span()
   (4, 11)

在实际程序中，最常见的样式是在变量中存储 匹配对象，然后检查它是否为
"None"。 这通常看起来像:

   p = re.compile( ... )
   m = p.match( 'string goes here' )
   if m:
       print('Match found: ', m.group())
   else:
       print('No match')

两种模式方法返回模式的所有匹配项。 "findall()" 返回匹配字符串的列表:

   >>> p = re.compile(r'\d+')
   >>> p.findall('12 drummers drumming, 11 pipers piping, 10 lords a-leaping')
   ['12', '11', '10']

在这个例子中需要 "r" 前缀，使字面为原始字符串字面，因为普通的“加工”字
符串字面中的转义序列不能被 Python 识别为正则表达式，导致
"DeprecationWarning" 并最终产生 "SyntaxError"。请参阅 反斜杠灾难.

"findall()" 必须先创建整个列表才能返回结果。 "finditer()" 方法将一个
匹配对象 的序列返回为一个 *iterator*

   >>> iterator = p.finditer('12 drummers drumming, 11 ... 10 ...')
   >>> iterator
   <callable_iterator object at 0x...>
   >>> for match in iterator:
   ...     print(match.span())
   ...
   (0, 2)
   (22, 24)
   (29, 31)


模块级函数
----------

你不必创建模式对象并调用其方法；"re" 模块还提供了顶级函数 "match()"，
"search()"，"findall()"，"sub()" 等等。 这些函数采用与相应模式方法相同
的参数，并将正则字符串作为第一个参数添加，并仍然返回 "None" 或  匹配对
象 实例。:

   >>> print(re.match(r'From\s+', 'Fromage amk'))
   None
   >>> re.match(r'From\s+', 'From amk Thu May 14 19:12:10 1998')
   <re.Match object; span=(0, 5), match='From '>

本质上，这些函数只是为你创建一个模式对象，并在其上调用适当的方法。它们
还将编译对象存储在缓存中，因此未来使用相同正则的调用将不需要再次解析该
模式。

你是否应该使用这些模块级函数，还是应该自己获取模式并调用其方法？如果你
正在循环中访问正则表达式，预编译它将节省一些函数调用。 在循环之外，由
于有内部缓存，没有太大区别。


编译标志
--------

编译标志允许你修改正则表达式的工作方式。标志在 "re" 模块中有两个名称，
长名称如 "IGNORECASE" 和一个简短的单字母形式，例如 "I"。 （如果你熟悉
Perl 的模式修饰符，则单字母形式使用和其相同的字母；例如， "re.VERBOSE"
的缩写形式为 "re.X"。）多个标志可以 通过按位或运算来指定它们；例如，
"re.I | re.M" 设置 "I" 和 "M" 标志。

这是一个可用标志表，以及每个标志的更详细说明。

+-----------------------------------+----------------------------------------------+
| 标志                              | 含义                                         |
|===================================|==============================================|
| "ASCII", "A"                      | 使几个转义如 "\w"、"\b"、"\s" 和 "\d" 匹配仅 |
|                                   | 与具有相应特征属性的 ASCII 字符匹配。        |
+-----------------------------------+----------------------------------------------+
| "DOTALL", "S"                     | 使 "." 匹配任何字符，包括换行符。            |
+-----------------------------------+----------------------------------------------+
| "IGNORECASE", "I"                 | 进行大小写不敏感匹配。                       |
+-----------------------------------+----------------------------------------------+
| "LOCALE", "L"                     | 进行区域设置感知匹配。                       |
+-----------------------------------+----------------------------------------------+
| "MULTILINE", "M"                  | 多行匹配，影响 "^" 和 "$"。                  |
+-----------------------------------+----------------------------------------------+
| "VERBOSE", "X" (表示 'extended')  | 启用详细的正则，可以更清晰，更容易理解。     |
+-----------------------------------+----------------------------------------------+

re.I
re.IGNORECASE

   执行不区分大小写的匹配；字符类和字面字符串将通过忽略大小写来匹配字
   母。例如，"[A-Z]" 也匹配小写字母。除非使用 "ASCII" 标志来禁用非
   ASCII 匹配，否则完全 Unicode 匹配也有效。当 Unicode 模式 "[a-z]" 或
   "[A-Z]" 与 "IGNORECASE" 标志结合使用时，它们将匹配 52 个 ASCII 字母
   和 4 个额外的非 ASCII 字母：'İ' (U+0130，拉丁大写字母 I，带上面的点
   )，'ı' (U+0131，拉丁文小写字母无点 i)，'s' (U+017F，拉丁文小写字母
   长 s) 和'K' (U+212A，开尔文符号)。"Spam" 将匹配 "'Spam'"，"'spam'"
   ，"'spAM'" 或 "'ſpam'" (后者仅在 Unicode 模式下匹配)。此小写不考虑
   当前区域设置；如果你还设置了 "LOCALE" 标志，则将考虑。

re.L
re.LOCALE

   使 "\w"、"\W"、"\b"、"\B" 和大小写不敏感匹配依赖于当前区域而不是
   Unicode 数据库。

   区域设置是 C 库的一个功能，旨在帮助编写考虑到语言差异的程序。例如，
   如果你正在处理编码的法语文本，那么你希望能够编写 "\w+" 来匹配单词，
   但 "\w" 只匹配字符类 "[A-Za-z]" 字节模式；它不会匹配对应于 "é" 或
   "ç" 的字节。如果你的系统配置正确并且选择了法语区域设置，某些 C 函数
   将告诉程序对应于 "é" 的字节也应该被视为字母。在编译正则表达式时设置
   "LOCALE" 标志将导致生成的编译对象将这些 C 函数用于 "\w"；这比较慢，
   但也可以使 "\w+" 匹配你所期望的法语单词。在 Python 3 中不鼓励使用此
   标志，因为语言环境机制非常不可靠，它一次只处理一个“文化”，它只适用
   于 8 位语言环境。默认情况下，Python 3 中已经为 Unicode（str）模式启
   用了 Unicode 匹配，并且它能够处理不同的区域/语言。

re.M
re.MULTILINE

   ("^" 和 "$" 还没有解释；它们将在以下部分介绍 更多元字符。)

   通常 "^" 只匹配字符串的开头，而 "$" 只匹配字符串的结尾，紧接在字符
   串末尾的换行符（如果有的话）之前。当指定了这个标志时，"^" 匹配字符
   串的开头和字符串中每一行的开头，紧跟在每个换行符之后。类似地，"$"
   元字符匹配字符串的结尾和每行的结尾（紧接在每个换行符之前）。

re.S
re.DOTALL

   使 "'.'" 特殊字符匹配任何字符，包括换行符；没有这个标志，"'.'" 将匹
   配任何字符 *除了* 换行符。

re.A
re.ASCII

   使 "\w"、"\W"、"\b"、"\B"、"\s" 和 "\S" 执行仅 ASCII 匹配而不是完整
   匹配 Unicode 匹配。这仅对 Unicode 模式有意义，并且对于字节模式将被
   忽略。

re.X
re.VERBOSE

   此标志允许你编写更易读的正则表达式，方法是为你提供更灵活的格式化方
   式。 指定此标志后，将忽略正则字符串中的空格，除非空格位于字符类中或
   前面带有未转义的反斜杠；这使你可以更清楚地组织和缩进正则。 此标志还
   允许你将注释放在正则中，引擎将忽略该注释；注释标记为 "'#'" 既不是在
   字符类中，也不是在未转义的反斜杠之前。

   例如，这里的正则使用 "re.VERBOSE"；看看阅读有多容易？:

      charref = re.compile(r"""
       &[#]                # 数字实体引用的开始
       (
           0[0-7]+         # 八进制形式
         | [0-9]+          # 十进制形式
         | x[0-9a-fA-F]+   # 十六进制形式
       )
       ;                   # 末尾分号
      """, re.VERBOSE)

   如果没有详细设置，正则将如下所示:

      charref = re.compile("&#(0[0-7]+"
                           "|[0-9]+"
                           "|x[0-9a-fA-F]+);")

   在上面的例子中，Python 的字符串文字的自动连接已被用于将正则分解为更
   小的部分，但它仍然比以下使用 "re.VERBOSE" 版本更难理解。


更多模式能力
============

到目前为止，我们只介绍了正则表达式的一部分功能。在本节中，我们将介绍一
些新的元字符，以及如何使用组来检索匹配的文本部分。


更多元字符
----------

我们还没有涉及到一些元字符。其中大部分内容将在本节中介绍。

要讨论的其余一些元字符是 *零宽度断言*。 它们不会使解析引擎在字符串中前
进一个字符；相反，它们根本不占用任何字符，只是成功或失败。例如，"\b"
是一个断言，指明当前位置位于字边界；这个位置根本不会被 "\b" 改变。这意
味着永远不应重复零宽度断言，因为如果它们在给定位置匹配一次，它们显然可
以无限次匹配。

"|"
   交替，即“or”运算符。如果 *A* 和 *B* 是正则表达式，"A|B" 将匹配任何
   与 *A* 或 *B* 匹配的字符串。"|" 具有非常低的优先级，以便在交替使用
   多字符字符串时使其合理地工作。"Crow|Servo" 将匹配 "'Crow'" 或
   "'Servo'"，而不是 "'Cro'"、"'w'" 或 "'S'" 和 "'ervo'"。

   要匹配字面 "'|'"，请使用 "\|"，或将其括在字符类中，如 "[|]"。

"^"
   在行的开头匹配。除非设置了 "MULTILINE" 标志，否则只会在字符串的开头
   匹配。在 "MULTILINE" 模式下，这也在字符串中的每个换行符后立即匹配。

   例如，如果你希望仅在行的开头匹配单词 "From"，则要使用的正则 "^From"
   。:

      >>> print(re.search('^From', 'From Here to Eternity'))
      <re.Match object; span=(0, 4), match='From'>
      >>> print(re.search('^From', 'Reciting From Memory'))
      None

   要匹配字面 "'^'"，使用 "\^"。

"$"
   匹配行的末尾，定义为字符串的结尾，或者后跟换行符的任何位置。:

      >>> print(re.search('}$', '{block}'))
      <re.Match object; span=(6, 7), match='}'>
      >>> print(re.search('}$', '{block} '))
      None
      >>> print(re.search('}$', '{block}\n'))
      <re.Match object; span=(6, 7), match='}'>

   要匹配字面 "'$'"，使用 "\$" 或者将其包裹在一个字符类中，例如 "[$]"
   。

"\A"
   仅匹配字符串的开头。当不在 "MULTILINE" 模式时，"\A" 和 "^" 实际上是
   相同的。在 "MULTILINE" 模式中，它们是不同的："\A" 仍然只在字符串的
   开头匹配，但 "^" 可以匹配在换行符之后的字符串内的任何位置。

"\z"
   只匹配字符串尾。

"\Z"
   与 "\z" 相同。与旧版本 Python 保持兼容性。

"\b"
   字边界。这是一个零宽度断言，仅在单词的开头或结尾处匹配。单词被定义
   为一个字母数字字符序列，因此单词的结尾由空格或非字母数字字符表示。

   以下示例仅当它是一个完整的单词时匹配 "class"；当它包含在另一个单词
   中时将不会匹配。

      >>> p = re.compile(r'\bclass\b')
      >>> print(p.search('no class at all'))
      <re.Match object; span=(3, 8), match='class'>
      >>> print(p.search('the declassified algorithm'))
      None
      >>> print(p.search('one subclass is'))
      None

   使用这个特殊序列时，你应该记住两个细微之处。首先，这是 Python 的字
   符串文字和正则表达式序列之间最严重的冲突。在 Python 的字符串文字中
   ，"\b" 是退格字符，ASCII 值为 8。如果你没有使用原始字符串，那么
   Python 会将 "\b" 转换为退格，你的正则不会按照你的预期匹配。以下示例
   与我们之前的正则看起来相同，但省略了正则字符串前面的 "'r'"。:

      >>> p = re.compile('\bclass\b')
      >>> print(p.search('no class at all'))
      None
      >>> print(p.search('\b' + 'class' + '\b'))
      <re.Match object; span=(0, 7), match='\x08class\x08'>

   其次，在一个字符类中，这个断言没有用处，"\b" 表示退格字符，以便与
   Python 的字符串文字兼容。

"\B"
   另一个零宽度断言，这与 "\b" 相反，仅在当前位置不在字边界时才匹配。


分组
----

通常，你需要获取更多信息，而不仅仅是正则是否匹配。正则表达式通常用于通
过将正则分成几个子组来解析字符串，这些子组匹配不同的感兴趣组件。 例如
，RFC-822 标题行分为标题名称和值，用 "':'" 分隔，如下所示：

   From: author@example.com
   User-Agent: Thunderbird 1.5.0.9 (X11/20061227)
   MIME-Version: 1.0
   To: editor@example.com

这可以通过编写与整个标题行匹配的正则表达式来处理，并且具有与标题名称匹
配的一个组，以及与标题的值匹配的另一个组。

分组是用 "'('", "')'" 元字符来标记的。"'('" 和 "')'" 与它们在数学表达
式中的含义基本一致；它们会将所包含的表达式合为一组，并且你可以使用限定
符例如 "*", "+", "?", 或 "{m,n}" 来重复一个分组的内容。举例来说，
"(ab)*" 将匹配 "ab" 的零次或多次重复。

   >>> p = re.compile('(ab)*')
   >>> print(p.match('ababababab').span())
   (0, 10)

用 "'('"，"')'" 表示的组也捕获它们匹配的文本的起始和结束索引；这可以通
过将参数传递给 "group()"、"start()"、"end()" 以及 "span()"。组从 0 开
始编号。组 0 始终存在；它表示整个正则，所以 匹配对象 方法都将组 0 作为
默认参数。稍后我们将看到如何表达不捕获它们匹配的文本范围的组。:

   >>> p = re.compile('(a)b')
   >>> m = p.match('ab')
   >>> m.group()
   'ab'
   >>> m.group(0)
   'ab'

子组从左到右编号，从 1 向上编号。组可以嵌套；要确定编号，只需计算从左
到右的左括号字符。:

   >>> p = re.compile('(a(b)c)d')
   >>> m = p.match('abcd')
   >>> m.group(0)
   'abcd'
   >>> m.group(1)
   'abc'
   >>> m.group(2)
   'b'

"group()" 可以一次传递多个组号，在这种情况下，它将返回一个包含这些组的
相应值的元组。:

   >>> m.group(2,1,2)
   ('b', 'abc', 'b')

"groups()" 方法返回一个元组，其中包含所有子组的字符串，从 1 到最后一个
子组。:

   >>> m.groups()
   ('abc', 'b')

模式中的后向引用允许你指定还必须在字符串中的当前位置找到先前捕获组的内
容。例如，如果可以在当前位置找到组 1 的确切内容，则 "\1" 将成功，否则
将失败。请记住，Python 的字符串文字也使用反斜杠后跟数字以允许在字符串
中包含任意字符，因此正则中引入反向引用时务必使用原始字符串。

例如，以下正则检测字符串中重复的单词。:

   >>> p = re.compile(r'\b(\w+)\s+\1\b')
   >>> p.search('Paris in the the spring').group()
   'the the'

像这样的后向引用通常不仅仅用于搜索字符串 —— 很少有文本格式以这种方式重
复数据 —— 但是你很快就会发现它们在执行字符串替换时 *非常* 有用。


非捕获和命名组
--------------

精心设计的正则可以使用许多组，既可以捕获感兴趣的子串，也可以对正则本身
进行分组和构建。在复杂的正则中，很难跟踪组号。有两个功能可以帮助解决这
个问题。 它们都使用常用语法进行正则表达式扩展，因此我们首先看一下。

Perl 5 以其对标准正则表达式的强大补充而闻名。对于这些新功能，Perl 开发
人员无法选择新的单键击元字符或以 "\" 开头的新特殊序列，否则 Perl 的正
则表达式与标准正则容易混淆。例如，如果他们选择 "&" 作为一个新的元字符
，旧的表达式将假设 "&" 是一个普通字符，并且不会编写 "\&" 或 "[&]"。

Perl 开发人员选择的解决方案是使用 "(?...)" 作为扩展语法。括号后面紧跟
"?" 是一个语法错误，因为 "?" 没有什么可重复的，所以这样并不会带来任何
兼容性问题。紧跟在 "?" 之后的字符表示正在使用的扩展语法，所以
"(?=foo)" 是一种语法（一个肯定型前视断言），而 "(?:foo)" 是另一种语法
（包含子表达式 "foo" 的非捕获组）。

Python 支持一些 Perl 的扩展，并增加了新的扩展语法用于 Perl 的扩展语法
。如果在问号之后的第一个字符为 "P"，即表明其为 Python 专属的扩展。

现在我们已经了解了一般的扩展语法，我们可以回到简化复杂正则中组处理的功
能。

有时你会想要使用组来表示正则表达式的一部分，但是对检索组的内容不感兴趣
。你可以通过使用非捕获组来显式表达这个事实："(?:...)"，你可以用任何其
他正则表达式替换 "..."。:

   >>> m = re.match("([abc])+", "abc")
   >>> m.groups()
   ('c',)
   >>> m = re.match("(?:[abc])+", "abc")
   >>> m.groups()
   ()

除了你无法检索组匹配内容的事实外，非捕获组的行为与捕获组完全相同；你可
以在里面放任何东西，用重复元字符重复它，比如 "*"，然后把它嵌入其他组（
捕获或不捕获）。"(?:...)" 在修改现有模式时特别有用，因为你可以添加新组
而不更改所有其他组的编号方式。 值得一提的是，捕获和非捕获组之间的搜索
没有性能差异；两种形式没有一种更快。

更重要的功能是命名组：不是通过数字引用它们，而是可以通过名称引用组。

命名组的语法是 Python 特定的扩展之一："(?P<name>...)"。 *name* 显然是
该组的名称。 命名组的行为与捕获组完全相同，并且还将名称与组关联。处理
捕获组的 匹配对象 方法都接受按编号引用组的整数或包含所需组名的字符串。
命名组仍然是给定的数字，因此你可以通过两种方式检索有关组的信息:

   >>> p = re.compile(r'(?P<word>\b\w+\b)')
   >>> m = p.search( '(((( Lots of punctuation )))' )
   >>> m.group('word')
   'Lots'
   >>> m.group(1)
   'Lots'

此外，你可以通过 "groupdict()" 将命名分组提取为一个字典:

   >>> m = re.match(r'(?P<first>\w+) (?P<last>\w+)', 'Jane Doe')
   >>> m.groupdict()
   {'first': 'Jane', 'last': 'Doe'}

命名分组很方便因为它们让你可以使用容易记忆的名称，而不必记忆数字。下面
是一个来自 "imaplib" 模块的正则表达式示例:

   InternalDate = re.compile(r'INTERNALDATE "'
           r'(?P<day>[ 123][0-9])-(?P<mon>[A-Z][a-z][a-z])-'
           r'(?P<year>[0-9][0-9][0-9][0-9])'
           r' (?P<hour>[0-9][0-9]):(?P<min>[0-9][0-9]):(?P<sec>[0-9][0-9])'
           r' (?P<zonen>[-+])(?P<zoneh>[0-9][0-9])(?P<zonem>[0-9][0-9])'
           r'"')

检索 "m.group('zonem')" 显然要容易得多，而不必记住检索第 9 组。

表达式中的后向引用语法，例如 "(...)\1"，指的是组的编号。当然有一种变体
使用组名而不是数字。这是另一个 Python 扩展："(?P=name)" 表示在当前点再
次匹配名为 *name* 的组的内容。 用于查找重复单词的正则表达式，
"\b(\w+)\s+\1\b" 也可以写为 "\b(?P<word>\w+)\s+(?P=word)\b":

   >>> p = re.compile(r'\b(?P<word>\w+)\s+(?P=word)\b')
   >>> p.search('Paris in the the spring').group()
   'the the'


前视断言
--------

另一个零宽断言是前视断言。前视断言有肯定型和否定型两种形式，如下所示：

"(?=…)"
   肯定型前视断言。如果内部的表达式（这里用 "..." 来表示）在当前位置可
   以匹配，则匹配成功，否则匹配失败。 但是，内部表达式尝试匹配之后，正
   则引擎并不会向前推进；正则表达式的其余部分依然会在断言开始的地方尝
   试匹配。

"(?!…)"
   否定型前视断言。与肯定型断言正好相反，如果内部表达式在字符串中的当
   前位置 **不** 匹配，则成功。

更具体一些，来看一个前视的实用案例。考虑用一个简单的表达式来匹配文件名
并将其拆分为基本名称和扩展名，以 "." 分隔。例如，在 "news.rc" 中，
"news" 是基本名称，"rc" 是文件名的扩展名。

与此匹配的模式非常简单：

".*[.].*$"

请注意，"." 需要特别处理，因为它是元字符，所以它在字符类中只能匹配特定
字符。还要注意尾随的 "$"；添加此项以确保扩展名中的所有其余字符串都必须
包含在扩展名中。这个正则表达式匹配 "foo.bar"、"autoexec.bat"、
"sendmail.cf" 和 "printers.conf"。

现在，考虑使更复杂一点的问题；如果你想匹配扩展名不是 "bat" 的文件名怎
么办？一些错误的尝试：

".*[.][^b].*$"

上面的第一次尝试将通过要求扩展的第一个字符不为 "b" 来排除 "bat"。这是
错误的，因为该模式同样不能匹配 "foo.bar"。

".*[.]([^b]..|.[^a].|..[^t])$"

当你尝试通过要求以下一种情况匹配来修补第一个解决方案时，表达式变得更加
混乱：扩展的第一个字符不是 "b"；第二个字符不是 "a"；或者第三个字符不是
"t"。这接受 "foo.bar" 并拒绝 "autoexec.bat"，但它需要三个字母的扩展名
，并且不接受带有两个字母扩展名的文件名，例如 "sendmail.cf"。 为了解决
这个问题，我们会再次使模式复杂化。

".*[.]([^b].?.?|.[^a]?.?|..?[^t]?)$"

在第三次尝试中，第二个和第三个字母都是可选的，以便允许匹配的扩展名短于
三个字符，例如 "sendmail.cf"。

模式现在变得非常复杂，这使得它难以阅读和理解。更糟糕的是，如果问题发生
变化并且你想要将 "bat" 和 "exe" 排除为扩展，那么该模式将变得更加复杂和
混乱。

否定型前视可以解决所有这些困扰：

".*[.](?!bat$)[^.]*$"

否定前视意味着：如果表达式 "bat" 在这个点位不匹配，则尝试模式的其余部
分；如果 "bat$" 匹配，整个模式将匹配失败。需要有末尾的 "$" 来确保
"sample.batch" 这样的内容，其中扩展名只能以 "bat" 开头，将被允许。
"[^.]*" 将确保当文件名中有多个点号时该模式仍能正常工作。

现在很容易排除另一个文件扩展名；只需在断言中添加它作为替代。以下模式排
除以 "bat" 或 "exe" 结尾的文件名：

".*[.](?!bat$|exe$)[^.]*$"


修改字符串
==========

到目前为止，我们只是针对静态字符串执行搜索。正则表达式通常也用于以各种
方式修改字符串，使用以下模式方法：

+--------------------+-------------------------------------------------+
| 方法 / 属性        | 目的                                            |
|====================|=================================================|
| "split()"          | 将字符串拆分为一个列表，在正则匹配的任何地方将  |
|                    | 其拆分                                          |
+--------------------+-------------------------------------------------+
| "sub()"            | 找到正则匹配的所有子字符串，并用不同的字符串替  |
|                    | 换它们                                          |
+--------------------+-------------------------------------------------+
| "subn()"           | 与 "sub()" 相同，但返回新字符串和替换次数       |
+--------------------+-------------------------------------------------+


分割字符串
----------

模式的 "split()" 方法在正则匹配的任何地方拆分字符串，返回一个片段列表
。它类似于 "split()" 字符串方法，但在可用的分隔符方面提供了更多的通用
性；字符串的 "split()" 仅支持按空格或固定字符串进行拆分。正如你所期望
的那样，还有一个模块级 "re.split()" 函数。

.split(string[, maxsplit=0])

   通过正则表达式的匹配拆分 *字符串*。如果在正则中使用捕获括号，则它们
   的内容也将作为结果列表的一部分返回。如果 *maxsplit* 非零，则最多执
   行 *maxsplit* 次拆分。

你可以通过传递 *maxsplit* 的值来限制分割的数量。当 *maxsplit* 非零时，
将最多进行 *maxsplit* 次拆分，并且字符串的其余部分将作为列表的最后一个
元素返回。在以下示例中，分隔符是任何非字母数字字符序列。:

   >>> p = re.compile(r'\W+')
   >>> p.split('This is a test, short and sweet, of split().')
   ['This', 'is', 'a', 'test', 'short', 'and', 'sweet', 'of', 'split', '']
   >>> p.split('This is a test, short and sweet, of split().', 3)
   ['This', 'is', 'a', 'test, short and sweet, of split().']

有时你不仅对分隔符之间的文本感兴趣，而且还需要知道分隔符是什么。如果在
正则中使用捕获括号，则它们的值也将作为列表的一部分返回。比较以下调用:

   >>> p = re.compile(r'\W+')
   >>> p2 = re.compile(r'(\W+)')
   >>> p.split('This... is a test.')
   ['This', 'is', 'a', 'test', '']
   >>> p2.split('This... is a test.')
   ['This', '... ', 'is', ' ', 'a', ' ', 'test', '.', '']

模块级函数 "re.split()" 将正则作为第一个参数添加，但在其他方面是相同的
。:

   >>> re.split(r'[\W]+', 'Words, words, words.')
   ['Words', 'words', 'words', '']
   >>> re.split(r'([\W]+)', 'Words, words, words.')
   ['Words', ', ', 'words', ', ', 'words', '.', '']
   >>> re.split(r'[\W]+', 'Words, words, words.', 1)
   ['Words', 'words, words.']


搜索和替换
----------

另一个常见任务是找到模式的所有匹配项，并用不同的字符串替换它们。
"sub()" 方法接受一个替换值（可以是字符串或函数）以及要处理的字符串。

.sub(replacement, string[, count=0])

   返回通过替换 *replacement* 替换 *string* 中正则的最左边非重叠出现而
   获得的字符串。如果未找到模式，则 *string* 将保持不变。

   可选参数 *count* 是要替换的模式最大的出现次数；*count* 必须是非负整
   数。默认值 0 表示替换所有。

这是一个使用 "sub()" 方法的简单示例。它用 "colour" 这个词取代颜色名称:

   >>> p = re.compile('(blue|white|red)')
   >>> p.sub('colour', 'blue socks and red shoes')
   'colour socks and colour shoes'
   >>> p.sub('colour', 'blue socks and red shoes', count=1)
   'colour socks and red shoes'

"subn()" 方法完成相同的工作，但返回一个包含新字符串值和已执行的替换次
数的 2 元组:

   >>> p = re.compile('(blue|white|red)')
   >>> p.subn('colour', 'blue socks and red shoes')
   ('colour socks and colour shoes', 2)
   >>> p.subn('colour', 'no colours at all')
   ('no colours at all', 0)

仅当空匹配与前一个空匹配不相邻时，才会替换空匹配。:

   >>> p = re.compile('x*')
   >>> p.sub('-', 'abxd')
   '-a-b--d-'

如果 *replacement* 是一个字符串，则处理其中的任何反斜杠转义。也就是说
，"\n" 被转换为单个换行符，"\r" 被转换为回车符，依此类推。诸如 "\&" 之
类的未知转义将保持不变。后向引用，例如 "\6"，被替换为正则中相应组匹配
的子字符串。 这使你可以在生成的替换字符串中合并原始文本的部分内容。

这个例子匹配单词 "section" 后跟一个用 "{"，"}" 括起来的字符串，并将
"section" 改为 "subsection"

   >>> p = re.compile('section{ ( [^}]* ) }', re.VERBOSE)
   >>> p.sub(r'subsection{\1}','section{First} section{second}')
   'subsection{First} subsection{second}'

还有一种语法用于引用由 "(?P<name>...)" 语法定义的命名组。"\g<name>" 将
使用名为 "name" 的组匹配的子字符串，"\g<number>" 使用相应的组号。因此
"\g<2>" 等同于 "\2"，但在诸如 "\g<2>0" 之类的替换字符串中并不模糊。
("\20" 将被解释为对组 20 的引用，而不是对组 2 的引用，后跟字面字符
"'0'"。) 以下替换都是等效的，但使用所有三种变体替换字符串。:

   >>> p = re.compile('section{ (?P<name> [^}]* ) }', re.VERBOSE)
   >>> p.sub(r'subsection{\1}','section{First}')
   'subsection{First}'
   >>> p.sub(r'subsection{\g<1>}','section{First}')
   'subsection{First}'
   >>> p.sub(r'subsection{\g<name>}','section{First}')
   'subsection{First}'

*replacement* 也可以是一个函数，它可以为你提供更多控制。如果
*replacement* 是一个函数，则为 *pattern* 的每次非重叠出现将调用该函数
。在每次调用时，函数都会传递一个匹配的 匹配对象 参数，并可以使用此信息
计算所需的替换字符串并将其返回。

在以下示例中，替换函数将十进制数转换为十六进制:

   >>> def hexrepl(match):
   ...     "返回十进制数字的十六进制字符串"
   ...     value = int(match.group())
   ...     return hex(value)
   ...
   >>> p = re.compile(r'\d+')
   >>> p.sub(hexrepl, 'Call 65490 for printing, 49152 for user code.')
   'Call 0xffd2 for printing, 0xc000 for user code.'

使用模块级别 "re.sub()" 函数时，模式作为第一个参数传递。 模式可以是对
象或字符串；如果需要指定正则表达式标志，则必须使用模式对象作为第一个参
数，或者在模式字符串中使用嵌入式修饰符，例如："sub("(?i)b+", "x",
"bbbb BBBB")" 返回 "'x x'"。


常见问题
========

正则表达式对于某些应用程序来说是一个强大的工具，但在某些方面，它们的行
为并不直观，有时它们的行为方式与你的预期不同。本节将指出一些最常见的陷
阱。


使用字符串方法
--------------

有时使用 "re" 模块是一个错误。如果你匹配固定字符串或单个字符类，并且你
没有使用任何 "re" 功能，例如 "IGNORECASE" 标志，那么正则表达式的全部功
能可能不是必需的。 字符串有几种方法可以使用固定字符串执行操作，它们通
常要快得多，因为实现是一个针对此目的而优化的单个小 C 循环，而不是大型
、更通用的正则表达式引擎。

一个例子可能是用另一个固定字符串替换一个固定字符串；例如，你可以用
"deed" 替换 "word"。 "re.sub()" 看起来像是用于此的函数，但请考虑
"replace()" 方法。注意 "replace()" 也会替换单词里面的 "word"，把
"swordfish" 变成 "sdeedfish"，但简单的正则 "word" 也会这样做。 （为了
避免对单词的部分进行替换，模式必须是 "\bword\b"，以便要求 "word" 在任
何一方都有一个单词边界。这使得工作超出了 "replace()" 的能力。）

另一个常见任务是从字符串中删除单个字符的每个匹配项或将其替换为另一个字
符。你可以用 "re.sub('\n', ' ', S)" 之类的东西来做这件事，但是
"translate()" 能够完成这两项任务，并且比任何正则表达式都快。

简而言之，在转向 "re" 模块之前，请考虑是否可以使用更快更简单的字符串方
法解决问题。


match() 和 search()
-------------------

The "match()" function only checks if the RE matches at the beginning
of the string while "search()" will scan forward through the string
for a match. It's important to keep this distinction in mind.
Remember,  "match()" will only report a successful match which will
start at 0; if the match wouldn't start at zero,  "match()" will *not*
report it.

   >>> print(re.match('super', 'superstition').span())
   (0, 5)
   >>> print(re.match('super', 'insuperable'))
   None

另一方面， "search()" 将向前扫描字符串，报告它找到的第一个匹配项。:

   >>> print(re.search('super', 'superstition').span())
   (0, 5)
   >>> print(re.search('super', 'insuperable').span())
   (2, 7)

有时你会被诱惑继续使用 "re.match()"，只需在你的正则前面添加 ".*"。抵制
这种诱惑并使用 "re.search()" 代替。正则表达式编译器对正则进行一些分析
，以加快寻找匹配的过程。 其中一个分析可以确定匹配的第一个字符必须是什
么；例如，以 "Crow" 开头的模式必须从 "'C'" 开始匹配。 分析让引擎快速扫
描字符串，寻找起始字符，只在找到 "'C'" 时尝试完全匹配。

添加 ".*" 会使这个优化失效，需要扫描到字符串的末尾，然后回溯以找到正则
的其余部分的匹配。使用 "re.search()" 代替。


贪婪与非贪婪
------------

当重复一个正则表达式时，就像在 "a*" 中一样，最终的动作就是消耗尽可能多
的模式。当你尝试匹配一对对称分隔符，例如 HTML 标记周围的尖括号时，这个
事实经常会让你感到困惑。因为 ".*" 的贪婪性质，用于匹配单个 HTML 标记的
简单模式不起作用。

   >>> s = '<html><head><title>Title</title>'
   >>> len(s)
   32
   >>> print(re.match('<.*>', s).span())
   (0, 32)
   >>> print(re.match('<.*>', s).group())
   <html><head><title>Title</title>

正则匹配 "'<html>'" 中的 "'<'"，然后 ".*" 消耗字符串的其余部分。但正则
中还有剩余部分需要匹配，而 ">" 在字符串的末尾不能匹配，所以正则表达式
引擎必须逐个字符地回溯，直到它找到匹配 ">"。最终匹配从 "'<html>'" 中的
"'<'" 扩展到 "'</title>'" 中的 "'>'"，而这并不是你想要的结果。

在这种情况下，解决方案是使用非贪婪限定符 "*?", "+?", "??" 或 "{m,n}?"
，它们会匹配尽可能 *少的* 文本。 在上面的例子中，"'>'" 会在第一个
"'<'" 匹配后被立即尝试，而当匹配失败时，引擎将每次前进一个字符，并在每
一步重试 "'>'"。 这将产生正确的结果:

   >>> print(re.match('<.*?>', s).group())
   <html>

（请注意，使用正则表达式解析 HTML 或 XML 很痛苦。简单粗暴的模式可以处
理常见情况，但 HTML 和 XML 有特殊情况会破坏明显的正则表达式；当你编写
正则表达式处理所有可能的情况时，模式将非常复杂。使用 HTML 或 XML 解析
器模块来执行此类任务。）


使用 re.VERBOSE
---------------

到目前为止，你可能已经注意到正则表达式是一种非常紧凑的表示法，但它们并
不是非常易读。 具有中等复杂度的正则可能会成为反斜杠、括号和元字符的冗
长集合，使其难以阅读和理解。

对于这样的正则，在编译正则表达式时指定 "re.VERBOSE" 标志可能会有所帮助
，因为它允许你更清楚地格式化正则表达式。

"re.VERBOSE" 标志有几种效果。正则表达式中的 *不是* 在字符类中的空格将
被忽略。这意味着表达式如 "dog | cat" 等同于不太可读的 "dog|cat"，但
"[a b]" 仍将匹配字符 "'a'"、"'b'" 或空格。 此外，你还可以在正则中放置
注释；注释从 "#" 字符扩展到下一个换行符。当与三引号字符串一起使用时，
这使正则的格式更加整齐:

   pat = re.compile(r"""
    \s*                 # 跳过前导空白
    (?P<header>[^:]+)   # 标题名
    \s* :               # 空白和一个冒号
    (?P<value>.*?)      # 标题的值 -- *? 用于
                        # 去掉后面的末尾空白
    \s*$                # 末尾空白到行尾
   """, re.VERBOSE)

这比下面的写法更具可读性:

   pat = re.compile(r"\s*(?P<header>[^:]+)\s*:(?P<value>.*?)\s*$")


反馈
====

正则表达式是一个复杂的主题。这份文档是否有助于你理解它们？是否存在不清
楚的部分，或者你遇到的问题未在此处涉及？如果是，请向作者发送改进建议。

关于正则表达式的最完整的书几乎肯定是由 O'Reilly 出版的 Jeffrey Friedl
的 Mastering Regular Expressions。不幸的是，它专注于 Perl 和 Java 的正
则表达式，并且根本不包含任何 Python 材料，因此它不能用作 Python 编程的
参考。 （第一版涵盖了 Python 现在删除的 "regex" 模块，这对你没有多大帮
助。）考虑从你的图书馆中查找它。
