第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程

文章转载自Google,最近更新:2018-07-31
Google上线了一个“机器学习速成课程”,英文简称MLCC。这个课程节奏紧凑、内容实用。课程基本可以全程中文(包括视频),免费,并且有相关的练习.
如果可以翻墙的小伙伴,可以看看,链接如下:机器学习速成课程
具体内容如下:
1.特征工程
传统编程的关注点是代码。在机器学习项目中,关注点变成了表示。也就是说,开发者通过添加和改善特征来调整模型。
将原始数据映射到特征 图 1 左侧表示来自输入数据源的原始数据,右侧表示特征矢量,也就是组成数据集中样本的浮点值集。 特征工程指的是将原始数据转换为特征矢量。进行特征工程预计需要大量时间。
机器学习模型通常期望样本表示为实数矢量。这种矢量的构建方法如下:为每个字段衍生特征,然后将它们全部连接到一起。
第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片
图 1. 程序工程将原始数据映射到机器学习特征 映射数值 机器学习模型根据浮点值进行训练,因此整数和浮点原始数据不需要特殊编码。正如图 2 所示,将原始整数值 6 转换为特征值 6.0 是没有意义的:
第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片
图 2. 将整数值映射到浮点值 映射字符串值 模型无法通过字符串值学习规律,因此您需要进行一些特征工程来将这些值转换为数字形式:

  1. 首先,为您要表示的所有特征的字符串值定义一个词汇表。对于 street_name 特征,该词汇表中将包含您知道的所有街道。
注意:所有其他街道都可以归入一个笼统的“其他”类别,该类别称为 OOV(未收录到词汇表中)桶。
  1. 然后,使用该词汇表创建一个独热编码,用于将指定字符串值表示为二元矢量。在该矢量(与指定的字符串值对应)中:
  • 只有一个元素设为 1。
  • 其他所有元素均设为 0。
    该矢量的长度等于词汇表中的元素数。
图 3 显示了某条特定街道 (Shorebird Way) 的独热编码。在此二元矢量中,代表 Shorebird Way 的元素的值为 1,而代表所有其他街道的元素的值为 0。
第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片
图 3. 通过独热编码映射字符串值 映射分类(枚举)值 分类特征具有一组离散的可能值。例如,名为 Lowland Countries 的特征只包含 3 个可能值:
{'Netherlands', 'Belgium', 'Luxembourg'}

您可能会将分类特征(如 Lowland Countries)编码为枚举类型或表示不同值的整数离散集。例如
  • 将荷兰表示为 0
  • 将比利时表示为 1
  • 将卢森堡表示为 2
不过,机器学习模型通常将每个分类特征表示为单独的布尔值。例如,Lowland Countries 在模型中可以表示为 3 个单独的布尔值特征:
  • x1:是荷兰吗?
  • x2:是比利时吗?
  • x3:是卢森堡吗?
采用这种方法编码还可以简化某个值可能属于多个分类这种情况(例如,“与法国接壤”对于比利时和卢森堡来说都是 True)。
关键字词
  1. 离散特征 (discrete feature)
    一种特征,包含有限个可能值。例如,某个值只能是“动物”、“蔬菜”或“矿物”的特征便是一个离散特征(或分类特征)。与连续特征相对。
  1. 特征工程 (feature engineering)
指以下过程:确定哪些特征可能在训练模型方面非常有用,然后将日志文件及其他来源的原始数据转换为所需的特征。在 TensorFlow 中,特征工程通常是指将原始日志文件条目转换为 tf.Exampleproto buffer。另请参阅 tf.Transform。
特征工程有时称为特征提取。
  1. 独热编码 或称one-hot 编码 (one-hot encoding)
    一种稀疏向量,其中:
  • 一个元素设为 1。
  • 所有其他元素均设为 0。
one-hot 编码常用于表示拥有有限个可能值的字符串或标识符。例如,假设某个指定的植物学数据集记录了 15000 个不同的物种,其中每个物种都用独一无二的字符串标识符来表示。在特征工程过程中,您可能需要将这些字符串标识符编码为 one-hot 向量,向量的大小为 15000。
  1. 表示法 (representation)
将数据映射到实用特征的过程。
2.良好特征的特点
我们探索了将原始数据映射到合适特征矢量的方法,但这只是工作的一部分。现在,我们必须探索什么样的值才算这些特征矢量中良好的特征。
避免很少使用的离散特征值
良好的特征值应该在数据集中出现大约 5 次以上。这样一来,模型就可以学习该特征值与标签是如何关联的。也就是说,大量离散值相同的样本可让模型有机会了解不同设置中的特征,从而判断何时可以对标签很好地做出预测。例如,house_type 特征可能包含大量样本,其中它的值为 victorian:

第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片

相反,如果某个特征的值仅出现一次或者很少出现,则模型就无法根据该特征进行预测。例如,unique_house_id 就不适合作为特征,因为每个值只使用一次,模型无法从中学习任何规律:

第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片

最好具有清晰明确的含义
每个特征对于项目中的任何人来说都应该具有清晰明确的含义。例如,下面的房龄适合作为特征,可立即识别为年龄:
第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片

相反,对于下方特征值的含义,除了创建它的工程师,其他人恐怕辨识不出:

第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片

在某些情况下,混乱的数据(而不是糟糕的工程选择)会导致含义不清晰的值。例如,以下 user_age 的来源没有检查值恰当与否:
第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片
不要将“神奇”的值与实际数据混为一谈
良好的浮点特征不包含超出范围的异常断点或“神奇”的值。例如,假设一个特征具有 0 到 1 之间的浮点值。那么,如下值是可以接受的:
第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片

不过,如果用户没有输入 quality_rating,则数据集可能使用如下神奇值来表示不存在该值:
第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片
为解决神奇值的问题,需将该特征转换为两个特征:
  • 一个特征只存储质量评分,不含神奇值。
  • 一个特征存储布尔值,表示是否提供了 quality_rating。为该布尔值特征指定一个名称,例如 is_quality_rating_defined。
考虑上游不稳定性
特征的定义不应随时间发生变化。例如,下列值是有用的,因为城市名称一般不会改变。(注意,我们仍然需要将“br/sao_paulo”这样的字符串转换为独热矢量。)
第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片

但收集由其他模型推理的值会产生额外成本。可能值“219”目前代表圣保罗,但这种表示在未来运行其他模型时可能轻易发生变化:

第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片
3.清理数据
苹果树结出的果子有品相上乘的,也有虫蛀坏果。而高端便利店出售的苹果是 100% 完美的水果。从果园到水果店之间,专门有人花费大量时间将坏苹果剔除或给可以挽救的苹果涂上一层薄薄的蜡。作为一名机器学习工程师,您将花费大量的时间挑出坏样本并加工可以挽救的样本。即使是非常少量的“坏苹果”也会破坏掉一个大规模数据集。
缩放特征值 缩放是指将浮点特征值从自然范围(例如 100 到 900)转换为标准范围(例如 0 到 1 或 -1 到 +1)。如果某个特征集只包含一个特征,则缩放可以提供的实际好处微乎其微或根本没有。不过,如果特征集包含多个特征,则缩放特征可以带来以下优势:
  • 帮助梯度下降法更快速地收敛。
  • 帮助避免“NaN 陷阱”。在这种陷阱中,模型中的一个数值变成 NaN(例如,当某个值在训练期间超出浮点精确率限制时),并且模型中的所有其他数值最终也会因数学运算而变成 NaN。
  • 帮助模型为每个特征确定合适的权重。如果没有进行特征缩放,则模型会对范围较大的特征投入过多精力。
您不需要对每个浮点特征进行完全相同的缩放。即使特征 A 的范围是 -1 到 +1,同时特征 B 的范围是 -3 到 +3,也不会产生什么恶劣的影响。不过,如果特征 B 的范围是 5000 到 100000,您的模型会出现糟糕的响应。
拓外拓展:详细了解缩放
要缩放数字数据,一种显而易见的方法是将 [最小值,最大值] 以线性方式映射到较小的范围,例如 [-1,+1]。
另一种热门的缩放策略是计算每个值的 Z 得分。Z 得分与距离均值的标准偏差数相关。换而言之:

第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片

例如,给定以下条件:
  • 均值 = 100
  • 标准偏差 = 20
  • 原始值 = 130
则:
scaled_value = https://www.it610.com/article/(130 - 100) / 20
scaled_value = https://www.it610.com/article/1.5
使用 Z 得分进行缩放意味着,大多数缩放后的值将介于 -3 和 +3 之间,而少量值将略高于或低于该范围。
处理极端离群值 下面的曲线图表示的是加利福尼亚州住房数据集中称为 roomsPerPerson 的特征。roomsPerPerson 值的计算方法是相应地区的房间总数除以相应地区的人口总数。该曲线图显示,在加利福尼亚州的绝大部分地区,人均房间数为 1 到 2 间。不过,请看一下 x 轴。
第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片
图 4. 一个非常非常长的尾巴 如何最大限度降低这些极端离群值的影响?一种方法是对每个值取对数:
第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片
图 5. 对数缩放仍然留有尾巴 对数缩放可稍稍缓解这种影响,但仍然存在离群值这个大尾巴。我们来采用另一种方法。如果我们只是简单地将 roomsPerPerson 的最大值“限制”为某个任意值(比如 4.0),会发生什么情况呢?
第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片
图 6. 将特征值限制到 4.0
将特征值限制到 4.0 并不意味着我们会忽略所有大于 4.0 的值。而是说,所有大于 4.0 的值都将变成 4.0。这就解释了 4.0 处的那个有趣的小峰值。尽管存在这个小峰值,但是缩放后的特征集现在依然比原始数据有用。
分箱 下面的曲线图显示了加利福尼亚州不同纬度的房屋相对普及率。注意集群 - 洛杉矶大致在纬度 34 处,旧金山大致在纬度 38 处。

第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片
图 7. 每个纬度的房屋数 在数据集中,latitude 是一个浮点值。不过,在我们的模型中将 latitude 表示为浮点特征没有意义。这是因为纬度和房屋价值之间不存在线性关系。例如,纬度 35 处的房屋并不比纬度 34 处的房屋贵 35/34(或更便宜)。但是,纬度或许能很好地预测房屋价值。
为了将纬度变为一项实用的预测指标,我们对纬度“分箱”,如下图所示:

第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程
文章图片
图 8. 分箱值 我们现在拥有 11 个不同的布尔值特征(LatitudeBin1、LatitudeBin2、…、LatitudeBin11),而不是一个浮点特征。拥有 11 个不同的特征有点不方便,因此我们将它们统一成一个 11 元素矢量。这样做之后,我们可以将纬度 37.4 表示为:
[0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0]

分箱之后,我们的模型现在可以为每个纬度学习完全不同的权重。
拓外拓展:详细了解缩放
为了简单起见,我们在纬度样本中使用整数作为分箱边界。如果我们需要更精细的解决方案,我们可以每隔 1/10 个纬度拆分一次分箱边界。添加更多箱可让模型从纬度 37.4 处学习和维度 37.5 处不一样的行为,但前提是每 1/10 个纬度均有充足的样本可供学习。
另一种方法是按分位数分箱,这种方法可以确保每个桶内的样本数量是相等的。按分位数分箱完全无需担心离群值。
清查 截至目前,我们假定用于训练和测试的所有数据都是值得信赖的。在现实生活中,数据集中的很多样本是不可靠的,原因有以下一种或多种:
  • 遗漏值。 例如,有人忘记为某个房屋的年龄输入值。
  • 重复样本。 例如,服务器错误地将同一条记录上传了两次。
  • 不良标签。 例如,有人错误地将一颗橡树的图片标记为枫树。
  • 不良特征值。 例如,有人输入了多余的位数,或者温度计被遗落在太阳底下。
一旦检测到存在这些问题,您通常需要将相应样本从数据集中移除,从而“修正”不良样本。要检测遗漏值或重复样本,您可以编写一个简单的程序。检测不良特征值或标签可能会比较棘手。
除了检测各个不良样本之外,您还必须检测集合中的不良数据。直方图是一种用于可视化集合中数据的很好机制。此外,收集如下统计信息也会有所帮助:
  • 最大值和最小值
  • 均值和中间值
  • 标准偏差
考虑生成离散特征的最常见值列表。例如,country:uk 的样本数是否符合您的预期?language:jp 是否真的应该作为您数据集中的最常用语言?
了解数据 遵循以下规则:
  • 记住您预期的数据状态。
  • 确认数据是否满足这些预期(或者您可以解释为何数据不满足预期)。
  • 仔细检查训练数据是否与其他来源(例如信息中心)的数据一致。
像处理任何任务关键型代码一样谨慎处理您的数据。良好的机器学习依赖于良好的数据。
关键字词
  1. 分箱 (binning)
请参阅分桶。
  1. 分桶 (bucketing)
将一个特征(通常是连续特征)转换成多个二元特征(称为桶或箱),通常是根据值区间进行转换。例如,您可以将温度区间分割为离散分箱,而不是将温度表示成单个连续的浮点特征。假设温度数据可精确到小数点后一位,则可以将介于 0.0 到 15.0 度之间的所有温度都归入一个分箱,将介于 15.1 到 30.0 度之间的所有温度归入第二个分箱,并将介于 30.1 到 50.0 度之间的所有温度归入第三个分箱。
  1. NaN 陷阱 (NaN trap)
模型中的一个数字在训练期间变成 NaN,这会导致模型中的很多或所有其他数字最终也会变成 NaN。
NaN 是“非数字”的缩写。
  1. 缩放 (scaling)
特征工程中的一种常用做法,是对某个特征的值区间进行调整,使之与数据集中其他特征的值区间一致。例如,假设您希望数据集中所有浮点特征的值都位于 0 到 1 区间内,如果某个特征的值位于 0 到 500 区间内,您就可以通过将每个值除以 500 来缩放该特征。
另请参阅标准化。
  1. 特征集 (feature set)
训练机器学习模型时采用的一组特征。例如,对于某个用于预测房价的模型,邮政编码、房屋面积以及房屋状况可以组成一个简单的特征集。
  1. 离群值 (outlier)
与大多数其他值差别很大的值。在机器学习中,下列所有值都是离群值。
  • 绝对值很高的权重。
  • 与实际值相差很大的预测值。
  • 值比平均值高大约 3 个标准偏差的输入数据。
【第8-1节表示|第8-1节表示 (Representation)|机器学习速成课程】离群值常常会导致模型训练出现问题。

    推荐阅读