classification-use-cases-cn done

#62
by MatrixYao - opened
assets/78_ml_director_insights/Debanjan-Mahata.jpeg ADDED

Git LFS Details

  • SHA256: e29d2126b15a24406904e1de7e4ae1d9ed5384e0249b35519115a12010a7b6c7
  • Pointer size: 130 Bytes
  • Size of remote file: 37.8 kB
assets/78_ml_director_insights/Ioannis-Bakagiannis.jpeg ADDED

Git LFS Details

  • SHA256: 19b9ab5c73a4e631eae41f88b44cce68b945daf5469b8f0f6d7ead50c82b1be4
  • Pointer size: 131 Bytes
  • Size of remote file: 151 kB
assets/78_ml_director_insights/Javier.png ADDED

Git LFS Details

  • SHA256: 6041c1af292f9997f21174756bd54e9a3b17ab60078d8099cec2b90280ebdeec
  • Pointer size: 130 Bytes
  • Size of remote file: 75.4 kB
assets/78_ml_director_insights/Samuel.png ADDED

Git LFS Details

  • SHA256: 92f25d0d195f0e537066db421fd52e0e66a3297235c888897c1f5ea75d9989f6
  • Pointer size: 131 Bytes
  • Size of remote file: 153 kB
assets/78_ml_director_insights/Shaun.png ADDED

Git LFS Details

  • SHA256: f44db3b119d6c3278efce96b10843290477bf53dda3bc9b194039a29c4ffa8b7
  • Pointer size: 131 Bytes
  • Size of remote file: 177 kB
assets/78_ml_director_insights/Soumitri-Kolavennu.jpeg ADDED

Git LFS Details

  • SHA256: c581ffae4acffcb3b5b6a782ca6e3d2f17445c67658ad08b25259e21c027abf6
  • Pointer size: 130 Bytes
  • Size of remote file: 12.6 kB
assets/78_ml_director_insights/blogthumbnail.png ADDED

Git LFS Details

  • SHA256: 456fb3e149ea691f7571b0049be8c7144f1341b95e6ec208a8300e5387e0d978
  • Pointer size: 131 Bytes
  • Size of remote file: 186 kB
assets/78_ml_director_insights/evan.png ADDED

Git LFS Details

  • SHA256: c499ab3fdb969f5f985685c143050b9dae4b1dae2897d423edd6a1e4dbc07bfc
  • Pointer size: 131 Bytes
  • Size of remote file: 152 kB
assets/78_ml_director_insights/part4.png ADDED

Git LFS Details

  • SHA256: 416884035af5177d01d854c62f025b7aa3d2d799ffff452e43e1084bdedd2ec0
  • Pointer size: 131 Bytes
  • Size of remote file: 785 kB
assets/78_ml_director_insights/thumbnail.png ADDED

Git LFS Details

  • SHA256: f3feca906dcb8e541a8cf8ce70f95ed7af6bb5ab3c00b43c42b538d8bd0de811
  • Pointer size: 131 Bytes
  • Size of remote file: 167 kB
assets/78_ml_director_insights/wittyworks.png ADDED

Git LFS Details

  • SHA256: 816a62f69b638e7c7ee6826f965afe9fb4a4d54dfcf3f11e7315fb3366550804
  • Pointer size: 131 Bytes
  • Size of remote file: 120 kB
classification-use-cases-cn.md ADDED
@@ -0,0 +1,116 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ <html>
2
+ <head>
3
+ <h1> 案例:利用 Hugging Face 进行复杂文本分类 </h1>
4
+ <h2> Witty 与 Hugging Face 专家加速计划的成功案例 </h2>
5
+ </head>
6
+ <body>
7
+
8
+ *如果你对如何更快构建 ML 解决方案感兴趣,请访问 [专家加速计划](https://huggingface.co/support?utm_source=blog-post&utm_medium=blog-post&utm_campaign=blog-post-classification-use-case) 登陆页面并通过 [此处](https://huggingface.co/support?utm_source=blog-post&utm_medium=blog-post&utm_campaign=blog-post-classification-use-case#form) 联系我们!*
9
+
10
+ ### 业务背景
11
+ 随着 IT 技术不断地在发展并重塑我们的世界,在行业内创造一个更加多样化和包容性的环境势在必行。旨在应对这一挑战,[Witty Works](https://www.witty.works/) 于 2018 年成立了。 Witty Works 起初是一家为组织提供多元化建议的咨询公司,主要帮助这些组织使用包容性语言撰写招聘广告。为了进一步拓展这项工作,Witty Works 在 2019 年构建了一个网络应用程序,以帮助用户用英语、法语和德语编写包容性的招聘广告。其写作助手可以作为浏览器扩展程序使用,从而迅速扩大了使用范围,人们可方便用它来自动修复和解释电子邮件、Linkedin 帖子、招聘广告等内容中的潜在偏见。该程序为内部和外部沟通提供了一种解决方案,通过一种循序渐进方式,高亮出有偏见的词语和短语并解释其存在的潜在偏见,从而促进文化变革。
12
+
13
+ <p align="center">
14
+ <img src="assets/78_ml_director_insights/wittyworks.png"><br>
15
+ <em>Witty Works 写作助理的建议示例 </em>
16
+ </p>
17
+
18
+ ### 首次实验
19
+
20
+ Witty Works 起初选择了一种基础的机器学习方法来从头开始构建他们的助手。对预训练的 spaCy 模型进行迁移学习,通过此方法,助手可以:
21
+ - 分析文本并将单词转换为词干,
22
+ - 进行语言学分析,
23
+ - 从文本中提取语言学特征(复数和单数形式、性别)、词性标签(代词、动词、名词、形容词等)、词依存标签、命名实体识别等。
24
+
25
+ 通过使用语言学特征并用特定知识库来检测和过滤所有单词,助手可以高亮非包容性词汇并实时建议替代方案。
26
+
27
+ ### 挑战
28
+
29
+ Witty Works建立了一个词汇表,其中德语和英语两种语言各有大约 2300 个非包容性的词汇和短语。上述基础方法对 85% 的词汇有效,但对上下文相关的词汇无效。因此,需要构建一个上下文相关的非包容性词分类器。这样的挑战(理解上下文而不是仅识别语言学特征)使得使用 Hugging Face transformers 变得必要。
30
+
31
+ ```diff
32
+ 上下文相关的非包容性词示例:
33
+ Fossil fuels are not renewable resources. V.S. He is an old fossil. 两句中的 fossil。
34
+ You will have a flexible schedule. V.S. You should keep your schedule flexible. 两句中的 flexible。
35
+ ```
36
+
37
+ ### [Hugging Face 专家计划](https://huggingface.co/support?utm_source=blog-post&utm_medium=blog-post&utm_campaign=blog-post-classification-use-case) 提供的解决方案
38
+
39
+ - #### **获取如何正确选择 ML 方法的指导**
40
+ 最初选择的方法是使用基本版 transformers 模型(用于提取特定非包容性词的嵌入)。 Hugging Face 专家建议从上下文相关的词嵌入切换到上下文相关的句子嵌入。在该方法中,句子中每个词的表示取决于其上下文。
41
+
42
+ Hugging Face 专家建议使用 [Sentence Transformers](https://www.sbert.net/) 架构为整个句子生成嵌入。使用该方法,语义相似的句子间的距离小,而语义差距大的句子间的距离也大。
43
+
44
+ 在该方法中,Sentence Transformers 使用 Siamese 网络和三元组网络结构来修改预训练的 transformer 模型,以生成 “语义上有意义” 的句子嵌入。
45
+
46
+ 生成的句子嵌入作为基于 KNN 或逻辑回归的经典分类器的输入,以构建上下文相关的非包容性词分类器。
47
+
48
+ ```diff
49
+ Witty Works 首席数据科学家 Elena Nazarenko:
50
+ “我们根据每个词的句内上下文生成上下文相关的嵌入向量(BERT 嵌入)。然后,我们只保留 “目标” 词元的嵌入,然后计算最小角度(余弦相似度)”
51
+ ```
52
+
53
+ 要微调一个基于基本版 transformers 的分类器(例如简单的 BERT 模型),Witty Works 需要大量标注数据。每个类别的目标词都需要数百个样本。然而,这样的注释过程既昂贵又耗时,Witty Works 无法承受。
54
+
55
+ - #### **获取如何正确选择 ML 库的指导**
56
+
57
+ Hugging Face 专家建议使用 Sentence Transformers Fine-tuning 库(又名 [SetFit](https://github.com/huggingface/setfit)),这是一个对 Sentence Transformers 模型进行少样本微调的有效框架。结合对比学习和语义句子相似度,SetFit 在标注数据很少的文本分类任务上实现了高精度。
58
+
59
+ ```diff
60
+ Hugging Face 的首席布道官 Julien Simon:
61
+ “用于文本分类任务的 SetFit 是一个值得添加到 ML 工具箱���的好工具。”
62
+ ```
63
+
64
+ Witty Works 团队发现每个特定词汇只需 15-20 个标注句子,精度就足够了。
65
+
66
+ ``` 差异
67
+ Witty Works 首席数据科学家 Elena Nazarenko:
68
+ “最终,因为不需要创建一个大型标注数据集,我们节省了时间和金钱。”
69
+ ```
70
+
71
+ 减少句子数对于确保模型训练快速和高效至关重要。同时,出于另一个原因,这也是必要的:Witty Works 采用了一个明晰的、高度受监督的、基于规则的方法来 [积极管理偏见](https://www.witty.works/en/blog/is-chatgpt-able-to-generate-inclusive-language)。减少句子数对于减少人工审核训练集中句子的工作量非常重要。
72
+
73
+ - #### **获取如何正确选择 ML 模型的指导**
74
+ Witty Works 面临的一个主要挑战是模型部署后需要达到低延迟。没有人能容忍等待 3 分钟才能获得改进文本的建议! Hugging Face 和 Witty Works 双方均试验了多个 sentence transformer 模型,最终选择了 [mpnet-base-v2](https://huggingface.co/sentence-transformers/all-mpnet-base-v2),将其与逻辑回归和 KNN 结合使用。
75
+
76
+ 在 Google Colab 上进行首次测试后,Hugging Face 专家指导 Witty Works 在 Azure 上部署该模型。由于模型本身已经足够快,因此无需额外的优化。
77
+
78
+ ```diff
79
+ Witty Works 首席数据科学家 Elena Nazarenko:
80
+ “与 Hugging Face 合作为我们节省了大量时间和金钱。
81
+ 在实施复杂的文本分类用例时,人们可能会感到迷茫。
82
+ 由于它是最受欢迎的任务之一,因此 Hub 上有很多模型。
83
+ Hugging Face 专家指导我从大量基于 transformer 的模型中选择出最合适的模型。
84
+ 另外,模型部署过程中我也得到了很好的支持。”
85
+ ```
86
+
87
+ ### **结果和结论**
88
+
89
+ 训练集中句子的数量从每个单词 100-200 个减少到每个单词 15-20 个。 Witty Works 最终获得了 0.92 的准确度,并以最少的 DevOps 工作量成功地在 Azure 上部署了自定义模型!
90
+
91
+ ```diff
92
+ Lukas Kahwe Smith 首席技术官兼 Witty Works 联合创始人:
93
+ “独自从事 IT 项目可能具有挑战性,即使是做一个尝鲜版(Early Access Product, EAP)对初创企业来说是一项很大的投资,Hugging Face 专家计划是一个便宜且有意义的获取陪练和指导的途径。”
94
+ ```
95
+
96
+ 在 Hugging Face 专家的指导下,Witty Works 以 Hugging Face 的方式实施了新的 ML 工作流程,节省了时间和金钱。
97
+
98
+ ```diff
99
+ Hugging Face 的首席布道管 Julien Simon:
100
+ “Hugging Face 式的工作流建立法:
101
+ 找到开源的预训练模型,
102
+ 立即评估它们,
103
+ 看看哪些有效,哪些无效。
104
+ 通过迭代,你上手新东西会更快”
105
+ ```
106
+ ---
107
+
108
+
109
+ 🤗 如果你或你的团队有兴趣通过 Hugging Face 专家计划加速你的 ML 路线图,请访问 [hf.co/support](https://huggingface.co/support?utm_source=blog-post&utm_medium=blog-post&utm_campaign=blog-post-classification-use-case) 了解更多信息。
110
+
111
+ </body>
112
+ </html>
113
+
114
+ > 英文原文: <url> https://huggingface.co/blog/classification-use-cases </url>
115
+ > 原文作者:Julien Simon,Violette Lepercq,Florent Gbelidji,Elena Nazarenko,Lukas Kahwe Smith
116
+ > 译者: Matrix Yao (姚伟峰),英特尔深度学习工程师,工作方向为 transformer-family 模型在各模态数据上的应用及大规模模型的训练推理。