网站首页 > 技术文章 正文
行动计划
在制作我的表情机器人时,我遇到了一个很大的不便——没有公开的表情数据库! 在找了几个小时之后,我决定是时候采取主动并自己制作了。
附: 如果你碰巧找到了一个文字表情数据库,请告诉我(这样我就可以嘲笑自己浪费了多少时间)。
总体策略:
- 使用 BeautifulSoup 制作解析器
- 使此解析器避免验证码和 HTTP 错误 403
- 找到所有包含表情符号的容器
- 根据情绪将它们放入一维数组中(一个代表快乐,一个代表愤怒等等)
- 将我们所有的数组组合成一个 Pandas 数据框
- 没有剧透,但我对生成的数据框看起来多么不寻常感到非常惊讶:)
第 1 步 — 获取网站和库
表情符号以字符串形式出现,因此从 HTML 代码中检索它们应该相对容易。
这个网站有一个小技巧:
如您所见,网站每个部分的 URL 都会有所不同。 这没问题,只是需要注意的一些事情,并且会在我们的抓取过程中增加一些工作。
让我们导入库:
from urllib.request import Request, urlopen
from bs4 import BeautifulSoup as soup
现在让我们创建请求。 这将打开网页并检查其内容。 您可以放置任何您想要的浏览器,我选择了 Mozilla,因为它似乎造成的麻烦最少(澄清一下,我使用 Chrome 作为浏览器来抓取,您不需要输入实际浏览器的名称!)
url = "https://www.emoticonstext.com/flip-table.html"
req = Request(url, headers = {'User-Agent': 'Mozilla/5.0'})
webpage = urlopen(req).read()
好的,解析器时间!
page_soup = soup(webpage, 'html.parser')
第 2 步 — 检索数据
以下是该过程背后的逻辑:
- 我们获取 url 并设置我们的解析器
- 解析器将寻找一个特定的容器(在我们的例子中是 span 容器)
- 我们将收集到的数据放入一维数组中
- 我们确保数组的长度相同(这将有助于我们稍后创建数据框)
这有点拗口,让我们开始吧!
首先,获取 url 并设置解析器:
def makeArray(url):
url_add = url
req = Request(url_add, headers = {'User-Agent': 'Mozilla/5.0'})
webpage = urlopen(req).read()
page_soup = soup(webpage, 'html.parser')
containers = page_soup.findAll("span", "emoticon")
arr_name = []
for i in containers:
arr_name.append(i)
return arr_name
很好,我们为网站的 1 个部分返回了一个数组。 我将使用这个函数制作 7 个不同的数组——每种情绪 1 个。 尽管这看起来又长又难,但它只是对每种情感的前两行代码的重复!
#create the 'laughing' array
laughing_arr = makeArray("https://www.emoticonstext.com/laughing.html")
#print its length (it was 29 values long
print(len(laughing_arr))
#create the 'surprised' array
surprised_arr = makeArray("https://www.emoticonstext.com/surprised.html")
#get its length (its 45)
print(len(surprised_arr))
#trim it down to make it 29
del surprised_arr[29:45]
###### REPEAT! ######
thinking_arr = makeArray("https://www.emoticonstext.com/thinking.html")
print(len(thinking_arr))
del thinking_arr[29:43]
confused_arr = makeArray("https://www.emoticonstext.com/confused.html")
print(len(confused_arr))
del confused_arr[29:38]
depressed_arr = makeArray("https://www.emoticonstext.com/depressed.html")
print(len(depressed_arr))
del depressed_arr[29:49]
helpless_arr = makeArray("https://www.emoticonstext.com/helpless.html")
print(len(helpless_arr))
del helpless_arr[29:35]
scared_arr = makeArray("https://www.emoticonstext.com/scared.html")
print(len(scared_arr))
del scared_arr[29:46]
恭喜,你刚刚制作了很多一维数组!
第三步——制作数据框
制作数据框所需要做的就是将我们的数组作为列添加到其中。 我们将使用 Pandas 创建我们的数据框。
import pandas as pd
df = pd.DataFrame()
df['happy'] = list(laughing_arr)
df['surprised'] = list(surprised_arr)
df['thinking'] = list(thinking_arr)
df['confused'] = list(confused_arr)
df['depressed'] = list(depressed_arr)
df['helpless'] = list(helpless_arr)
df['scared'] = list(scared_arr)
df.head(29)
好吧,让我们看看我们辛勤工作的成果:
你现在可以在这个数据框上使用 Pandas 并用它做任何你喜欢的事情!
猜你喜欢
- 2025-03-11 Python开发的自动上传采集工具,轻松采集网站数据
- 2025-03-11 详细介绍一下Python中如何使用来创建爬虫?
- 2025-03-11 一篇文章教会你使用Python定时抓取微博评论
- 2025-03-11 Python性能监控实战,掌握性能指标采集
- 2025-03-11 Scrapy爬虫框架 批量抓取数据轻轻松松啦~
- 2025-03-11 自动化测试实战篇:基于Python实践性能指标结果自动采集工具
- 2025-03-11 从0教你用Python写网络爬虫,内容详细代码清晰,适合入门学习
- 2025-03-11 突破某易云的JS逆向,利用Python采集整站数据
- 2025-03-11 我背着女朋友,用 Python 偷偷抓取了她的行踪
- 2025-03-11 免Python也能网页抓取:用AI自动完成 HTML 解析和数据提取
- 265℃Python短文,Python中的嵌套条件语句(六)
- 264℃python笔记:for循环嵌套。end=""的作用,图形打印
- 263℃PythonNet:实现Python与.Net代码相互调用!
- 259℃Python实现字符串小写转大写并写入文件
- 257℃Python操作Sqlserver数据库(多库同时异步执行:增删改查)
- 117℃原来2025是完美的平方年,一起探索六种平方的算吧
- 98℃Python 和 JavaScript 终于联姻了!PythonMonkey 要火?
- 90℃Ollama v0.4.5-v0.4.7 更新集合:Ollama Python 库改进、新模型支持
- 最近发表
- 标签列表
-
- python中类 (31)
- python 迭代 (34)
- python 小写 (35)
- python怎么输出 (33)
- python 日志 (35)
- python语音 (31)
- python 工程师 (34)
- python3 安装 (31)
- python音乐 (31)
- 安卓 python (32)
- python 小游戏 (32)
- python 安卓 (31)
- python聚类 (34)
- python向量 (31)
- python大全 (31)
- python次方 (33)
- python桌面 (32)
- python总结 (34)
- python浏览器 (32)
- python 请求 (32)
- python 前端 (32)
- python验证码 (33)
- python 题目 (32)
- python 文件写 (33)
- python中的用法 (32)