新闻是我们了解外界的重要渠道,以前,我们一般通过报纸和电视来获取新闻,那时候,获取新闻不仅有一定的成本,效率还不高。
而如今,获取新闻的途径太多太方便了,大量重复的新闻充斥着各大平台,获取新闻已经没有什么成本,问题变成了过滤和鉴别新闻的可信程度。
下面用 【新浪新闻】 作为采集对象,抛砖引玉,演示下新闻从采集到分析的整个过程。
主要流程分为4个步骤:

从新浪滚动新闻页面中,找出获取新闻的API,然后,并发的采集新闻。
这里为了简单起见,主要采集了新闻标题和摘要信息。
# -*- coding: utf-8 -*-
import requests
import csv
import time
import os
import threading
import math
host = "https://feed.mix.sina.com.cn/api/roll/get?pageid=153&lid=2509&k=&num=50&page={}"
class spiderThread(threading.Thread):
def __init__(self, fname, delay, start_page, end_page):
threading.Thread.__init__(self)
self.fname = fname
self.delay = delay
self.start_page = start_page
self.end_page = end_page
def run(self):
for page in range(self.start_page, self.end_page):
time.sleep(self.delay)
url = host.format(page)
rows = _parse_html_content(url)
_save_data(self.fname, rows)
print("thead: {} 已采集 第【{}】页的数据".format(self.fname, page))
def spider(start_page=1, pages=50, concurrency=2):
""" 采集数据
并发采集 sina 滚动新闻数据
Parameters:
start_page - 采集开始的页数,默认从第1页开始采集
pages - 采集的页数,默认采集500页
concurrency - 并发采集的数量,默认4个线程采集
Returns:
采集结果写入文件
"""
if pages < 0 or concurrency < 0:
print("pages or concurrency must more than 0")
return
threads = []
now_str = time.strftime("%Y-%m-%d--%H-%M-%S", time.localtime())
delta = math.ceil((pages - start_page + 1) / concurrency)
for i in range(concurrency):
end_page = delta + start_page
if end_page > pages:
end_page = pages + 1
t = spiderThread("{}-{}".format(now_str, i + 1), 2, start_page, end_page)
threads.append(t)
t.start()
start_page = end_page
for t in threads:
t.join()
print("采集结束")
def _parse_html_content(url):
""" parse html to csv row like: oid, intime, title, media_name, intro
"""
response = requests.get(url)
data = response.json()
data = data["result"]["data"]
rows = []
for d in data:
# print(d["oid"])
# print(d["intime"])
# print(d["title"])
# print(d["media_name"])
# print(d["intro"])
rows.append([d["oid"], d["intime"], d["title"], d["media_name"], d["intro"]])
return rows
def _save_data(filename, rows):
fp = os.path.join("./data", filename + ".csv")
print("fname {}: rows {}".format(filename, len(rows)))
with open(fp, "a", encoding='utf-8') as f:
writer = csv.writer(f)
writer.writerows(rows)
主要函数是:def spider(start_page=1, pages=50, concurrency=2)
可以设置采集的起始/结束页,以及并发采集的线程数。
新浪滚动新闻最多只提供了最近50页的新闻,大概4000多条新闻。
采集之后,默认会在 data文件夹下生成采集结果的 csv 文件(几个线程采集,就生成几个csv)
清理数据主要将多线程采集的所有csv文件合并成一个,同时去重和按照时间排序。
# -*- coding: utf-8 -*-
import pandas as pd
import os
import time
def clean(data_dir="./data"):
""" 清洗数据
合并所有采集的数据文件,去除重复数据和不需要的字段
Parameters:
data - 采集数据的文件夹
Returns:
清理后的结果写入文件
"""
data = _read_all_data(data_dir)
data = _uniq_and_order(data)
_write_clean_data(data_dir, data)
def _read_all_data(data_dir):
all_data = []
for f in os.listdir(data_dir):
fp = os.path.join(data_dir, f)
if os.path.isdir(fp):
continue
data = pd.read_csv(
fp, names=["oid", "intime", "title", "media_name", "intro"], header=None,
)
all_data.append(data)
return pd.concat(all_data, ignore_index=True)
def _uniq_and_order(data):
data = data.drop_duplicates(keep="first")
data = data.drop(columns=["oid", "intime", "media_name", "intro"])
# data = data.sort_values(by=["intime"], ascending=False)
return data
def _write_clean_data(data_dir, data):
clean_data_dir = os.path.join(data_dir, "clean")
if not os.path.exists(clean_data_dir):
os.makedirs(clean_data_dir)
now_str = time.strftime("%Y-%m-%d--%H-%M-%S", time.localtime())
data.to_csv(
os.path.join(clean_data_dir, now_str + ".csv"), index=False, header=None
)
清理之后,所有新闻合并在一个文件中,只保留了【新闻标题】用来分析。
新闻标题的文字是没有规律的,所以分析之前需要先分词。
# -*- coding: utf-8 -*-
import jieba.posseg as pseg
import pandas as pd
import os
import time
def split_word(fp, data_dir="./data"):
"""对标题进行分词
Parameters:
data_dir - 采集数据的文件夹
fp - 待分词的文件
Returns:
分词后的结果写入文件
"""
mdata = {}
with open(fp, "r", encoding="utf-8") as f:
total = len(f.readlines())
count = 0
f.seek(0)
for line in f:
count += 1
print("解析进度[{}/{}]...".format(count, total))
_jieba(line, mdata)
total = len(mdata)
count = 0
data_list = []
for word in mdata.keys():
count += 1
print("写入进度[{}/{}]...".format(count, total))
data_list.append([word, mdata[word][0], mdata[word][1]])
data = pd.DataFrame(data_list, columns=["单词", "词性", "数量"])
_write_split_data(data_dir, data)
def _jieba(s, mdata):
words = pseg.cut(s, HMM=True)
for word, flag in words:
if _check_flag(flag):
if word not in mdata.keys():
mdata[word] = [flag, 0]
mdata[word][1] += 1
return mdata
def _write_split_data(data_dir, data):
split_data_dir = os.path.join(data_dir, "jieba")
if not os.path.exists(split_data_dir):
os.makedirs(split_data_dir)
now_str = time.strftime("%Y-%m-%d--%H-%M-%S", time.localtime())
data.to_csv(os.path.join(split_data_dir, now_str + ".csv"), index=False)
def _check_flag(flag):
flags = ["n"] # n-名词类,a-形容词类 v-动词类
for fg in flags:
if flag.startswith(fg):
return True
return False
这里使用分词使用是 【结巴分词】库,并且只保留了新闻标题中的 【名词】。
最后是分析结果,为了快速获取新闻的有效信息,这一步必不可少。
这里只分析了【新闻标题】中的名词,所以这里就做了两张图,一张是高频词的柱状图,一张是词云图。
# -*- coding: utf-8 -*-
import pandas as pd
import os
import wordcloud
from prettytable import PrettyTable
import matplotlib
import matplotlib.pyplot as plt
# 为了显示中文
matplotlib.rcParams["font.sans-serif"] = ["Microsoft YaHei Mono"]
matplotlib.rcParams["axes.unicode_minus"] = False
cn_font_path = "D:\\miniconda3\\envs\\databook\\Lib\\site-packages\\matplotlib\\mpl-data\\fonts\\ttf\\Microsoft-Yahei-Mono.ttf"
def analysis(fp, data_dir="./data"):
"""分析数据
根据分词结果分析结果
"""
data = pd.read_csv(fp)
# 过滤关键词长度为1的数据
data = data[data["单词"].str.len() > 1]
# 创建文件夹
analy_data_dir = os.path.join(data_dir, "analy")
if not os.path.exists(analy_data_dir):
os.makedirs(analy_data_dir)
# 显示前N个关键词
N = 20
_topN_table(data, N)
# 高频词柱状图比较
_topN_bar_graph(data, N, analy_data_dir)
# 词云 图
_word_cloud(data, analy_data_dir)
def _topN_table(data, n):
tbl = PrettyTable()
data = data.sort_values(by=["数量"], ascending=False)
tbl.field_names = data.columns.values.tolist()
tbl.add_rows(data.head(n).values.tolist())
print(tbl)
def _topN_bar_graph(data, n, d):
data = data.sort_values(by=["数量"], ascending=False)
data = data.head(n)
y = list(data["数量"])
plt.bar(range(n), height=y, tick_label=range(1, n + 1), color=["b", "c", "g", "m"])
plt.xticks(range(n), data["单词"])
fig = plt.gcf()
fig.set_size_inches(15, 5)
plt.savefig(os.path.join(d, "bar.png"))
def _word_cloud(data, d):
w = wordcloud.WordCloud(
width=800, height=600, background_color="white", font_path=cn_font_path
)
# 词频大于N的单词才展示
N = 5
data = data[data["数量"] > N]
dic = dict(zip(list(data["单词"]), list(data["数量"])))
w.generate_from_frequencies(dic)
w.to_file(os.path.join(d, "word_cloud.png"))
注意,这里为了显示中文,我引入了自己的字体(Microsoft-Yahei-Mono.ttf),你也可以换成任何能够显示中文的字体。
其实,上面的功能主要就是找出新闻中的高频词,从而可以看看公众最近关注最多的是哪方面。
虽然简单,但是麻雀虽小五脏俱全,整个流程是完备的,有兴趣的话,每个流程中的细节可以继续丰富。
代码运行的最终结果如下:(运行时间:2022-07-29 中午12点多,新闻是不断更新的,不同时间采集的话,运行结果会不一样)


爬取数据只是为了研究学习使用,本文中的代码遵守:
我主要使用Ruby来执行此操作,但到目前为止我的攻击计划如下:使用gemsrdf、rdf-rdfa和rdf-microdata或mida来解析给定任何URI的数据。我认为最好映射到像schema.org这样的统一模式,例如使用这个yaml文件,它试图描述数据词汇表和opengraph到schema.org之间的转换:#SchemaXtoschema.orgconversion#data-vocabularyDV:name:namestreet-address:streetAddressregion:addressRegionlocality:addressLocalityphoto:i
有时我需要处理键/值数据。我不喜欢使用数组,因为它们在大小上没有限制(很容易不小心添加超过2个项目,而且您最终需要稍后验证大小)。此外,0和1的索引变成了魔数(MagicNumber),并且在传达含义方面做得很差(“当我说0时,我的意思是head...”)。散列也不合适,因为可能会不小心添加额外的条目。我写了下面的类来解决这个问题:classPairattr_accessor:head,:taildefinitialize(h,t)@head,@tail=h,tendend它工作得很好并且解决了问题,但我很想知道:Ruby标准库是否已经带有这样一个类? 最佳
我正在尝试使用Curbgem执行以下POST以解析云curl-XPOST\-H"X-Parse-Application-Id:PARSE_APP_ID"\-H"X-Parse-REST-API-Key:PARSE_API_KEY"\-H"Content-Type:image/jpeg"\--data-binary'@myPicture.jpg'\https://api.parse.com/1/files/pic.jpg用这个:curl=Curl::Easy.new("https://api.parse.com/1/files/lion.jpg")curl.multipart_form_
无论您是想搭建桌面端、WEB端或者移动端APP应用,HOOPSPlatform组件都可以为您提供弹性的3D集成架构,同时,由工业领域3D技术专家组成的HOOPS技术团队也能为您提供技术支持服务。如果您的客户期望有一种在多个平台(桌面/WEB/APP,而且某些客户端是“瘦”客户端)快速、方便地将数据接入到3D应用系统的解决方案,并且当访问数据时,在各个平台上的性能和用户体验保持一致,HOOPSPlatform将帮助您完成。利用HOOPSPlatform,您可以开发在任何环境下的3D基础应用架构。HOOPSPlatform可以帮您打造3D创新型产品,HOOPSSDK包含的技术有:快速且准确的CAD
本教程将在Unity3D中混合Optitrack与数据手套的数据流,在人体运动的基础上,添加双手手指部分的运动。双手手背的角度仍由Optitrack提供,数据手套提供双手手指的角度。 01 客户端软件分别安装MotiveBody与MotionVenus并校准人体与数据手套。MotiveBodyMotionVenus数据手套使用、校准流程参照:https://gitee.com/foheart_1/foheart-h1-data-summary.git02 数据转发打开MotiveBody软件的Streaming,开始向Unity3D广播数据;MotionVenus中设置->选项选择Unit
文章目录一、概述简介原理模块二、配置Mysql使用版本环境要求1.操作系统2.mysql要求三、配置canal-server离线下载在线下载上传解压修改配置单机配置集群配置分库分表配置1.修改全局配置2.实例配置垂直分库水平分库3.修改group-instance.xml4.启动监听四、配置canal-adapter1修改启动配置2配置映射文件3启动ES数据同步查询所有订阅同步数据同步开关启动4.验证五、配置canal-admin一、概述简介canal是Alibaba旗下的一款开源项目,Java开发。基于数据库增量日志解析,提供增量数据订阅&消费。Git地址:https://github.co
我正在尝试在Rails上安装ruby,到目前为止一切都已安装,但是当我尝试使用rakedb:create创建数据库时,我收到一个奇怪的错误:dyld:lazysymbolbindingfailed:Symbolnotfound:_mysql_get_client_infoReferencedfrom:/Library/Ruby/Gems/1.8/gems/mysql2-0.3.11/lib/mysql2/mysql2.bundleExpectedin:flatnamespacedyld:Symbolnotfound:_mysql_get_client_infoReferencedf
文章目录1.开发板选择*用到的资源2.串口通信(个人理解)3.代码分析(注释比较详细)1.主函数2.串口1配置3.串口2配置以及中断函数4.注意问题5.源码链接1.开发板选择我用的是STM32F103RCT6的板子,不过代码大概在F103系列的板子上都可以运行,我试过在野火103的霸道板上也可以,主要看一下串口对应的引脚一不一样就行了,不一样的就更改一下。*用到的资源keil5软件这里用到了两个串口资源,采集数据一个,串口通信一个,板子对应引脚如下:串口1,TX:PA9,RX:PA10串口2,TX:PA2,RX:PA32.串口通信(个人理解)我就从串口采集传感器数据这个过程说一下我自己的理解,
SPI接收数据左移一位问题目录SPI接收数据左移一位问题一、问题描述二、问题分析三、探究原理四、经验总结最近在工作在学习调试SPI的过程中遇到一个问题——接收数据整体向左移了一位(1bit)。SPI数据收发是数据交换,因此接收数据时从第二个字节开始才是有效数据,也就是数据整体向右移一个字节(1byte)。请教前辈之后也没有得到解决,通过在网上查阅前人经验终于解决问题,所以写一个避坑经验总结。实际背景:MCU与一款芯片使用spi通信,MCU作为主机,芯片作为从机。这款芯片采用的是它规定的六线SPI,多了两根线:RDY和INT,这样从机就可以主动请求主机给主机发送数据了。一、问题描述根据从机芯片手
前言一般来说,前端根据后台返回code码展示对应内容只需要在前台判断code值展示对应的内容即可,但要是匹配的code码比较多或者多个页面用到时,为了便于后期维护,后台就会使用字典表让前端匹配,下面我将在微信小程序中通过wxs的方法实现这个操作。为什么要使用wxs?{{method(a,b)}}可以看到,上述代码是一个调用方法传值的操作,在vue中很常见,多用于数据之间的转换,但由于微信小程序诸多限制的原因,你并不能优雅的这样操作,可能有人会说,为什么不用if判断实现呢?但是if判断的局限性在于如果存在数据量过大时,大量重复性操作和if判断会让你的代码显得异常冗余。wxswxs相当于是一个独立