网页爬虫 - python 爬虫书籍web scraping中的一个问题

查看:114
本文介绍了网页爬虫 - python 爬虫书籍web scraping中的一个问题的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

问 题

1.他最后一句话说,用Utf-8编码,使得转义字符被消除了。为什么,没懂
2.content=content.decode("ascii","ignore")为何他转换成utf-8后又转成ascii?

谢谢了

解决方案

泻药,最近比较忙,刚闲下来。
第一个问题为什么utf8能消除转义字符?
呃,其实书里这句话不对,消除转义字符的不是这行代码,而是下一行代码的ignore参数,转义字符因为不能被ascii decode,如果不加ignore就会报错,加了ignore就会被忽略。
contents是一个str,由一系列不可改变的Unicode字符组成,本身不能被decode,用utf8 encode之后转为bytes才可以被decode。
encode是转为计算机能理解的二进制数,bytes就是一系列不可改变的介于0-255之间的数字。decode就是转为我们可以理解的字符。
ascii字符集远小于unicode字符集,用ascii decode的时候那些不在ascii字符集的字符就会导致报错,设了ignore参数后就会被忽略。
这算是一个trick吧233。

话说你这本书是谁写的,这种错误太不严谨了。

这篇关于网页爬虫 - python 爬虫书籍web scraping中的一个问题的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆