python

站点从0学习python的手册

学习从沙子到硅到CPU到操作系统的全过程

站长简介
毕业院校 湖南农业大学
英语 四级
口号 编程是拨开关,人人可会python
  • 计算机硬件篇
  • 计算机软件篇
  • 操作系统篇
推荐

从起源了解计算机

计算机是一堆电路,这些电路是带有逻辑的,人类把自己头脑里的逻辑用电路来实现,编程基于计算机,电流的速度非常快自然计算机运算也就很快!编程就是拨开关,所谓的软件其实是不存在的,你看到的软件只是显示器通电后的影像!软件本质上是电压信号。

阅读更多
推荐

软件的本质是电压

软件是什么?很多人只是从软件的作用上去回答,这永远说不明白软件的本质!其实软件根本不存在,你看到的软件只是显示器的影像,软件是一系列有序的电压信号,这些信号驱动计算机实现对应的功能。

阅读更多
推荐

CPU并不知道有操作系统的存在

操作系统和应用软件只是个人为规定的概念,他们本质上都是一行行的代码!只是人来赋予不同的代码不同的地位和功能,有一些代码被叫做操作系统,操作系统和应用软件实际上并没有谁在谁之上这种说法。

阅读更多
  • python基础教程
  • python面向对象
  • python并发编程
  • python高级知识
  • requests爬虫
  • SEO工具
  • selenium教程
  • 最新文章
  • 什么是爬虫?爬虫的本质是什么?爬虫有什么用

    什么是爬虫? 爬虫通俗的解释就是复制粘贴!你在浏览器上点开一个网址,复制这个页面的一些信息,保存到自己的文件!这个过程如果用程序来实现,那么这个程序就叫做爬虫! 研

  • 什么是协议?到底什么是网络协议?

    什么是协议? 协议通俗的说就是规矩谁能立规矩呢,只有人。 生活中,协议无处不在,比如说我们把会发出汪汪声音的动物叫做狗,我们见了一条狗,我们说这是一条狗。这就是一种

  • http和https协议讲解-通俗而透彻

    在两条电脑可以通信的基础上,不同的协议就是代表两者之间不同的话术。http和https协议是搞爬虫接触比较频繁的协议。https相比http多了一层加密算法使得数据传输更加安全。但是htt

  • requests库安装及常用操作介绍

    python爬虫模块有两种比较常见,第一种为urllib模块,第二种为requests模块。urllib模块比较恶心,需要手动处理url编码、post请求参数等,requests模块出现后,就快速的代替了urllib模块。 但

  • requests模块的get请求基本使用案例

    基于requests模块的简单get请求。 需求:爬取百度首页。 注意User-Agent: User-Agent:请求载体的身份标识,使用浏览器发起的请求,请求载体的身份标识为浏览器。 User-Agent检测:网站通过

  • requests的get请求url参数、url重定向处理及cookies

    需求:在百度搜索www.python66.com,然后将搜索结果保存到文件bd_python66.html 百度搜索的url:https://www.baidu.com/s?wd=搜索词 解决:利用params参数,代码如下: # -*- coding: utf-8 -*-import requestsim

  • requests的post请求提交表单、json串和文件数据讲解

    HTTP协议中没有规定post提交的数据必须使用什么编码方式,服务端根据请求头中的 Content-Type 字段来获取编码方式,再对数据进行解析。具体的编码方式包括如下: - application/x-www-form-

  • requests的ssl证书验证、身份认证、cert文件证书

    NO1: Requests 可以为 HTTPS 请求验证 SSL 证书,就像 web 浏览器一样。SSL 验证默认是开启的,如果证书验证失败,Requests 会抛出 SSLError。在该域名requestb.in上我没有设置 SSL,所以失败了。代

  • requests加代理ip参数讲解

    代理 如果需要使用代理,你可以通过为任意请求方法提供proxies参数来配置单个请求: 你也可以通过环境变量HTTP_PROXY和HTTPS_PROXY来配置代理。 若你的代理需要使用HTTP Basic Auth,可以使用

  • requests二进制响应内容、json响应内容、原始响应

    http://2.python-requests.org/zh_CN/latest/user/quickstart.html#id4

  • python采集百度PC搜索结果页真实url

    不同人做seo有不同的思路,所以总有些乱七八糟的需求,比如采集百度搜索结果页的真实url。很多SEO工具实现的过程也需要采集真实url,下面的代码就是采集百度PC排名的真实url。 1、准

  • python多线程采集百度PC下拉词

    下拉词是扩词一个重要的渠道,市面上还有刷百度下拉词的,所以百度下拉词的作用不必多说。如何批量获取百度下拉词呢? 百度PC下拉词采集的脚本如下: 1、准备关键词文件kwd.txt。

  • python多线程采集百度pc相关搜索词

    相关搜索词词是扩词一个重要的渠道。如何批量获取百度相关搜索词呢? 百度PC相关搜索词采集的脚本如下: 1、准备关键词文件kwd.txt。(一行一个关键词) 2、结果会存储为bdpc_xg.tx

  • python查询百度PC域名首页覆盖率

    在SEO人员那里,判断一个行业哪些站做的好,有一个大众比较认可的思路。找一批行业词,查询每个词百度排名前10的url,然后提取下来,最后统计下哪个域名出现次数多。出现次数多

  • python百度PC多站点分关键词类别排名监控

    在SEO人员那里,判断一个行业哪些站做的好,有一个大众比较认可的思路。找一批行业词,查询每个词百度排名前10的url,然后提取下来,最后统计下哪个域名出现次数多。出现次数多

  • python多线程百度PC查询url是否有收录且索引

    一个url只有被收录且建立索引后才有可能获得流量,只有收录没有索引就无法通过检索词检索到。通常判断收录的方式是直接搜索该url看是否收录,而判断建立索引的方式是搜索该url的

  • python多线程百度PC关键词和url一对一排名查询

    查询关键词排名有两种,第一种是提供url和关键词查看是否有排名,第二种是提供关键词查看某个域名下哪个url有排名,这里提供第一种方式的脚本。其中的注意事项如下: 1、准备关

  • python多线程百度PC指定域名查询关键词排名

    查询关键词排名有两种,第一种是指定url和关键词查看是否有排名,第二种是提供关键词查看某个域名下哪个url有排名,这里提供第二种方式的脚本。其中的注意事项如下: 1、准备关

  • python百度mo域名首页覆盖率查询

    我们之前写过百度PC关键词覆盖率查询的代码,本文写百度MO端的。原理都是一样的! SEO人员判断一个行业哪些站做的好,会采取一个思路。找一批行业词,查询每个词百度排名前10的

  • python百度mo端多站点分关键词类别排名监控

    SEO人员判断一个行业哪些站做的好,会采取一个思路。找一批行业词,查询每个词百度排名前10的url,然后提取下来,最后统计下哪个域名出现次数多。出现次数多的几个域名就是这个

  • selenium是什么?selenium历史版本介绍

    1、selenium是什么 Selenium是什么?Selenium 官方有一个很经典的回答:自动化操作的浏览器,就是这样做你想要做的事情,一切取决于你。 Selenium最早是为了测试浏览器、网页而诞生的,是

  • selenium学习什么?selenium学习方法及内容

    一:selenium学习什么? 你用浏览器操作什么那么学习selenium就学习什么! 但是本栏目是面向爬虫的selenium课程,所以更多的倾向于爬虫,自动化测试类的偏少!测试和爬虫是2个方向。

  • selenium各种坑和bug真实记录

    selenium很笨重并且有各种奇葩问题,鄙人在真实的使用之中搜集了一些奇葩问题供大家参照!我用的事selenium3.14版本。 须知:selenium遇见的坑很多是和webdriver和浏览器的版本有关系,这

  • selenium、webdriver及浏览器的关系及对应版本安装

    selenkium支持多种浏览器,包括Chrome,Safari,Firefox、Edge 等,我们以Chrome浏览器为例学习。先完成以下3步: 1 selenium安装 安装selenium和安装requests或者其他库一样,直接pip命令完成就行。

  • selenium启动禁用图片,UA,窗口,无头模式,手机模式

    本节测试下selenium启动浏览器的一些配置参数,比如UA信息,模拟手机,是否加载图片等。首先找到可以检测浏览器UA信息及屏幕分辨率的网站 http://www.sunchateau.com/free/UA.htm,打开该网站

  • selenium元素等待强制等待、显式等待、隐式等待详

    之前的脚本selenium打开网页后会强制sleep几秒然后退出,如果代码层面出现了quit(),有时候网页未加载完完浏览器就退出了。所以才要强制等待!sleep就是强制等待。 但是每个网页加载时

  • 强制等待、显式等待、隐式等待代码示例

    场景: 1.打开百度,等待输入框元素和搜搜按钮出现(输入框和搜索按钮出现才说明网页加载好了) 2.输入www.pythjon66.com,点击搜索 3.在搜索结果页等待下一页这个元素出现(出现下一页的

  • selenium元素定位的8种方式及其变形写法

    所谓元素定位就是在html源码中去找目标元素,html源码有很多特征根据这些特征,Selenium提供了8种定位方式。 (如果不知道id 、class name这些是啥,请补充基本的html css知识) id(id属性

  • selenium打开天眼查实现自动搜索查找功能

    上一篇我们从概念上感受了元素定位,这次我们实际拿个网站练练手,就用天眼查这个站来做吧。 1、打开天眼查, 2、定位到输入框,输入垃圾seo; 3、定位到搜索按钮,点击搜索 与上

  • selenium通过js定位元素及元素赋值

    selenium可以执行js代码,只需要一句话即可: driver.execute_script(input_js) 鉴于这个特点我们就可以利用js来操作元素比如实现元素定位、输出文字等,但是前提是对js的DOM操作有所了解,对

  • 百度贴吧脚本合集(持续更新)

    测试了一波百度贴吧发帖,搞了一波贴吧脚本。结尾有2020年初脚本发的贴(目前还在)。 因为不是底层语言而是python脚本,所以运行可参考 python代码运行原理 ,selenium可以参考 selenium教

  • selenium贴吧顶帖(多贴多账号)

    数据一多,就需要排序!排在第一,机会才多。selenium贴吧顶帖脚本如下: 注意 : 回帖用的js提交,如果发布过程出现输入验证码,会提示回复成功但实际上未发布上去 。 功能:多账号

  • selenium贴吧批量发帖(多账号多吧)

    一堆账号一对吧,挨个发帖累趴下,不宜手动需要脚本。selenium多账号对贴吧发帖脚本如下: 注意 : 1、发帖用的js提交,如果发布过程出现输入验证码,会提示发布成功但实际上未发

  • selenium贴吧回复(多账号多吧)

    一批帖子需要回复,一堆账号等着去完成回复。手动登录回帖非常人所能忍受,脚本祝人一臂之力。selenium百度贴吧多贴多账号回复脚本如下: 注意 : 1、回帖用的js提交,如果发布过

  • selenium贴吧关注(多账号多吧)

    一批百度账号,每个账号关注一批贴吧,然后慢慢养号。手动登录关注贴吧劳心劳力影响心情,必须借助脚本。selenium百度贴吧多账号多吧关注 功能:多账号多吧,每个账号关注多个贴吧

  • selenium百度贴吧多账号登录检测

    搞一批百度贴吧账号需要进行登录检测,账号一朵手动登录就会旷日持久且手腕酸痛。selenium版多账号登录检测脚本如下: 功能:多账号检测,默认10-15秒登陆一个账号, 1、事先准备一

  • selenium版百度MO排名监控多站点-解决百度反爬排名

    再重复一遍,百度反爬在2020年明显比以往严重(可能因为会写脚本的人越来越多了....),反爬策略中除了一些普通手段如限制ip、UA等,还夹杂了一些高级反爬,比如:度娘会检测鼠标的

  • selenium百度PC排名监控多站点-解决百度反爬排名查

    百度反爬在2020年明显比以往严重,而且反爬策略中除了限制ip、header头等常规操作外,还有一些高级反爬。以往查询排名的脚本直接拼接访问搜索url获取源码就行,比如查询seo排名则直

  • raise手动抛出异常的3种写法

    今天学习下手动抛出异常,有人可能奇怪写程序就为了正常运行,为何还要手动抛出异常呢?这要在实际项目中根据业务需求来,如果程序本身运行是没问题的,但是某个环节不符合业

  • as e是什么?异常处理的完整语法总结

    前面我们捕获异常的时候一直在用as e,其实as e是可以省略的,且e是可以自己命名的,不一定非叫e 也可以叫eee或者其他。 之所以给她命名是为了我们输出他。 我们先看一个命名的 #

  • 疑难杂症
  • Pandas教程
  • openpyxl教程
  • javascript教程

网友热评