python

站点从0学习python的手册

学习从沙子到硅到CPU到操作系统的全过程

1、编程是工科!先知道How,再研究Why。
2、作为一个人,先学会吃喝拉撒,再去研究人类起源。
3、编程就是拨开关,先学会操作,再研究如何造机器。

  • 计算机硬件篇
  • 计算机软件篇
  • 操作系统篇
推荐

从起源了解计算机

计算机是一堆电路,这些电路是带有逻辑的,人类把自己头脑里的逻辑用电路来实现,编程基于计算机,电流的速度非常快自然计算机运算也就很快!编程就是拨开关,所谓的软件其实是不存在的,你看到的软件只是显示器通电后的影像!软件本质上是电压信号。

阅读更多
推荐

软件的本质是电压

软件是什么?很多人只是从软件的作用上去回答,这永远说不明白软件的本质!其实软件根本不存在,你看到的软件只是显示器的影像,软件是一系列有序的电压信号,这些信号驱动计算机实现对应的功能。

阅读更多
推荐

CPU并不知道有操作系统的存在

操作系统和应用软件只是个人为规定的概念,他们本质上都是一行行的代码!只是人来赋予不同的代码不同的地位和功能,有一些代码被叫做操作系统,操作系统和应用软件实际上并没有谁在谁之上这种说法。

阅读更多
  • python基础教程
  • python面向对象
  • python并发编程
  • python高级知识
  • requests爬虫
  • SEO工具
  • selenium教程
  • 最新文章
  • 什么是爬虫?爬虫的本质是什么?爬虫有什么用

    什么是爬虫? 爬虫通俗的解释就是复制粘贴!你在浏览器上点开一个网址,复制这个页面的一些信息,保存到自己的文件!这个过程如果用程序来实现,那么这个程序就叫做爬虫! 研

  • 什么是协议?到底什么是网络协议?

    什么是协议? 协议通俗的说就是规矩谁能立规矩呢,只有人。 生活中,协议无处不在,比如说我们把会发出汪汪声音的动物叫做狗,我们见了一条狗,我们说这是一条狗。这就是一种

  • http和https协议讲解-通俗而透彻

    在两条电脑可以通信的基础上,不同的协议就是代表两者之间不同的话术。http和https协议是搞爬虫接触比较频繁的协议。https相比http多了一层加密算法使得数据传输更加安全。但是htt

  • requests库安装及常用操作介绍

    python爬虫模块有两种比较常见,第一种为urllib模块,第二种为requests模块。urllib模块比较恶心,需要手动处理url编码、post请求参数等,requests模块出现后,就快速的代替了urllib模块。 但

  • requests模块的get请求基本使用案例

    基于requests模块的简单get请求。 需求:爬取百度首页。 注意User-Agent: User-Agent:请求载体的身份标识,使用浏览器发起的请求,请求载体的身份标识为浏览器。 User-Agent检测:网站通过

  • requests的get请求url参数、url重定向处理及cookies

    需求:在百度搜索www.python66.com,然后将搜索结果保存到文件bd_python66.html 百度搜索的url:https://www.baidu.com/s?wd=搜索词 解决:利用params参数,代码如下: # -*- coding: utf-8 -*-import requestsim

  • requests的post请求提交表单、json串和文件数据讲解

    HTTP协议中没有规定post提交的数据必须使用什么编码方式,服务端根据请求头中的 Content-Type 字段来获取编码方式,再对数据进行解析。具体的编码方式包括如下: - application/x-www-form-

  • requests的ssl证书验证、身份认证、cert文件证书

    NO1: Requests 可以为 HTTPS 请求验证 SSL 证书,就像 web 浏览器一样。SSL 验证默认是开启的,如果证书验证失败,Requests 会抛出 SSLError。在该域名requestb.in上我没有设置 SSL,所以失败了。代

  • requests加代理ip参数讲解

    代理 如果需要使用代理,你可以通过为任意请求方法提供proxies参数来配置单个请求: 你也可以通过环境变量HTTP_PROXY和HTTPS_PROXY来配置代理。 若你的代理需要使用HTTP Basic Auth,可以使用

  • requests二进制响应内容、json响应内容、原始响应

    http://2.python-requests.org/zh_CN/latest/user/quickstart.html#id4

  • python采集百度PC搜索结果页真实url

    不同人做seo有不同的思路,所以总有些乱七八糟的需求,比如采集百度搜索结果页的真实url。很多SEO工具实现的过程也需要采集真实url,下面的代码就是采集百度PC排名的真实url。 1、准

  • python多线程采集百度PC下拉词

    下拉词是扩词一个重要的渠道,市面上还有刷百度下拉词的,所以百度下拉词的作用不必多说。如何批量获取百度下拉词呢? 百度PC下拉词采集的脚本如下: 1、准备关键词文件kwd.txt。

  • python多线程采集百度pc相关搜索词

    相关搜索词词是扩词一个重要的渠道。如何批量获取百度相关搜索词呢? 百度PC相关搜索词采集的脚本如下: 1、准备关键词文件kwd.txt。(一行一个关键词) 2、结果会存储为bdpc_xg.tx

  • python查询百度PC域名首页覆盖率

    在SEO人员那里,判断一个行业哪些站做的好,有一个大众比较认可的思路。找一批行业词,查询每个词百度排名前10的url,然后提取下来,最后统计下哪个域名出现次数多。出现次数多

  • python百度PC多站点分关键词类别排名监控

    在SEO人员那里,判断一个行业哪些站做的好,有一个大众比较认可的思路。找一批行业词,查询每个词百度排名前10的url,然后提取下来,最后统计下哪个域名出现次数多。出现次数多

  • python多线程百度PC查询url是否有收录且索引

    一个url只有被收录且建立索引后才有可能获得流量,只有收录没有索引就无法通过检索词检索到。通常判断收录的方式是直接搜索该url看是否收录,而判断建立索引的方式是搜索该url的

  • python多线程百度PC关键词和url一对一排名查询

    查询关键词排名有两种,第一种是提供url和关键词查看是否有排名,第二种是提供关键词查看某个域名下哪个url有排名,这里提供第一种方式的脚本。其中的注意事项如下: 1、准备关

  • python多线程百度PC指定域名查询关键词排名

    查询关键词排名有两种,第一种是指定url和关键词查看是否有排名,第二种是提供关键词查看某个域名下哪个url有排名,这里提供第二种方式的脚本。其中的注意事项如下: 1、准备关

  • python百度mo域名首页覆盖率查询

    我们之前写过百度PC关键词覆盖率查询的代码,本文写百度MO端的。原理都是一样的! SEO人员判断一个行业哪些站做的好,会采取一个思路。找一批行业词,查询每个词百度排名前10的

  • python百度mo端多站点分关键词类别排名监控

    SEO人员判断一个行业哪些站做的好,会采取一个思路。找一批行业词,查询每个词百度排名前10的url,然后提取下来,最后统计下哪个域名出现次数多。出现次数多的几个域名就是这个

  • selenium是什么?selenium历史版本介绍

    1、selenium是什么 Selenium是什么?Selenium 官方有一个很经典的回答:自动化操作的浏览器,就是这样做你想要做的事情,一切取决于你。 Selenium最早是为了测试浏览器、网页而诞生的,是

  • selenium学习什么?selenium学习方法及内容

    一:selenium学习什么? 你用浏览器操作什么那么学习selenium就学习什么! 但是本栏目是面向爬虫的selenium课程,所以更多的倾向于爬虫,自动化测试类的偏少!测试和爬虫是2个方向。

  • selenium各种坑和bug真实记录

    selenium很笨重并且有各种奇葩问题,鄙人在真实的使用之中搜集了一些奇葩问题供大家参照!我用的事selenium3.14版本。 须知:selenium遇见的坑很多是和webdriver和浏览器的版本有关系,这

  • selenium、webdriver及浏览器的关系及对应版本安装

    selenkium支持多种浏览器,包括Chrome,Safari,Firefox、Edge 等,我们以Chrome浏览器为例学习。先完成以下3步: 1 selenium安装 安装selenium和安装requests或者其他库一样,直接pip命令完成就行。

  • selenium启动禁用图片,UA,窗口,无头模式,手机模式

    本节测试下selenium启动浏览器的一些配置参数,比如UA信息,模拟手机,是否加载图片等。首先找到可以检测浏览器UA信息及屏幕分辨率的网站 http://www.sunchateau.com/free/UA.htm,打开该网站

  • selenium元素等待强制等待、显式等待、隐式等待详

    之前的脚本selenium打开网页后会强制sleep几秒然后退出,如果代码层面出现了quit(),有时候网页未加载完完浏览器就退出了。所以才要强制等待!sleep就是强制等待。 但是每个网页加载时

  • 强制等待、显式等待、隐式等待代码示例

    场景: 1.打开百度,等待输入框元素和搜搜按钮出现(输入框和搜索按钮出现才说明网页加载好了) 2.输入www.pythjon66.com,点击搜索 3.在搜索结果页等待下一页这个元素出现(出现下一页的

  • selenium元素定位的8种方式及其变形写法

    所谓元素定位就是在html源码中去找目标元素,html源码有很多特征根据这些特征,Selenium提供了8种定位方式。 (如果不知道id 、class name这些是啥,请补充基本的html css知识) id(id属性

  • selenium打开天眼查实现自动搜索查找功能

    上一篇我们从概念上感受了元素定位,这次我们实际拿个网站练练手,就用天眼查这个站来做吧。 1、打开天眼查, 2、定位到输入框,输入垃圾seo; 3、定位到搜索按钮,点击搜索 与上

  • selenium通过js定位元素及元素赋值

    selenium可以执行js代码,只需要一句话即可: driver.execute_script(input_js) 鉴于这个特点我们就可以利用js来操作元素比如实现元素定位、输出文字等,但是前提是对js的DOM操作有所了解,对

  • try excep在for循环中的使用易错点

    当for循环遇到try except应该如何正确使用呢?有些同学在写程序的时候懒省事直接把try语句写在了for循环的外层,这样一来可能造成程序运行并非你的预期。 比如现在有个变量num,有个列

  • 函数嵌套try except异常的传递

    上节课我们介绍了多个try嵌套后异常的传递效果。现在思考下如果异常是在一个函数中产生的,但是这个函数被其他函数嵌套调用了。比如函数A有一个异常,但是函数B中调用了函数A,

  • try except嵌套之异常的传递

    如果在程序中发生了try嵌套,那么如果里面的try没有捕获到这个异常,外面的try就会接收到这个异常,然后进行处理,如果外边的try依然没有捕获到,那么再往外进行传递。 # -*- codin

  • try except else finally

    实际上,python中一个完整的异常处理语句是try except else finally。在程序中,如果一个段代码必须要执行,即无论异常是否产生都要执行,那么此时就需要使用finally。try except else finally可

  • python的try except else详解及易错点

    python异常处理中,在try except的基础上还提供了else代码块,如果try代码块中的程序未发生异常,执行完毕后会继续执行else代码块的内容。如果try代码块部分发生异常,则进入except部分处

  • python内置标准异常及继承关系

    面向对象编程中才会有类和对象的概念,才会诞生继承的概念,此处学习python内置的异常类会稍微涉及些类的知识。如果不明白不用担心先在大脑中有个印象后续再慢慢了解。 此时此刻

  • try except Exception 异常处理

    上节课我们知道通过except 可以捕获异常,但是问题在于python的异常种类非常多,我们写了一篇满满当当的代码后也不知道他具体可能会抛哪些异常,只是靠一个个的except来手写可能的异

  • try except(多个except)多异常处理

    在python中,try except是基本的捕获并处理异常的语句,try except语句里try代码块写一个即可,except 代码块可以写多个,每个 except 块都可以参与处理1个或者多个异常。 try except语法很灵活

  • 什么是异常?异常和错误的区别?为什么用异常

    在写程序的时候可能会犯错,有些错是语法层面的,无法去执行,这就是错误。有些错误语法上符合规范,但由于自身逻辑失误或者其他原因造成运行时出现故障,这就是异常,异常又

  • 列表推导式、集合推导式、字典推导式

    python语法简洁,推导式就是一个很好的体现。 推导式(又称解析式)是 Python 独有的一种特性。使用推导式可以从一个数据序列构建一个新的数据序列。推导式从外形上来看像是for循环

  • 疑难杂症
  • Pandas教程
  • openpyxl教程
  • javascript教程

网友热评