Python GUI教程(三):在GUI窗口中进行布局管理

在上一篇文章中,我们在窗口中添加了菜单栏和状态栏,并在菜单栏的菜单中绑定了两个行为,其代码如下: 添加Label标签部件 在本篇中,我们继续学习PyQt5的使用——在窗口中添加布局部件,来对窗口内的元素进行布局。 我们先在窗口中添加一个标签…

Python GUI教程(二):添加窗口小部件到图形用户界面GUI中

上一篇中,我们创建的GUI程序只有一个空空的窗口,在这一篇中,我们: 添加一个状态栏小部件到GUI中; 添加一个菜单栏到GUI中; 绑定一个事件到一个菜单按钮来实现关闭窗口。 一、面向对象化 前面的例子中,我们使用的是面向函数的编程方式。P…

Python GUI教程(一):在PyQt5中创建第一个GUI图形用户界面

一、第一个GUI 首先,我们使用pyqt5的窗口小部件创建一个最基本的GUI: 运行程序,自动生成一个什么都没有的原始窗口: 在上面的程序中,我们首先引用了需要的模块:sys和pyqt5的QtWidgets模块: sys模块提供了访问由解释…

利用Python打造短链服务(一)

一、越来越长的网址与短链服务 互联网发展愈快,功能越多,有些网址也越来越长,如果仅仅是浏览还好,涉及到传播,一大串的网址分发容易出错也不易推广。 淘宝上的一个活动介绍页 而且,有些互联网巨头严防死守竞争对手的的链接出现在自家的产品里,用尽一…

可能是比Python更方便的词云制作了

一、使用Python制作词云 在Python中,利用wordcloud库可以很轻松的绘制一个词云。 1、引入模块 2、实例化一个词云 3、导入文本 4、生成词云 5、显示词云 简单的几行代码,几个步骤,一个词云图片就出来了 《习近平:坚持中…

Python机器学习实战—使用朴素贝叶斯进行垃圾短信识别

一、引子 现在的很多手机管理软件都有垃圾短信拦截的功能,很智能很贴心是不是 嗯~ o( ̄▽ ̄)o 对于经常被垃圾短信骚扰的人来说,很是有用。(๑•̀ㅂ•́)و✧ 但是很多的拦截软件在拦截到垃圾短信之后……又发个通知提示拦截到了垃圾短信╮(﹀…

从数据爬取到机器学习——标题党,你的标题值几何

一、前言: 听说自媒体火了 听说自媒体平台多了 听说自媒体平台补贴高了 听说搞自媒体的人都赚翻了 …… 我也想不撸码,投身于自媒体行业去~( ̄▽ ̄~)(~ ̄▽ ̄)~ 二、引子: 前段时间拿到一个自媒体平台伪原创的采集器,嗯,长下面那样: 某…

Python快速搭建会学习的微信聊天机器人

最近微软小冰和QQ小冰又火了一把,对于聊天机器人大家都是很有兴趣。 今天分享一个快速搭建的微信聊天机器人。 依赖于两个开源项目: ChatterBot 一个基于机器学习的聊天机器人 ItChat 微信号接口 原理: 1、利用ItChat模块…

10行Python搞定微信公众号邮箱检测

微信公众号的注册需要使用邮箱,而一个邮箱又只能注册一个微信公众号。有时候注册管理的公众号多了,新注册公众号时,就不记得自己的哪些邮箱已经注册了,哪些没注册。 微信公众号的注册页面本身是提供了邮箱的检测的。 我们使用它的接口,用Python来…

使用Django实现微信公众号用户openid登录认证

最近在用Django做一个小项目,需要将微信的用户与网站的用户进行关联,由于是微信的订阅号,没有oauth网页授权的权限,只能退而求其次,在响应中获取用户的openid,来唯一的标识用户。 Django中用户的模型继承和扩展于Abstrac…

Python爬虫入门实战八:数据储存——MongoDB与MySQL

好久没更新了,今天填一个坑。 前面的文章里写的爬虫都是直接把爬取的数据打印出来。在实际的应用中,当然不能这么做,我们需要将数据存储起来。存储数据的方式有很多中,比如存储在文本文件中,或者是存储在数据库中。 为了使用数据的便捷性,我们选择将数…

Python爬虫入门实战七:使用Selenium--以抓取QQ空间好友说说为例

前面我们接触到的,都是使用requests+BeautifulSoup组合对静态网页进行请求和数据解析,若是JS生成的内容,也介绍了通过寻找API借口来获取数据。 但是有的时候,网页数据由JS生成,API借口又死活找不着或者是API借口地址…

【我爱背单词】用Python提炼3000英语新闻高频词汇

学英语,无论目的何在,词汇量总是一个绕不过去的坎,没有足够的词汇量,都难以用文法来组词造句。 前段时间,恶魔的奶爸提供了几份偏向于各个领域的高频词汇,很是不错。 最近用Python写爬虫入门教程的时候,碰到过几个英文网站,便有了统计一份网站…

Python爬虫实战入门六:提高爬虫效率—并发爬取智联招聘

之前文章中所介绍的爬虫都是对单个URL进行解析和爬取,url数量少不费时,但是如果我们需要爬取的网页url有成千上万或者更多,那怎么办? 使用for循环对所有的url进行遍历访问? 嗯,想法很好,但是如果url过多,爬取完所有的数据会不会太…