本文目录一览:
微信被封号期间别人举报你会继续封号吗?
举报都是要经过腾讯审核的 确实违规才会被封号 甚至永久封号
微信官方告诉你为何会被封号
1“七底线”“九不准”,微信运营如何“防雷”
对于微信公众号的运营者们来说,健康的微信生态系统,方能实现“用户——产品——商业价值”的生生不息。早在去年8月份,国家互联网信息办公室就出台了《即时通信工具公众信息服务发展管理暂行规定》,而今年3月份又出台了《互联网用户账号名称管理规定》。这些规定给微信生态的治理提供了指导,让运营者们可以有效“防雷”。作为微信生态安全的宏观原则的“七条底线”和“九不准”,落地到具体的公众号运营和朋友圈使用,涵盖了三个层面:不被欢迎的内容、不被欢迎的行为以及微信公众平台赋予使用者的权利。
虽然“七底线”和“九不准”看似限定了公众平台的运营和朋友圈的使用,但微信团队坚持中立、平等、透明的原则,对每一个账号都依据规范进行严格审查。
2公众号运营与朋友圈使用:阶梯式处罚与划定“高压线”
微信生态安全的宏观法则落地到公众号运营和朋友圈使用,主要以“阶梯式处罚”与划定“高压线”为主。早在此前发布的《微信朋友圈使用规范》中,微信团队就推出了阶梯式处罚机制与举报申诉机制:
1、梯度封号,不同时间段的“关小黑屋”;
2、内容删除,删除违规内容,将视情节对该微信个人帐号进行警告;
3、封禁功能,限制或禁止使用部分或全部功能、帐号封禁直至注销;
4、惩罚公示,执行上述处罚并公告处理结果。
而微信平台运营规范,一方面是划定行为的“高压线”,另一方面是划定内容的“高压线”。
微信生态安全重点整顿治理的行为:
1、配合打击违法犯罪行为
2、治理淫秽色情低俗信息
3、整顿散布谣言的行为
4、严惩破坏规则的投机行为
如果用户发现“诱导分享”的行为,可以长按内容,在弹出的窗口中点击 “举报”或者 “投诉”;对于违反法律和微信用户协议的行为,一经发现,不仅删除违规内容,还要视情节对该微信个人账号进行警告、限制或禁止使用部分或全部功能、账号封禁直至注销的处罚,并公告处理结果。
3鼓励保护原创,打击侵权行为
一直在保护和鼓励原创的微信团队,推出更多细化、可执行的功能和制度,对抄袭侵权等行为“零容忍”。首先,微信团队区分了“首发”与“原创”的概念:“首发”并不能体现版权保护的目的,容易变成“抢发”,削弱自媒体人的创造力,影响优质原创内容的产生。同时明确了以下类型的文章不能申请原创保护:
(1)法律、法规,国家机关的决议、决定、命令和其他具有立法、行政、司法性质的文件,及其官方正式译文;
(2)时事新闻;
(3)历法、通用数表、通用表格和公式;
(4)纯粹用于营销文的章等。
其次,在打击侵权方面,微信团队按照五级阶梯处罚规范进行处罚,例如误用两次封禁功能,但抄袭一次就封禁功能等。
若个人用户遭到侵权,可电脑访问weixin110.qq.com进行投诉举报;公众账号被侵权,可通过电脑访问mp.weixin.qq.com投诉举报。
让公众号运营和朋友圈使用“干净”起来,是微信团队的态度和决心,也是每一个微信运营者的权利和义务。只有这样,“池水”才能变成一汪“活水”,微信的生态圈才能安全而健康。
如何黑掉微信公众号?
即使加到黑名单,也是能看到被拉黑以前的历史消息的,之后再群发的应该就全看不到了。
---------------------------------
试着拉了一个小号进黑名单,群发之后用小号登陆看,悲催的是虽然小号没有收到今天的消息,在查看历史消息的时候还有……
那么现在的问题来了,你可以建一个组,把你要黑的人之外的所有人都加到那个组里,然后每次群发,你只群发给那个组。这样可以确保要黑的人收不到消息,问题是所有人都看不了历史消息了。。。
如何抓取微信所有公众号最新文章
经常有朋友需要帮忙做公众号文章爬取,这次来做一个各种 *** 的汇总说明。
目前爬取微信公众号的 *** 主要有3种:
通过爬取第三方的公众号文章聚合网站
通过微信公众平台引用文章接口
通过抓包程序,分析微信app访问公众号文章的接口
通过第三方的公众号文章聚合网站爬取
微信公众号文章一直没有提供一个对外的搜索功能,直到2013年微信投资搜狗之后,搜狗搜索接入微信公众号数据,从此使用搜狗搜索就可以浏览或查询到相关公众号以及文章。
域名是:
可以直接搜索公众号或者文章的关键字,一些热门的公众号更新还是很及时的,几乎做到了和微信同步。
所以,爬一些热门公众号可以使用搜狗微信的接口来做,但是一些小众公众号是搜索不到的,而且搜狗的防爬机制更新的比较勤,获取数据的接口变化的比较快,经常两三个月就有调整,导致爬虫很容易挂,这里还是建议使用 selenium爬比较省心。另外搜狗对每个ip也有访问限制,访问太频ip会被封禁24小时,需要买个ip池来做应对。
还有一些其他公众号文章聚合网站(比如传送门)也都存在更新不及时或者没有收录的问题,毕竟搜狗这个亲儿子都不行。
通过微信公众平台引用文章接口
这个接口比较隐蔽而且没法匿名访问,所有得有一个公众号,建议新注册一个公众号比较好,免得被封。
下面开始具体步骤:首先登录自己的微信公众号,在进去的首页选择 新建群发,然后再点击 自建图文,在文章编辑工具栏中找到 超链接,如下图:
点击这个超链接按钮,就会弹出一个对话框,链接输入方式这一项选中 查找文章,如下图:
到这里就可以输入公众号的名字,回车之后微信就会返回相匹配的公众号列表,接着点击你想抓取的公众号,就会显示具体的文章列表了,已经是按时间倒序了,最新的文章就是之一条了。
微信的分页机制比较奇怪,每个公众号的每页显示的数据条数是不一样的,分页爬的时候要处理一下。
通过chrome分析 *** 请求的数据,我们想要的数据已经基本拿到了,文章链接、封面、发布日期、副标题等,如
由于微信公众平台登录验证比较严格,输入密码之后还必须要手机扫码确认才能登录进去,所以更好还是使用 selenium做自动化比较好。具体微信接口的分析过程我就不列了,直接贴代码了:
import re
import time
import random
import traceback
import requests
from selenium import webdriver
class Spider(object):
'''
微信公众号文章爬虫
'''
def __init__(self):
# 微信公众号账号
self.account = '286394973@qq.com'
# 微信公众号密码
self.pwd = 'lei4649861'
def create_driver(self):
'''
初始化 webdriver
'''
options = webdriver.ChromeOptions()
# 禁用gpu加速,防止出一些未知bug
options.add_argument('--disable-gpu')
# 这里我用 chromedriver 作为 webdriver
# 可以去 下载你的chrome对应版本
self.driver = webdriver.Chrome(executable_path='./chromedriver', chrome_options=options)
# 设置一个隐性等待 5s
self.driver.implicitly_wait(5)
def log(self, msg):
'''
格式化打印
'''
print('------ %s ------' % msg)
def login(self):
'''
登录拿 cookies
'''
try:
self.create_driver()
# 访问微信公众平台
self.driver.get('')
# 等待网页加载完毕
time.sleep(3)
# 输入账号
self.driver.find_element_by_xpath("./*//input[@name='account']").clear()
self.driver.find_element_by_xpath("./*//input[@name='account']").send_keys(self.account)
# 输入密码
self.driver.find_element_by_xpath("./*//input[@name='password']").clear()
self.driver.find_element_by_xpath("./*//input[@name='password']").send_keys(self.pwd)
# 点击登录
self.driver.find_elements_by_class_name('btn_login')[0].click()
self.log("请拿手机扫码二维码登录公众号")
# 等待手机扫描
time.sleep(10)
self.log("登录成功")
# 获取cookies 然后保存到变量上,后面要用
self.cookies = dict([[x['name'], x['value']] for x in self.driver.get_cookies()])
except Exception as e:
traceback.print_exc()
finally:
# 退出 chorme
self.driver.quit()
def get_article(self, query=''):
try:
url = ''
# 设置headers
headers = {
"HOST": "mp.weixin.qq.com",
"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.109 Safari/537.36"
}
# 登录之后的微信公众号首页url变化为:;lang=zh_CNtoken=1849751598,
# 从这里获取token信息
response = requests.get(url=url, cookies=self.cookies)
token = re.findall(r'token=(\d+)', str(response.url))[0]
time.sleep(2)
self.log('正在查询[ %s ]相关公众号' % query)
search_url = '?'
# 搜索微信公众号接口需要传入的参数,
# 有三个变量:微信公众号token、随机数random、搜索的微信公众号名字
params = {
'action': 'search_biz',
'token': token,
'random': random.random(),
'query': query,
'lang': 'zh_CN',
'f': 'json',
'ajax': '1',
'begin': '0',
'count': '5'
}
# 打开搜索微信公众号接口地址,需要传入相关参数信息如:cookies、params、headers
response = requests.get(search_url, cookies=self.cookies, headers=headers, params=params)
time.sleep(2)
# 取搜索结果中的之一个公众号
lists = response.json().get('list')[0]
# 获取这个公众号的fakeid,后面爬取公众号文章需要此字段
fakeid = lists.get('fakeid')
nickname = lists.get('nickname')
# 微信公众号文章接口地址
search_url = '?'
# 搜索文章需要传入几个参数:登录的公众号token、要爬取文章的公众号fakeid、随机数random
params = {
'action': 'list_ex',
'token': token,
'random': random.random(),
'fakeid': fakeid,
'lang': 'zh_CN',
'f': 'json',
'ajax': '1',
'begin': '0', # 不同页,此参数变化,变化规则为每页加5
'count': '5',
'query': '',
'type': '9'
}
self.log('正在查询公众号[ %s ]相关文章' % nickname)
# 打开搜索的微信公众号文章列表页
response = requests.get(search_url, cookies=self.cookies, headers=headers, params=params)
time.sleep(2)
for per in response.json().get('app_msg_list', []):
print('title --- %s' % per.get('title'))
print('link --- %s' % per.get('link'))
# print('cover --- %s' % per.get('cover'))
except Exception as e:
traceback.print_exc()
if __name__ == '__main__':
spider = Spider()
spider.login()
spider.get_article('python')
代码只是作为学习使用,没有做分页查询之类。实测过接口存在访问频次限制,一天几百次还是没啥问题,太快或者太多次访问就会被封24小时。