import requests
class Login(object):
def __init__(self):
self.url = 'http://www.renren.com/PLogin.do'
self.headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36"
}
self.data = {
'email': '你自己的账号',
'password': '你自己的密码'
}
def login(self):
# 1\.创建session对象,可以保存Cookie值
session = requests.session()
# 2.发送附带用户名和密码的请求,并获取登录后的Cookie值,保存在ssion里
session.post(self.url, headers=self.headers, data=self.data)
# 拿到Cookie以后就可以进行其他的请求,还是要是用我们创建好的session对象
url = 'http://www.renren.com/519394896/profile'
data = session.get(url, headers=self.headers).content
print(data.decode('utf-8'))
def start_work(self):
self.login()
if __name__ == '__main__':
spider = Login()
spider.start_work()

前端这个位置就不做分析了,就是一个简单的form表单,已经在图上做标识。不同的网站,都是不一样的建议使用抓包工具。