当前位置: 代码迷 >> 综合 >> 常用模块之json,pickle,hashlib,configparser,logging
  详细解决方案

常用模块之json,pickle,hashlib,configparser,logging

热度:2   发布时间:2023-11-22 15:46:56.0

1.序列化模块之json

为什么要序列化:?

1.持久保持数据
程序运行产生的一些数据需要被保存,如果我们玩游戏时,游戏账户的等级,金币等等
2.跨平台交互
分项目开发产生的数据交互

json可以多种语言交互,但json对于python所独特的内容不能够进行存储

import json
json.dumps()
json.loads()
json.load() # 针对文件操作
json.dump() # 针对文件操作
import json
a = {
    'a':1}
b = json.dumps(a)
c = json.loads(b)
print(b)
print(c)
# {"a": 1}
# {'a': 1}

2.序列化模块之pickle

能够将python特有的类对象等进行数据存储,用法与json一致

import pickleclass Parent:@staticmethoddef save(obj):with open('abc.pkl', 'wb') as f:pickle.dump(obj,f)class Class(Parent):def __init__(self, username, password):self.username = usernameself.password = passworddef save(self):super().save(self)class1 = Class('123','123')
class1.save()with open('abc.pkl','rb') as f:obj = pickle.load(f)
print(obj.username)

3.hashlib方法

用来对密码,文件等加密以及验证完整性

hash算法的三个特点:1.输入固定的内容会的到固定的hash值2.hash密文不能够被反解3.hash值的长短取决于算法,而不取决于输入的内容的大小
# 具体用法
import hashlib
md5 = hashlib.md5()
md5.update('my name is abc'.encode('utf-8'))  # 在被取出以会不断叠加update的值进行凭拼接
c = md5.hexdigest()
print(c)

4. configarser模块(配置文件模块)

配置文件的后缀名通常为采cfg,ini等等

# 配置文件信息如下
[section1]
a = 1
b = 1.2
c = true
d = abec[section2]
f : sb
# coding:utf-8
import configparserconfig = configparser.ConfigParser()  # 调用对象
config.read('配置文件.cfg')  # 读取配置文件
res = config.sections()  # 读取配置的所有标题
print(res)
option = config.options('section1') # 获取某一区域下的所有关键字
print(option)
item_list = config.items('section1') # 如果不传入参数则会返回一个对象
# 传入参数将配置文件中的键值对以元组的方式返回
print(item_list)val = config.get('section1','a')
print(val,type(val))  # get方法只能获取字符串形式
va11 = config.getint('section1','a')
print(va11,type(va11))
# 获取了int类型
va111 = config.getboolean('section1','c')
print(va111,type(va111))
# 获取了布尔类型
va1111 = config.getfloat('section1','b')
print(va1111,type(va1111))
# 获取了浮点类型的数据

5. logging日志记录模块

日志级别

	1.CRITICAL = 50  # FATAL = CRITICAL2.ERR0R = 40 3.WARNNING = 30  # WARN - WARNING4.INF05.DEBUG 

日志级别为warning,默认打印到终端

import logginglogging.debug('调试debug')
logging.info('消息info')
logging.warning('警告warn')
logging.error('错误error')
logging.critical('严重critical')''' WARNING:root:警告warn ERROR:root:错误error CRITICAL:root:严重critical '''

配置文件的更改

可在logging.basicConfig()函数中通过具体参数来更改logging模块默认行为,可用参数有
filename:用指定的文件名创建FiledHandler(后边会具体讲解handler的概念),这样日志会被存储在指定的文件中。
filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“a”还可指定为“w”。
format:指定handler使用的日志显示格式。 
datefmt:指定日期时间格式。 
level:设置rootlogger(后边会讲解具体概念)的日志级别 
stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件,默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略。#格式
%(name)s:Logger的名字,并非用户名,详细查看%(levelno)s:数字形式的日志级别%(levelname)s:文本形式的日志级别%(pathname)s:调用日志输出函数的模块的完整路径名,可能没有%(filename)s:调用日志输出函数的模块的文件名%(module)s:调用日志输出函数的模块名%(funcName)s:调用日志输出函数的函数名%(lineno)d:调用日志输出函数的语句所在的代码行%(created)f:当前时间,用UNIX标准的表示时间的浮 点数表示%(relativeCreated)d:输出日志信息时的,自Logger创建以 来的毫秒数%(asctime)s:字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒%(thread)d:线程ID。可能没有%(threadName)s:线程名。可能没有%(process)d:进程ID。可能没有%(message)s:用户输出的消息logging.basicConfig()

logging模块的Formatter,Handler,Logger,Filter对象

#logger:产生日志的对象#Filter:过滤日志的对象#Handler:接收日志然后控制打印到不同的地方,FileHandler用来打印到文件中,StreamHandler用来打印到终端#Formatter对象:可以定制不同的日志格式对象,然后绑定给不同的Handler对象使用,以此来控制不同的Handler的日志格式

Logger与Handler的级别

logger是第一级过滤,然后才能到handler,我们可以给logger和handler同时设置level,但是需要注意的是

Logger is also the first to filter the message based on a level — if you set the logger to INFO, and all handlers to DEBUG, you still won't receive DEBUG messages on handlers — they'll be rejected by the logger itself. If you set logger to DEBUG, but all handlers to INFO, you won't receive any DEBUG messages either — because while the logger says "ok, process this", the handlers reject it (DEBUG < INFO).#验证
import loggingform=logging.Formatter('%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s',datefmt='%Y-%m-%d %H:%M:%S %p',)ch=logging.StreamHandler()ch.setFormatter(form)
# ch.setLevel(10)
ch.setLevel(20)l1=logging.getLogger('root')
# l1.setLevel(20)
l1.setLevel(10)
l1.addHandler(ch)l1.debug('l1 debug')重要,重要,重要!!!

日志配置的字典

""" logging配置 """import os# 1、定义三种日志输出格式,日志中可能用到的格式化串如下
# %(name)s Logger的名字
# %(levelno)s 数字形式的日志级别
# %(levelname)s 文本形式的日志级别
# %(pathname)s 调用日志输出函数的模块的完整路径名,可能没有
# %(filename)s 调用日志输出函数的模块的文件名
# %(module)s 调用日志输出函数的模块名
# %(funcName)s 调用日志输出函数的函数名
# %(lineno)d 调用日志输出函数的语句所在的代码行
# %(created)f 当前时间,用UNIX标准的表示时间的浮 点数表示
# %(relativeCreated)d 输出日志信息时的,自Logger创建以 来的毫秒数
# %(asctime)s 字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒
# %(thread)d 线程ID。可能没有
# %(threadName)s 线程名。可能没有
# %(process)d 进程ID。可能没有
# %(message)s用户输出的消息# 2、强调:其中的%(name)s为getlogger时指定的名字
standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][log_name:%(name)s][%(filename)s:%(lineno)d]' \'[%(levelname)s][%(message)s]'simple_format = '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s'test_format = '%(asctime)s] %(message)s'# 3、日志配置字典
LOGGING_DIC = {
    'version': 1,'disable_existing_loggers': False,'formatters': {
      # 定义类别给handlers使用'standard': {
    'format': standard_format},'simple': {
    'format': simple_format},'test': {
    'format': test_format},},'filters': {
    },'handlers': {
       # 日志的接受者,输出到不同位置#打印到终端的日志'console': {
    'level': 'DEBUG','class': 'logging.StreamHandler',  # 打印到屏幕'formatter': 'simple'},#打印到文件的日志,收集info及以上的日志'default': {
    'level': 'DEBUG','class': 'logging.handlers.RotatingFileHandler',  # 保存到文件,日志轮转'formatter': 'standard',# 可以定制日志文件路径# BASE_DIR = os.path.dirname(os.path.abspath(__file__)) # log文件的目录# LOG_PATH = os.path.join(BASE_DIR,'a1.log')'filename': 'a1.log',  # 日志文件'maxBytes': 1024*1024*5,  # 日志大小 5M'backupCount': 5,  #轮转过5次 过旧信息删除'encoding': 'utf-8',  # 日志文件的编码,再也不用担心中文log乱码了},'other': {
    'level': 'DEBUG','class': 'logging.FileHandler',  # 保存到文件'formatter': 'test','filename': 'a2.log','encoding': 'utf-8',},},'loggers': {
      # 日志的产生者,打印日志传递给handlers#logging.getLogger(__name__)拿到的logger配置'': {
    'handlers': ['default', 'console'],  # 传递给两种handlers的接受者,这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕'level': 'DEBUG', # loggers(第一层日志级别关限制)--->handlers(第二层日志级别关卡限制) 一层筛选后向第二层传递'propagate': False,  # 默认为True,向上(更高level的logger)传递,通常设置为False即可,否则会一份日志向上层层传递},'专门的采集': {
    'handlers': ['other',],'level': 'DEBUG','propagate': False,},},
}
如果logger内部有一个''的键值,则调用时可以输入任意的值即使没有这个配置.
日志配置字典LOGGING_DIC

使用

import settings# !!!强调!!!
# 1、logging是一个包,需要使用其下的config、getLogger,可以如下导入
# from logging import config
# from logging import getLogger# 2、也可以使用如下导入
import logging.config # 这样连同logging.getLogger都一起导入了,然后使用前缀logging.config.# 3、加载配置
logging.config.dictConfig(settings.LOGGING_DIC)# 4、输出日志
logger1=logging.getLogger('用户交易') # 如果无对应名,调用kongkey ,任意名称 调用产生者
logger1.info('i am back')  产生内容# logger2=logging.getLogger('专门的采集') # 名字传入的必须是'专门的采集',与LOGGING_DIC中的配置唯一对应
# logger2.debug('专门采集的日志')
  相关解决方案