0

0

如何用Python实现一个LRU缓存?

狼影

狼影

发布时间:2025-09-05 13:54:02

|

720人浏览过

|

来源于php中文网

原创

答案:LRU缓存通过字典和双向链表结合实现,字典提供O(1)查找,双向链表维护访问顺序,确保插入、删除和访问更新均为O(1)操作。每次get或put操作都会将对应节点移至链表头部,当缓存满时,尾部节点被移除,从而保证最久未使用项优先淘汰。虚拟头尾节点简化边界处理,而OrderedDict虽可替代实现,但自定义方式更利于理解底层机制。

如何用python实现一个lru缓存?

在Python中实现LRU(Least Recently Used)缓存,核心思路在于巧妙地结合哈希表(Python的字典)和双向链表。字典确保我们能以O(1)的平均时间复杂度快速查找缓存中的任何项,而双向链表则负责维护项的访问顺序,使得最近使用的项总在链表头部,最久未使用的项(即待淘汰项)总在链表尾部,这样无论是更新访问顺序还是进行淘汰,都能保持高效。

解决方案

class Node:
    """双向链表节点定义"""
    def __init__(self, key, value):
        self.key = key
        self.value = value
        self.prev = None
        self.next = None

class LRUCache:
    """
    LRU缓存实现,结合字典和双向链表
    """
    def __init__(self, capacity: int):
        if capacity <= 0:
            raise ValueError("缓存容量必须大于0")
        self.capacity = capacity
        self.cache = {}  # 存储key到Node的映射,用于O(1)查找
        self.head = Node(0, 0) # 虚拟头节点
        self.tail = Node(0, 0) # 虚拟尾节点
        self.head.next = self.tail
        self.tail.prev = self.head

    def _add_node(self, node):
        """将节点添加到链表头部(表示最近使用)"""
        node.prev = self.head
        node.next = self.head.next
        self.head.next.prev = node
        self.head.next = node

    def _remove_node(self, node):
        """从链表中移除指定节点"""
        prev_node = node.prev
        next_node = node.next
        prev_node.next = next_node
        next_node.prev = prev_node

    def _move_to_head(self, node):
        """将已存在的节点移动到链表头部"""
        self._remove_node(node)
        self._add_node(node)

    def get(self, key: int) -> int:
        """
        获取缓存项。如果存在,将其移动到链表头部并返回其值;否则返回-1。
        """
        if key not in self.cache:
            return -1

        node = self.cache[key]
        self._move_to_head(node)
        return node.value

    def put(self, key: int, value: int) -> None:
        """
        放入缓存项。
        如果key已存在,更新其值并将其移动到链表头部。
        如果key不存在:
            如果缓存未满,创建新节点并添加到链表头部。
            如果缓存已满,移除链表尾部(最久未使用)的节点,再添加新节点到头部。
        """
        if key in self.cache:
            node = self.cache[key]
            node.value = value
            self._move_to_head(node)
        else:
            new_node = Node(key, value)
            self.cache[key] = new_node
            self._add_node(new_node)

            if len(self.cache) > self.capacity:
                # 移除最久未使用的节点 (tail.prev)
                lru_node = self.tail.prev
                self._remove_node(lru_node)
                del self.cache[lru_node.key]

LRU缓存为何偏爱双向链表而非普通列表?

在我看来,LRU缓存选择双向链表,这背后是性能和操作复杂度的深思熟虑。我们都知道,Python的

list
在末尾添加(
append
)和删除(
pop
)通常是O(1)操作,但如果在中间或头部进行插入或删除,其时间复杂度就直接飙升到O(N),因为需要移动后续所有元素。对于LRU缓存来说,每次访问一个元素,都需要将其“提升”到“最近使用”的位置,这通常意味着从当前位置删除,再插入到链表头部。如果用普通列表,这个“提升”操作会非常昂贵。

想象一下,我们缓存了1000个项目,突然访问了第500个。如果用普通列表,我们得先找到它(O(N)),然后删除它(O(N)),再把它加到列表开头(又是一个O(N)),这简直是性能灾难。而双向链表就不同了。每个节点都存储了指向前一个和后一个节点的引用。这意味着一旦我们通过字典以O(1)时间找到某个节点,我们就可以在O(1)时间内完成它的删除(只需修改它前后节点的

next
prev
指针)和插入(同样是修改几个指针)。这种效率上的巨大差异,正是双向链表在LRU实现中不可或缺的原因。它让我们的缓存操作,特别是“更新访问顺序”这一核心逻辑,保持了极高的效率。

如何处理缓存容量限制和淘汰策略?

处理LRU缓存的容量限制和淘汰策略,是整个实现的关键。我的做法是,在

LRUCache
__init__
方法中,我们首先设定一个
capacity
。这个
capacity
就是缓存能容纳的最大项目数。

立即学习Python免费学习笔记(深入)”;

put
方法被调用时,我们首先检查要插入的
key
是否已经存在于
self.cache
字典中。

html5动态显示媒体视频播放器代码
html5动态显示媒体视频播放器代码

html5动态显示媒体视频播放器代码,这个我们在企业网站或者教学网站会用到,教学网站,有一些视频要播放,那么就会用到播放器,可以参考源码,看看播放器的效果是如何实现的,php中文网推荐下载!

下载
  1. 如果
    key
    已存在
    :这表示我们只是更新一个现有项。在这种情况下,我们更新其
    value
    ,然后最关键的一步是调用
    _move_to_head
    方法,将其对应的节点从链表当前位置移除,再添加到链表的头部。这反映了它刚刚被“使用”了,所以现在是最新的。
  2. 如果
    key
    不存在
    :这是一个全新的项。我们首先创建一个新的
    Node
    ,然后将其添加到
    self.cache
    字典中,并调用
    _add_node
    方法将其添加到链表的头部。 紧接着,我们就需要检查缓存是否“超载”了。我们通过
    len(self.cache) > self.capacity
    来判断当前缓存中的项目数量是否超过了设定的
    capacity
    。如果超载了,这意味着我们必须淘汰一个项目来为新项目腾出空间。LRU的策略是淘汰“最久未使用的”项目。在我们的双向链表中,这个项目就是紧挨着虚拟尾节点
    self.tail
    的前一个节点(即
    self.tail.prev
    )。我们称之为
    lru_node
    。我们调用
    _remove_node(lru_node)
    将其从链表中移除,然后通过
    del self.cache[lru_node.key]
    将其从字典中也删除,完成彻底的淘汰。

这种机制确保了缓存始终在容量限制内运行,并且每次淘汰都严格遵循了“最久未使用”的原则。虚拟头尾节点的设计,更是简化了链表边缘情况的处理,让代码逻辑更清晰。

Python内置的
OrderedDict
能否替代自定义LRU实现?

当然可以,而且在很多简单场景下,使用Python标准库

collections
模块中的
OrderedDict
来实现LRU缓存会显得非常简洁高效。
OrderedDict
本身就维护了键值对的插入顺序。它的
move_to_end
方法和在插入时检查容量并删除最老项的机制,与LRU缓存的逻辑高度契合。

一个基于

OrderedDict
的LRU实现大致会是这样:

from collections import OrderedDict

class LRUCacheOrderedDict:
    def __init__(self, capacity: int):
        self.capacity = capacity
        self.cache = OrderedDict()

    def get(self, key: int) -> int:
        if key not in self.cache:
            return -1
        self.cache.move_to_end(key) # 将key移动到末尾,表示最近使用
        return self.cache[key]

    def put(self, key: int, value: int) -> None:
        if key in self.cache:
            self.cache.move_to_end(key) # 存在则移动到末尾
        self.cache[key] = value # 更新或添加
        if len(self.cache) > self.capacity:
            self.cache.popitem(last=False) # 移除最老(最久未使用)的项

这种实现方式确实非常优雅,代码量大大减少,并且由于

OrderedDict
是用C实现的,其内部操作通常效率很高。

不过,话说回来,尽管

OrderedDict
能很好地完成任务,但它也隐藏了LRU缓存底层双向链表的精妙机制。对于初学者或者需要深入理解数据结构和算法的开发者来说,自己动手实现一个基于字典和双向链表的LRU缓存,就像我们前面做的那样,其教育价值是
OrderedDict
无法替代的。它能让我们更清晰地看到每个操作是如何影响底层数据结构的,以及为什么这些数据结构的选择如此关键。在面试或者需要对性能有极致掌控的场景下,理解并能手写底层逻辑,往往比仅仅会用库函数更能体现技术深度。所以,选择哪种方式,最终还是取决于具体的需求:追求简洁快速就用
OrderedDict
,追求深入理解和精细控制则倾向于自定义实现。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
treenode的用法
treenode的用法

​在计算机编程领域,TreeNode是一种常见的数据结构,通常用于构建树形结构。在不同的编程语言中,TreeNode可能有不同的实现方式和用法,通常用于表示树的节点信息。更多关于treenode相关问题详情请看本专题下面的文章。php中文网欢迎大家前来学习。

538

2023.12.01

C++ 高效算法与数据结构
C++ 高效算法与数据结构

本专题讲解 C++ 中常用算法与数据结构的实现与优化,涵盖排序算法(快速排序、归并排序)、查找算法、图算法、动态规划、贪心算法等,并结合实际案例分析如何选择最优算法来提高程序效率。通过深入理解数据结构(链表、树、堆、哈希表等),帮助开发者提升 在复杂应用中的算法设计与性能优化能力。

17

2025.12.22

深入理解算法:高效算法与数据结构专题
深入理解算法:高效算法与数据结构专题

本专题专注于算法与数据结构的核心概念,适合想深入理解并提升编程能力的开发者。专题内容包括常见数据结构的实现与应用,如数组、链表、栈、队列、哈希表、树、图等;以及高效的排序算法、搜索算法、动态规划等经典算法。通过详细的讲解与复杂度分析,帮助开发者不仅能熟练运用这些基础知识,还能在实际编程中优化性能,提高代码的执行效率。本专题适合准备面试的开发者,也适合希望提高算法思维的编程爱好者。

25

2026.01.06

treenode的用法
treenode的用法

​在计算机编程领域,TreeNode是一种常见的数据结构,通常用于构建树形结构。在不同的编程语言中,TreeNode可能有不同的实现方式和用法,通常用于表示树的节点信息。更多关于treenode相关问题详情请看本专题下面的文章。php中文网欢迎大家前来学习。

538

2023.12.01

C++ 高效算法与数据结构
C++ 高效算法与数据结构

本专题讲解 C++ 中常用算法与数据结构的实现与优化,涵盖排序算法(快速排序、归并排序)、查找算法、图算法、动态规划、贪心算法等,并结合实际案例分析如何选择最优算法来提高程序效率。通过深入理解数据结构(链表、树、堆、哈希表等),帮助开发者提升 在复杂应用中的算法设计与性能优化能力。

17

2025.12.22

深入理解算法:高效算法与数据结构专题
深入理解算法:高效算法与数据结构专题

本专题专注于算法与数据结构的核心概念,适合想深入理解并提升编程能力的开发者。专题内容包括常见数据结构的实现与应用,如数组、链表、栈、队列、哈希表、树、图等;以及高效的排序算法、搜索算法、动态规划等经典算法。通过详细的讲解与复杂度分析,帮助开发者不仅能熟练运用这些基础知识,还能在实际编程中优化性能,提高代码的执行效率。本专题适合准备面试的开发者,也适合希望提高算法思维的编程爱好者。

25

2026.01.06

append用法
append用法

append是一个常用的命令行工具,用于将一个文件的内容追加到另一个文件的末尾。想了解更多append用法相关内容,可以阅读本专题下面的文章。

344

2023.10.25

python中append的用法
python中append的用法

在Python中,append()是列表对象的一个方法,用于向列表末尾添加一个元素。想了解更多append的更多内容,可以阅读本专题下面的文章。

1073

2023.11.14

Python 自然语言处理(NLP)基础与实战
Python 自然语言处理(NLP)基础与实战

本专题系统讲解 Python 在自然语言处理(NLP)领域的基础方法与实战应用,涵盖文本预处理(分词、去停用词)、词性标注、命名实体识别、关键词提取、情感分析,以及常用 NLP 库(NLTK、spaCy)的核心用法。通过真实文本案例,帮助学习者掌握 使用 Python 进行文本分析与语言数据处理的完整流程,适用于内容分析、舆情监测与智能文本应用场景。

10

2026.01.27

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.3万人学习

Django 教程
Django 教程

共28课时 | 3.6万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号