考虑充电需求的电动汽车行为策略研究综述

发布时间:2025-05-22 04:57

进行文献综述来构建研究框架 #生活技巧# #学习技巧# #学术研究指南#

2.  载客业务下的电动汽车行为策略研究

载客业务下的电动汽车行为策略研究由于需要考虑载客业务,相比于第1节充电行为策略研究,可执行的动作和状态空间都更加复杂。以载客业务类型将这一类研究分为共享出行和共享电动汽车/租车,以下分别进行介绍。

2.1  共享出行下的行为策略

共享出行框架下,平台一般对车队进行集中式调度,调度在云服务器上进行,平台中存在一个调度员负责进行订单的分配和调度。当完成订单时,车辆会获取平台给予的金钱奖励。车辆可采取的动作包括接单、充电、重定位等,共享出行下的行为策略讨论的是调度员如何合理安排充电、接单、重定位等动作以完成平台的目标。

2.1.1  订单派遣与充电协同策略

订单派遣与充电协同策略需要决定车队中每一辆车是执行接单动作还是充电动作。接单可以带来短期收益,而充电行为损害了短期收益,但使得电动汽车电量增加能够更多接单,增加了长期收益。另外,订单在时间分布上存在潮汐特征,即明显的高峰期和低谷期,在乘客高峰期充电会导致服务质量下降;在地点分布上,订单分布也有密集区域和稀疏区域。根据订单的特征设计高效的充电协同策略以最大化收益是解决该问题的难点。解决该问题一般包含2种思路:强化学习和订单分布驱动方法。表 3比较了订单派遣与充电协同策略文献。

表 3 订单派遣与充电协同策略文献比较

Table 3. Comparison of literatures on integration strategies of dispatching and charging

文献 优化目标 求解方法 特点 [33] 最小化乘客等待时间、行程电量损耗和车辆运营代价 V值估计算法 利用KM算法实现车辆与动作的匹配 [34] 最优的车队规模 近似动态规划算法 利用V值单调性加速收敛过程 [35] 最小化代价、最大化收入 教师-学生强化学习算法 可提供更快的决策速度和可解释性 [36] 最大化车队收入 深度Q学习算法 当新的订单到来就进行一次决策 [37] 最大化车队收入 异步学习算法 利用排队论计算乘客等待时间 [38] 最大化车队收入 深度Q学习算法 动作域考虑重定位 [40] 最大化服务数量、最小化代价 滚动域控制算法 主动充电以应对高峰期的客流 [41] 最大化车队长远收入 鲁棒优化 可计算最坏情况下的总收入 [42] 最小化因充电失去的订单数量和最大化充电后接单概率 基于帕累托最优的改进算法 决策时考虑订单空间分布,最大限度地保持车辆的服务连续性 [43] 最小化服务供需差和负能量的车辆数 基于电池耗尽所需时间的启发式算法 先进行宏观充电规划决策,再依据宏观规划决定较短时间的具体策略 [44] 最大化接单数量和最小化等待时间 蚁群算法 通过信息素来描述订单匹配与路程时间、充电时间等因素的关系 [45] 最小化用户等待时间 蚁群算法 考虑订单撤销和新进订单

第1种研究思路是基于强化学习算法[33-38]不断尝试平衡接单和充电、短期奖励和长远奖励的关系,以获取最优的订单派遣和充电协同策略。充电动作不仅直接影响即时的奖励,也会影响电动汽车的状态,从而影响未来的接单行为和长远奖励。在定义充电动作的奖励函数时,一般考虑到充电站的行驶距离[36],充电费用[34, 37],或直接将其定义为一个可调参数[33];在定义接单的奖励时主要考虑订单报酬和订单路程代价[33-34, 36, 38]。为了反映订单的乘客满意度特征,一些工作通过排队论计算了乘客的等待时间[37]或未服务的乘客数量[39],将其作为惩罚项计入奖励函数,使得模型能够降低等待时间或未服务的用户数量。Shi等[33]在一个时间窗口内收集乘客订单及电动汽车状态,状态定义包含电动汽车的剩余电量、位置等信息,为接单、充电、保持空闲等动作定义奖励值,通过估算状态的总奖励期望V值并利用贝尔曼方程来估算车队整体的Q值,将车队Q值最大化的问题转化为计算车辆与动作的二部图匹配问题,通过库恩-曼克尔斯(Kuhn-Munkres, KM)算法来解决该二部图匹配问题。Kullman等[36]提出了订单驱动的强化学习Drafter算法,当一个新的订单到来,在考虑乘客等待时间不能超过阈值且能量足够到达订单起点的约束下指派获得最大Q值的车辆去接单。相比于Shi等[33]时间窗口决策的方法,由于只有一个订单需要进行派遣,决策维度大大降低,但需在订单高峰期高频决策。为了提高大规模车队下的计算速度,Tang等[35]构建了教师-学生强化学习算法,教师模型采用强化学习算法得出每个区域内电动汽车被分配去接单、充电和重定位的数量,该数量指导学生模型通过组合优化方法快速决定每一辆车具体的动作。

第2种研究思路利用订单时间和空间的分布特征来指导充电时间和充电站的选取,通过合理规划充电行为来为顺利接单做准备。针对订单空间上的非均匀分布特征,一些工作通过建立订单需求的预测模型来评估动作的影响继而提高决策的长远收益。Fan等[41]考虑未来订单分布随机性下求取车队利润最大化问题,根据有限的订单先验知识构造代表所有可能的未来订单分布的模糊集,利用鲁棒优化方法最大化模糊集表示的最坏情况总利润;Yan等[42]通过对订单的历史数据进行建模得到区域内用户订单数量的预测模型,进而估算在该区域完成一次充电后接单的概率,以最小化因充电失去的订单数量和最大化充电后接单概率为目标进行求解,从而最大限度地保持车辆的服务连续性;针对订单时间属性上的潮汐特征,Yuan等[40]提出了一种主动充电的调度策略,允许车辆在能量还未降至很低的情况下主动去充电来应对高峰期的客流,根据历史数据估算订单需求,利用滚动域控制算法去实时产生充电调度策略以最小化每个区域内未被服务的用户数量。

2.1.2  重定位与充电协同策略

重定位是将电动汽车从一个区域移动到另一个区域(通常是向需求更高的区域移动),以平衡区域的供需差、满足未来的用车需求。空闲电动汽车既可被调度进行充电,也可以被调度去重定位,两者都为未来接单行为做准备,如何合理协同充电和重定位行为来提高车队的收益成为车队调度重点解决的问题。解决该问题主要包含3种研究思路:整数线性规划、强化学习和博弈论。表 4比较了重定位与充电协同策略文献。

表 4 重定位与充电协同策略文献比较

Table 4. Comparison of literatures on integration strategies of relocation and charging

文献 优化目标 求解方法 特点 [46] 最小化区域供需差、最小化重定位距离和最大化剩余能量 线性规划 利用变量消除和约束方程矩阵的单模特性来求解 [47] 最大化重定位收益、最大化车队能量状态和最小化时间代价 动态规划 以未响应订单的等待时间作为重定位的收益,激励车辆向高等待时间区域移动 [48] 最小化重定位和充电代价、等待时间 贪心算法 重定位的目标中包括电量要求,允许车辆在重定位途中充电 [49] 最大化车队收益 V值估计算法 限制重定位数量以防止重定位形成震荡 [50] 最大化服务质量 深度Q学习算法 考虑交通状态不确定性 [51] 最小化重定位和充电代价 基于概率函数的启发式算法 根据区域需求、距离和已重定位车辆数量的概率函数选择重定位区域 [52] 最小化重定位和充电代价 鲁棒优化 考虑区域乘客需求和车辆供给不确定性 [53] 最小化重定位代价和最大化公平性 基于转换核的强化学习算法 通过转换核描述马尔可夫决策过程中状态转移的不确定性 [54] 最大化车队收益和公平性 博弈论 以车队的利润方差来描述车队公平性 [55] 最大化个体司机收益 博弈论 利用平均场向量提取周围智能体的状态

第一种研究思路是将该问题转化成为以充电和重定位为决策变量的整数线性规划问题。整数线性规划问题的目标函数往往被设置为与充电和重定位有关的指标,如Dean等[46]的目标函数包含了区域供需差、重定位距离和电动汽车剩余能量,并利用参数调节三者之间的比重关系;Yi等[47]设置重定位的奖励为未响应订单的等待时间的函数,从而鼓励空余车辆向高等待时间的区域重定位,通过单步动态规划对问题进行求解;Pantelidis等[48]规定目标函数为用户的等待时间和重定位、充电代价的函数并允许充电和重定位接续发生,若电量不满足重定位目标的车辆需要在途中充电,充电看作是在充电站节点上沿着电量梯度方向移动,利用贪心算法对电动汽车的调度策略进行求解以取得最小的乘客排队延迟代价和路程代价。

另一些工作[49-50]在强化学习框架下利用奖励机制自动调节充电和重定位动作的关系。Liang等[49]将订单派遣加入了行为策略中,将重定位和充电看作是一种特殊的接单,从而将订单派遣、充电和重定位纳入以订单号为表示的动作域中,通过强化学习算法求解最大化运营利润。

重定位可能会导致一些车辆损失个体收益,第3种研究思路是在重定位调度中利用博弈论平衡车队各车辆的利益[54-55]。Wang等[54]提出了一种考虑收益公平性的重定位与充电调度算法,以电动汽车车队的利润方差来描述车队调度的公平性。在集中式的多智能体AC框架中将奖励函数定义为利润与公平性之和来实现利润与公平性的平衡。Wang等[55]提出了一种基于非合作博弈的框架以最大化每个司机的收益,框架提取周围网格内的平均场向量,平均场向量反映周围其他智能体的状态,利用平均场向量训练AC网络来得到重定位或充电动作。

2.2  共享电动汽车/租车下的行为策略

共享电动汽车是一种汽车租赁模式,用于人们短期内租车,计费方式按小时或按日居多。共享电动汽车与共享出行场景有显著的区别。在共享电动汽车的场景中,用户需要在服务点提取车辆和归还车辆,而共享电动汽车公司需要在服务点间重定位车辆来平衡服务点的供需差。如何进行充电及重定位调度保证服务点可用电动汽车数量满足用户需求是这一领域工作主要关注的问题。表 5比较了共享电动汽车文献。重定位的方式按照操纵车辆的人员可分为调度员指派和用户自响应两种方式。调度员指派方式是指公司委派调度员驾驶已还车辆进行充电和重定位操作。Guo等[56]构建了用户、服务站和充电站的排队网络,将充电与重定位协同优化问题转化为以最小化最大响应时间和总运营时间为目标的组合优化问题,利用拉格朗日分析和卡罗需-库恩-塔克(Karush-Kuhn-Tucker, KKT)条件求解最优解的下限。Wang等[57]提出了一种基于动态截止时间的强化学习算法。利用XGBoost模型预测每个服务点的流量并在需求高峰时间段内减小截止时间间隔,从而更快地响应高峰期用户需求。另一种重定位方式是用户自响应方式,指在给予用户优惠奖励的前提下,与用户协商决定将还车点修改为重定位的目标服务点,以借助于租车用户的自身行为完成重定位。Luo等[58-59]限定修改后还车点的区域位于路网还车点一跳范围内,在给定可用优惠奖励的情况下,利用近端策略优化(Proximal Policy Optimization, PPO)算法对最优的还车点进行求解。

表 5 共享电动汽车文献比较

Table 5. Comparison of literatures on sharing electric vehicle

文献 优化目标 求解方法 特点 [56] 最小化最大响应时间和总运营时间 拉格朗日分析和KKT条件下的最优化算法 可保证服务质量和系统供需平衡 [57] 最大化租车收益 动态截止时间算法 可在高峰期更快地响应用户需求 [58]、[59] 最大化满足租车需求 PPO算法 鼓励用户进行自响应的重定位 [60] 最大化租车收益 混合整数二次规划 考虑电价浮动和租车订单价格浮动 [61] 最大化租车收益 遗传算法 考虑道路拥堵和定价对需求的影响 [62] 最小化调度和库存成本 模拟退火算法 考虑车辆积压的库存成本 [63] 最大化租车收益 剪枝和松弛算法 针对长途旅行中更换车辆的场景 [64] 最大化服务乘客数量 线性规划 针对换电模式下的租车场景 [65] 最小化服务车和租用车代价 混合遗传搜索算法 协同规划服务车和租用车的路线 [66] 最小化时间代价 AC算法 线路策略由序列到序列模型生成 [67] 最小化移动充电车能耗 自适应大邻域搜索算法 针对移动充电车的充电场景

除了服务点还车方式,还存在一种在指定区域内任意位置还车的自由流动式还车方式。当租用车辆需要充电时,调度员驾驶服务车辆行驶至租用车辆,并驾驶租用车辆到充电站进行充电。该场景下,需要解决服务车以何种路线访问缺电租用车辆的问题。Folkestad等[65]将该问题建模为以最小化服务车的行程代价和租用车的充电代价为目标的混合整数规划问题,利用混合遗传搜索算法来得到最优的服务车调用策略;Bogyrbayeva等[66]利用AC算法来求取服务车的行程线路,奖励函数被定义为服务车完成所有线路后的总时间的相反数,从而达到最小化时间代价的目的。另一种出现的充电方式是利用移动充电车对租用车辆进行充电,从而避免了租用车辆的移动。

2.3  载客业务下的电动汽车行为策略研究总结

相比于第1节电动汽车充电行为策略,载客业务下充电行为策略的出发点有明显的区别。非载客业务下的充电行为通常以时间成本或充电费用为优化目标,而在载客业务下,充电策略的首要目标是确保顺利执行载客任务。在这种情况下,充电的关键不仅在于避免电量用尽,还在于最大程度地提高可用车辆数量,以满足订单需求。共享出行模式下的行为策略研究难点是根据订单的特征设计高效的接单、充电和重定位协同策略以最大化车队收益,常采用强化学习算法来平衡接单、重定位和充电的关系,优化目标主要关注车队收入和乘客等待时间。在协同订单派遣和充电时,根据订单时空分布特征来指导充电动作以增强充电对后续订单的支撑;在协同重定位和充电时,根据预测的供需差、等待时间、剩余能量等目标在重定位和充电间得到一种平衡。

共享电动汽车模式下,租用车辆需在服务点间调度。难点是通过调度保证服务点可用电动汽车数量满足用户需求,优化目标主要是租车收益,常通过数学规划方法解决服务点的充电及重定位调度问题。

3.  V2G下的行为策略

随着电动汽车规模的迅速壮大,能源需求激增,大量的电动汽车无序地并网充电会对电力系统的稳定性产生挑战。为了解决这一问题,V2G概念逐渐进入公众视野。V2G是指电动汽车与电网通过智能充电桩或云服务器管理汽车与电网之间的功率流来实现电能的双向传输,电动汽车电池既是可调度的电力负荷又是分布式的储能装置。在电网出现突发的大规模电力中断或其他紧急情况时,已连接到电网的电动汽车可以迅速响应,为电网提供短时期的电能支持,从而作为一种旋转备用资源。从长期运营的角度看,V2G能够根据电价和需求的变化,智能地引导电动汽车的充放电行为。这有助于实现电网的调峰,确保在高需求时段有足够的电力供应。当电网出现频率偏差时,V2G可以通过调整电动汽车的放电速率来为电网提供有功功率,帮助维持电网频率的稳定。通过逆变器技术,电动汽车在V2G下还可以作为一种无功补偿的设备,帮助维持电网的电压稳定。车主可以在低电价时提高充电功率,高电价时进行放电,以达到节约成本和增加收益的目的。电动汽车参与放电是车电互联中的关键一环,因此, 如何管理每辆电动汽车与电网之间的功率流,从而实现最小化电动汽车充电成本是V2G面临的重要问题。解决该问题主要有数学规划方法和强化学习2种研究思路,以下分别进行介绍。表 6比较了V2G下的行为策略文献。

表 6 V2G下的行为策略文献比较

Table 6. Comparison of literatures on behavior strategies in V2G

文献 优化目标 求解方法 特点 [68] 最小化车队充电成本、运营成本和充电站投资成本 Benders和Scenario分解算法 考虑从投资充电站到日常充电运营的整体成本 [69] 最小化充电成本和碳排放量 Benders分解算法 利用隶属度模型获得折衷解 [70] 最小化电力成本和污染指数 改进的粒子群算法 考虑了充电、发电和响应等方面成本 [71] 最大化充放电的成本效益 深度Q学习算法 考虑了充放电电量、电池老化 [72] 最小化电动汽车的充电成本 CPO算法 可大幅降低充电调度的违规率 [73] 最大化电动汽车充电效益 Q学习算法 考虑了行程安排与时变电价 [74] 最大化电动汽车的成本效益、最小化功率损耗和负载变化 博弈论 考虑了动态的实时定价模型、电池退化成本和电网负载稳定性 [75] 最小化电动汽车充电成本 RDDPG算法 考虑了充电站的平等性 [76] 最大化电动汽车的收益、电网和太阳能的利用效率 分支定界算法 针对可再生资源充电站的场景

第1种研究思路是使用数学规划方法进行建模求解。Zhang等[68]将充放电调度问题建模为两阶段随机整数规划模型,第1阶段主要是确定车队服务的范围,电池容量,每个地区的电动汽车数量,支持V2G或充电的车位数量,第2阶段构建了时间空间剩余电量网络模型,估算运营成本,给定运营策略,再利用Benders和Scenario分解算法进行求解;Zakariazadeh等[69]将电动汽车充放电问题建模为混合整数线性规划模型和非线性规划模型,利用Benders分解算法进行求解,在得到两个优化目标的帕累托最优解之后,按照模糊集中的隶属度模型获得一个折衷解;Yin等[70]将可再生能源的利用纳入智能电网范畴,将能源规划问题建模为混合整数非线性规划模型,利用了改进的粒子群算法进行求解;Yuan等[76]讨论了如何进行车队调度以充分利用太阳能供能的充电站的问题。太阳能供能的充电站若负载不足可能会造成反向功率输出的情况,造成电网稳定性下降。将车队充电调度问题转化为包含充电站系统损失的多目标混合整数线性规划问题,并用分支定界算法进行求解。

第2种研究思路是将强化学习应用于V2G背景下的电动汽车充放电管理中。Li等[75]提出了一种考虑充电站功率限制的分布式充电决策方法,每个充电桩查询已决策的充电桩的充电功率和未决策的充电桩的充电需求,并利用循环深度确定性策略梯度(Recurrent Deep Deterministic Policy Gradient, RDDPG)算法来决定当前充电桩的充电动作;Li等[72]针对私人充电的问题,在电价随时间变化,回家和离开家时刻随机的场景下,以降低充电成本为目的,将EV的充电放电过程建模为受限马尔可夫决策过程,利用安全强化学习中的约束策略优化(Constrained Policy Optimization, CPO)算法进行求解;Dang等[73]使用表格形式的Q学习算法对电动汽车进行调度,使得电动汽车在峰谷电价中合理地安排行程与充放电。

4.  工具集、数据集和仿真平台

4.1  工具集

电动汽车行为策略问题(如充电站推荐)常被转化为整数规划问题,在求解整数规划方面常用的工具集包括CPLEX[77]、Gurobi[11]、Pyomo[78]和SCIP等。CPLEX和Gurobi是商业软件,能够求解大规模整数规划问题。然而,它们在非凸问题和某些特定的二次规划问题上可能会陷入局部最优,同时,在处理大规模稀疏线性规划问题时,它们可能无法充分利用问题的稀疏性,导致了不必要的计算开销和内存使用。未来的发展方向,应该聚焦于非凸优化技术的研究和稀疏优化方法的发展,以满足高效求解非凸问题与减少开销的需求。Pyomo和SCIP是开源框架,Pyomo是Python的程序包,具有灵活易扩展的特点,而SCIP提供了多种编程语言的接口,并能够与多个外部求解器进行交互。但是它们在处理包含大量变量和约束的高维整数规划问题时,可能会遇到性能下降的问题。在动态环境下,如交通环境下的实时决策中,这些工具的响应速度可能不能满足实际需求。此外,一些研究文章采用了强化学习算法进行电动汽车行为决策,常用的强化学习工具集包括RLkit、PTAN、PFRL和Stable Baselines[39]等。这些工具支持多种强化学习算法和网络结构,易于使用和扩展。然而这些工具可能需要研究者大量的手动调参,寻找最佳的参数组合,未来需要开发更为智能的探索策略,以更好地适应环境变化,并提供更为先进和用户友好的自动调优工具,使研究者可以将更多的精力放在问题与模型上。

在交通运输和地理信息方面,常用的工具集有PTV xRoute[11]、GraphHopper[79]、百度地图API[56]和Folium等。PTV xRoute和GraphHopper可以进行路径规划,并支持多种类型的路网数据和交通模型。然而,这2个工具可能在处理复杂交通网络和动态交通信息时存在一些局限性,无法实时准确地反映交通状态的变化。未来的发展方向应该包括实时交通信息处理和动态路径规划算法的优化,以更准确地服务于复杂多变的交通环境。百度地图API提供了一系列Web服务接口,包括地理编码、路径规划和定位等功能。Folium是一个基于Python的交互式地图可视化工具,主要用于数据分析和可视化,但在大数据处理和复杂可视化效果实现上可能存在不足。未来的研发方向应该聚焦于大数据可视化技术和交互式可视化效果的优化,以更好地满足用户在数据分析和表达上的需求。

4.2  数据集

MISO[72]和NREL[80]可用于建立电力系统的负荷模型、评估可再生能源资源以及进行能源规划,TLC[36]、NHTS[81]以及SmartColumbus[5]可用于交通出行模式、交通规划和出行行为分析等领域的研究,SmartColumbus还可用于构建能耗模型。

4.3  仿真平台

ADVISOR[78]和POLARIS[46]能够帮助研究人员预测电动汽车的能源消耗和进行电流控制;PTV MaaS Simulator[11]和Sumo[82]用于交通规划和交通仿真,可分析和评估电动汽车行为策略的效果。未来的发展方向包括提高模拟的准确性和实时性,研发能够更好地模拟大规模和复杂交通网络的高效仿真技术。此外,EVQUARIUM[83]用于模拟电动汽车充电基础设施,可用于评估充电站的位置可达性,但在充电需求预测方面可能表现不足,未来应加强精确充电需求预测模型的研发。

5.  结语

(1) 充电站推荐研究通常以最小时间代价和最小充电费用作为主要优化目标,采用启发式方法或强化学习算法来求取最优充电方案。以最小时间代价作为目标的研究面临充电等待时间不确定性的挑战,现有研究通过表示学习或排队论等模型描述充电等待的供需关系并估算充电等待时间;以最小充电费用为目标的研究通过投影或博弈论等模型计算充电量及车队充电量分配方式,合理利用分散充电来降低费用。

(2) 充电路径规划研究的难点是描述电动汽车的能量约束和能量回收机制,常用思路是改进原有燃油车路径规划算法,通过帕累托理论来描述考虑能量与时间多维目标的优化问题,定义负权重边实现能耗信息和能量回收的估算。

(3) 共享出行模式下的行为策略研究常采用强化学习算法来平衡接单、重定位和充电的关系,以最大化车队收益。强化学习算法能合理优化充电、重定位等短期收益低、长期收益高的行为策略,从而平衡短期奖励和长远奖励,以获取最优的订单派遣和充电协同策略。

(4) 虽然强化学习模型在电动汽车行业中有着广泛的应用,但它们的决策逻辑缺乏足够的透明性,给策略的验证和推广带来挑战。此外,在实际部署中,这种不透明性可能导致用户和决策者对模型产生不信任。未来,提高这些模型的可解释性将是研究的重点,以便更好地理解其决策逻辑,并加强对模型的信赖。

(5) 现阶段电动汽车状态的判定过于依赖于电量、位置等基础信息,因此,可能导致状态的误解和预测误差。传统数据源无法完全捕获到对充电决策至关重要的上下文信息。未来可通过多模态数据融合技术整合不同类型的传感器数据,如图像、音频和文本,为电动汽车的充电管理和优化提供更为准确和全面的信息。

(6) 目前使用的强化学习算法或机器学习算法往往针对典型充电或载客业务场景进行学习和优化,在与该场景类似的场景下具有较好的性能指标表现,然而对于未见的场景或是极端场景下其表现往往不如预期。未来需要利用归纳式学习挖掘场景的内在逻辑,增强模型的泛化能力和降低预测误差。

[1]赵轩, 李美莹, 余强, 等. 电动汽车动力锂电池状态估计综述[J]. 中国公路学报, 2023, 36(6): 254-283.ZHAO Xuan, LI Mei-ying, YU Qiang, et al. State estimation of power lithium batteries for electric vehicles: a review[J]. China Journal of Highway and Transport, 2023, 36(6): 254-283. (in Chinese)[2]郭剑锋, 张雪美, 曹琪, 等. 电动汽车助力我国能源安全与"碳达峰、碳中和"协同推进[J]. 中国科学院院刊, 2024, 39(2): 397-407.GUO Jian-feng, ZHANG Xue-mei, CAO Qi, et al. Electric vehicles contribute to China's energy security and carbon peaking and carbon neutrality[J]. Bulletin of Chinese Academy of Sciences, 2024, 39(2): 397-407. (in Chinese)[3]国家能源局. 2022中国电动汽车用户充电行为白皮书[R]. 北京: 国家能源局, 2023.National Energy Administration. 2022 China electric vehicle user charging behavior white paper[R]. Beijing: National Energy Administration, 2023. (in Chinese)[4]中国城市规划设计研究院. 2022年中国主要城市充电基础设施监测报告[R]. 北京: 中国城市规划设计研究院, 2022.China Academy of Urban Planning and Design. China major cities charging infrastructure monitoring report 2022[R]. Beijing: China Academy of Urban Planning and Design, 2022. (in Chinese)[5]ZHANG Cong, LIU Yuan-an, WU Fan, et al. Effective charging planning based on deep reinforcement learning for electric vehicles[J]. IEEE Transactions on Intelligent Transportation Systems, 2021, 22(1): 542-554. doi: 10.1109/TITS.2020.3002271[6]AN Yi-sheng, GAO Yu-xin, WU Nai-qi, et al. Optimal scheduling of electric vehicle charging operations considering real-time traffic condition and travel distance[J]. Expert Systems with Applications, 2023, 213: 118941. doi: 10.1016/j.eswa.2022.118941[7]WANG Guang, CHEN Yue-fei, WANG Shuai, et al. For E-Taxi: data-driven fleet-oriented charging resource allocation in large-scale electric taxi networks[J]. ACM Transactions on Sensor Networks, 2023, 19(3): 63.[8]LIU Wei-li, GONG Yue-jiao, CHEN Wei-neng, et al. Coordinated charging scheduling of electric vehicles: a mixed-variable differential evolution approach[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(12): 5094-5109. doi: 10.1109/TITS.2019.2948596[9]MA Tai-yu, XIE Si-min. Optimal fast charging station locations for electric ridesharing with vehicle-charging station assignment[J]. Transportation Research Part D: Transport and Environment, 2021, 90: 102682. doi: 10.1016/j.trd.2020.102682[10]DONG Zheng, LIU Cong, LI Yan-hua, et al. REC: predictable charging scheduling for electric taxi fleets[C]//IEEE. 2017 IEEE Real-Time Systems Symposium. New York: IEEE, 2017: 287-296.[11]JAMSHIDI H, CORREIA G H A, VAN ESSEN J T, et al. Dynamic planning for simultaneous recharging and relocation of shared electric taxies: a sequential MILP approach[J]. Transportation Research Part C: Emerging Technologies, 2021, 125: 102933. doi: 10.1016/j.trc.2020.102933[12]ZHANG Wei-jia, LIU Hao, WANG Fan, et al. Intelligent electric vehicle charging recommendation based on multi-agent reinforcement learning[C]//ACM. Proceedings of the World Wide Web Conference 2021. New York: ACM, 2021: 1856-1867.[13]LI Cheng-yin, DONG Zheng, FISHER N, et al. Coupling user preference with external rewards to enable driver-centered and resource-aware EV charging recommendation[C]//Springer. Machine Learning and Knowledge Discovery in Databases 2022. Berlin: Springer, 2022: 3-19.[14]ZHANG Wei-jia, LIU Hao, XIONG Hui, et al. RLCharge: imitative multi-agent spatiotemporal reinforcement learning for electric vehicle charging station recommendation[J]. IEEE Transactions on Knowledge and Data Engineering, 2023, 35(6): 6290-6304. doi: 10.1109/TKDE.2022.3178819[15]XING Qiang, XU Yan, CHEN Zhong, et al. A graph reinforcement learning-based decision-making platform for real-time charging navigation of urban electric vehicles[J]. IEEE Transactions on Industrial Informatics, 2023, 19(3): 3284-3295. doi: 10.1109/TII.2022.3210264[16]CAO Yong-sheng, WANG Hao, LI De-min, et al. Smart online charging algorithm for electric vehicles via customized actor-critic learning[J]. IEEE Internet of Things Journal, 2022, 9(1): 684-694. doi: 10.1109/JIOT.2021.3084923[17]YI Zong-gen, SHIRK M. Data-driven optimal charging decision making for connected and automated electric vehicles: a personal usage scenario[J]. Transportation Research Part C: Emerging Technologies, 2018, 86: 37-58. doi: 10.1016/j.trc.2017.10.014[18]GAO J, WONG T, WANG C. Social welfare maximizing fleet charging scheduling through voting-based negotiation[J]. Transportation Research Part C: Emerging Technologies, 2021, 130: 103304. doi: 10.1016/j.trc.2021.103304[19]ZHU Ming, LIU Xiao-yang, WANG Xiao-dong. Joint transportation and charging scheduling in public vehicle systems—a game theoretic approach[J]. IEEE Transactions on Intelligent Transportation Systems, 2018, 19(8): 2407-2419. doi: 10.1109/TITS.2018.2817484[20]WANG Z F, JOCHEM P, FICHTNER W. A scenario-based stochastic optimization model for charging scheduling of electric vehicles under uncertainties of vehicle availability and charging demand[J]. Journal of Cleaner Production, 2020, 254: 119886. doi: 10.1016/j.jclepro.2019.119886[21]MORLOCK F, ROLLE B, BAUER M, et al. Time optimal routing of electric vehicles under consideration of available charging infrastructure and a detailed consumption model[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(12): 5123-5135. doi: 10.1109/TITS.2019.2949053[22]BAUM M, DIBBELT J, GEMSA A, et al. Shortest feasible paths with charging stops for battery electric vehicles[J]. Transportation Science, 2019, 53(6): 1627-1655. doi: 10.1287/trsc.2018.0889[23]SCHOENBERG S, DRESSLER F. Planning ahead for EV: total travel time optimization for electric vehicles[C]//IEEE. 2019 IEEE Intelligent Transportation Systems Conference. New York: IEEE, 2019: 3068-3075.[24]SCHOENBERG S, DRESSLER F. Reducing waiting times at charging stations with adaptive electric vehicle route planning[J]. IEEE Transactions on Intelligent Vehicles, 2023, 8(1): 95-107. doi: 10.1109/TIV.2022.3140894[25]DOROKHOVA M, BALLIF C, WYRSCH N. Routing of electric vehicles with intermediary charging stations: a reinforcement learning approach[J]. Frontiers in Big Data, 2021, 4: 586481. doi: 10.3389/fdata.2021.586481[26]FROGER A, MENDOZA J E, JABALI O, et al. Improved formulations and algorithmic components for the electric vehicle routing problem with nonlinear charging functions[J]. Computers and Operations Research, 2019, 104: 256-294. doi: 10.1016/j.cor.2018.12.013[27]邢强, 陈中, 冷钊莹, 等. 基于实时交通信息的电动汽车路径规划和充电导航策略[J]. 中国电机工程学报, 2020, 40(2): 534-549.XING Qiang, CHEN Zhong, LENG Zhao-ying, et al. Route planning and charging navigation strategy for electric vehicles based on real-time traffic information[J]. Proceedings of the CSEE, 2020, 40(2): 534-549. (in Chinese)[28]张书玮, 冯桂璇, 樊月珍, 等. 基于信息交互的大规模电动汽车充电路径规划[J]. 清华大学学报(自然科学版), 2018, 58(3): 279-285.ZHANG Shu-wei, FENG Gui-xuan, FAN Yue-zhen, et al. Large-scale electric vehicle charging path planning based on information interaction[J]. Journal of Tsinghua University (Science and Technology), 2018, 58(3): 279-285. (in Chinese)[29]刘东奇, 谢金焕, 王耀南. 车联网中多主体参与的电动汽车预充电路径规划[J]. 控制理论与应用, 2024, 41(8): 1438-1450.LIU Dong-qi, XIE Jin-huan, WANG Yao-nan. Electric vehicle pre-charging path planning with multi-agent participation in the internet of vehicles[J]. Control Theory and Applications, 2024, 41(8): 1438-1450. (in Chinese)[30]LIN Bo, GHADDAR B, NATHWANI J. Deep reinforcement learning for the electric vehicle routing problem with time windows[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(8): 11528-11538. doi: 10.1109/TITS.2021.3105232[31]BASSO R, KULCSÁR B, SÁNCHEZ-DÍAZ I, et al. Dynamic stochastic electric vehicle routing with safe reinforcement learning[J]. Transportation Research Part E: Logistics and Transportation Review, 2022, 157: 102496. doi: 10.1016/j.tre.2021.102496[32]BASSO R, KULCSÁR B, EGARDT B, et al. Energy consumption estimation integrated into the electric vehicle routing problem[J]. Transportation Research Part D: Transport and Environment, 2019, 69: 141-167. doi: 10.1016/j.trd.2019.01.006[33]SHI Jie, GAO Yuan-qi, WANG Wei, et al. Operating electric vehicle fleet for ride-hailing services with reinforcement learning[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(11): 4822-4834. doi: 10.1109/TITS.2019.2947408[34]AL-KANJ L, NASCIMENTO J, POWELL W B. Approximate dynamic programming for planning a ride-hailing system using autonomous fleets of electric vehicles[J]. European Journal of Operational Research, 2020, 284(3): 1088-1106. doi: 10.1016/j.ejor.2020.01.033[35]TANG Xin-di, LI Meng, LIN Xi, et al. Online operations of automated electric taxi fleets: an advisor-student reinforcement learning framework[J]. Transportation Research Part C: Emerging Technologies, 2020, 121: 102844. doi: 10.1016/j.trc.2020.102844[36]KULLMAN N D, COUSINEAU M, GOODSON J C, et al. Dynamic ride-hailing with electric vehicles[J]. Transportation Science, 2022, 56(3): 775-794. doi: 10.1287/trsc.2021.1042[37]YU Guo-dong, LIU Ai-jun, ZHANG Jiang-hua, et al. Optimal operations planning of electric autonomous vehicles via asynchronous learning in ride-hailing systems[J]. Omega, 2021, 103: 102448. doi: 10.1016/j.omega.2021.102448[38]WANG Ning, GUO Jia-hui. Modeling and optimization of multiaction dynamic dispatching problem for shared autonomous electric vehicles[J]. Journal of Advanced Transportation, 2021, 2021: 1368286.[39]TURAN B, PEDARSANI R, ALIZADEH M. Dynamic pricing and fleet management for electric autonomous mobility on demand systems[J]. Transportation Research Part C: Emerging Technologies, 2020, 121: 102829. doi: 10.1016/j.trc.2020.102829[40]YUAN Yu-kun, ZHANG De-sheng, MIAO Fei, et al. p2Charging: proactive partial charging for electric taxi systems[C]//IEEE. 2019 IEEE 39th International Conference on Distributed Computing Systems. New York: IEEE, 2019: 688-699.[41]FAN Gui-yun, JIN Hai-ming, ZHAO Yi-ran, et al. Joint order dispatch and charging for electric self-driving taxi systems[C]//IEEE. IEEE INFOCOM 2022—IEEE Conference on Computer Communications. New York: IEEE, 2022: 1619-1628.[42]YAN Li, SHEN Hai-ying, KANG Liu-wang, et al. CD-guide: a dispatching and charging approach for electric taxicabs[J]. IEEE Internet of Things Journal, 2022, 9(23): 23302-23319. doi: 10.1109/JIOT.2022.3195785[43]ZALESAK M, SAMARANAYAKE S. Real time operation of high-capacity electric vehicle ridesharing fleets[J]. Transportation Research Part C: Emerging Technologies, 2021, 133: 103413. doi: 10.1016/j.trc.2021.103413[44]LIANG Di, ZHAN Zhi-Hui, ZHANG Yan-chun, et al. An efficient ant colony system approach for new energy vehicle dispatch problem[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(11): 4784-4797. doi: 10.1109/TITS.2019.2946711[45]SHI Lin, ZHAN Zhi-Hui, LIANG Di, et al. Memory-based ant colony system approach for multi-source data associated dynamic electric vehicle dispatch optimization[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(10): 17491-17505. doi: 10.1109/TITS.2022.3150471[46]DEAN M D, GURUMURTHY K M, DE SOUZA F, et al. Synergies between repositioning and charging strategies for shared autonomous electric vehicle fleets[J]. Transportation Research Part D: Transport and Environment, 2022, 108: 103314. doi: 10.1016/j.trd.2022.103314[47]YI Z G, SMART J. A framework for integrated dispatching and charging management of an autonomous electric vehicle ride-hailing fleet[J]. Transportation Research Part D: Transport and Environment, 2021, 95: 102822. doi: 10.1016/j.trd.2021.102822[48]PANTELIDIS T P, LI L, MA T Y, et al. A node-charge graph-based online carshare rebalancing policy with capacitated electric charging[J]. Transportation Science, 2022, 56(3): 654-676. doi: 10.1287/trsc.2021.1058[49]LIANG Yan-chang, DING Zhao-hao, DING Tao, et al. Mobility-aware charging scheduling for shared on-demand electric vehicle fleet using deep reinforcement learning[J]. IEEE Transactions on Smart Grid, 2021, 12(2): 1380-1393. doi: 10.1109/TSG.2020.3025082[50]SILVA P, HAN Y J, KIM Y C, et al. Ride-hailing service aware electric taxi fleet management using reinforcement learning[C]//IEEE. 2022 Thirteenth International Conference on Ubiquitous and Future Networks. New York: IEEE, 2022: 427-432.[51]KIM S, LEE U, LEE I, et al. Idle vehicle relocation strategy through deep learning for shared autonomous electric vehicle system optimization[J]. Journal of Cleaner Production, 2022, 333: 130055. doi: 10.1016/j.jclepro.2021.130055[52]HE S H, PEPIN L, WANG G, et al. Data-driven distributionally robust electric vehicle balancing for mobility-on-demand systems under demand and supply uncertainties[C]//IEEE. 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems. New York: IEEE, 2020: 2165-2172.[53]HE Si-hong, WANG Yue, HAN Shuo, et al. A robust and constrained multi-agent reinforcement learning framework for electric vehicle AMoD systems[C]//IEEE. 2023 IEEE/RSJ International Conference on Intelligent Robots and Systems. New York: IEEE, 2023: 5637-5644.[54]WANG Guang, ZHONG Shu-xin, WANG Shuai, et al. Data-driven fairness-aware vehicle displacement for large-scale electric taxi fleets[C]//IEEE. 2021 IEEE 37th International Conference on Data Engineering. New York: IEEE, 2021: 1200-1211.[55]WANG En-shu, DING Rong, YANG Zhao-xing, et al. Joint charging and relocation recommendation for E-taxi drivers via multi-agent mean field hierarchical reinforcement learning[J]. IEEE Transactions on Mobile Computing, 2022, 21(4): 1274-1290. doi: 10.1109/TMC.2020.3022173[56]GUO Ge, SUN Tian-yu. Selective multi-grade charging scheduling and rebalancing for one-way car-sharing systems[J]. IEEE Transactions on Intelligent Transportation Systems, 2023, 24(4): 4391-4402. doi: 10.1109/TITS.2022.3229383[57]WANG Guang, QIN Zhou, WANG Shuai, et al. Towards accessible shared autonomous electric mobility with dynamic deadlines[J]. IEEE Transactions on Mobile Computing, 2024, 23(1): 925-94. doi: 10.1109/TMC.2022.3213125[58]LUO Man, ZHANG Wen-zhe, SONG Tian-you, et al. Rebalancing expanding EV sharing systems with deep reinforcement learning[C]//ACM. 29th International Joint Conference on Artificial Intelligence. New York: ACM, 2020: 1338-1344.[59]LUO Man, DU Bo-wen, ZHANG Wen-zhe, et al. Fleet rebalancing for expanding shared e-mobility systems: a multi-agent deep reinforcement learning approach[J]. IEEE Transactions on Intelligent Transportation Systems, 2023, 24(4): 3868-3881. doi: 10.1109/TITS.2022.3233422[60]XIE Rui, WEI Wei, WU Qiu-wei, et al. Optimal service pricing and charging scheduling of an electric vehicle sharing system[J]. IEEE Transactions on Vehicular Technology, 2020, 69(1): 78-89. doi: 10.1109/TVT.2019.2950402[61]马舒予, 胡路, 吴佳媛, 等. 共享电动汽车系统车队规模与停车泊位数优化[J]. 交通运输工程与信息学报, 2022, 20(3): 31-42.MA Shu-yu, HU Lu, WU Jia-yuan, et al. Fleet size and parking capacity optimization of electric carsharing system[J]. Journal of Transportation Engineering and Information, 2022, 20(3): 31-42. (in Chinese)[62]高俊杰, 崔晓敏, 赵鹏, 等. 基于需求预测的单向共享电动汽车车辆调度方法[J]. 大连理工大学学报, 2019, 59(6): 648-655.GAO Jun-jie, CUl Xiao-min, ZHAO Peng, et al. Scheduling method for one-way electric car-sharing based on demand forecasting[J]. Journal of Dalian University of Technology, 2019, 59(6): 648-655. (in Chinese)[63]ZHANG Dong, LIU Yang, HE Shuang-chi. Vehicle assignment and relays for one-way electric car-sharing systems[J]. Transportation Research Part B: Methodological, 2019, 120: 125-146. doi: 10.1016/j.trb.2018.12.004[64]RIGAS E S, RAMCHURN S D, BASSILIADES N. Algorithms for electric vehicle scheduling in mobility-on-demand schemes[C]//IEEE. 2015 IEEE 18th International Conference on Intelligent Transportation Systems. New York: IEEE, 2015: 1339-1344.[65]FOLKESTAD C A, HANSEN N, FAGERHOLT K, et al. Optimal charging and repositioning of electric vehicles in a free-floating carsharing system[J]. Computers and Operations Research, 2020, 113: 104771. doi: 10.1016/j.cor.2019.104771[66]BOGYRBAYEVA A, JANG S, SHAH A, et al. A reinforcement learning approach for rebalancing electric vehicle sharing systems[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(7): 8704-8714. doi: 10.1109/TITS.2021.3085217[67]CUI Shao-hua, MA Xiao-lei, ZHANG Ming-heng, et al. The parallel mobile charging service for free-floating shared electric vehicle clusters[J]. Transportation Research Part E: Logistics and Transportation Review, 2022, 160: 102652. doi: 10.1016/j.tre.2022.102652[68]ZHANG Yi-ling, LU Meng-shi, SHEN Si-qian. On the values of vehicle-to-grid electricity selling in electric vehicle sharing[J]. Manufacturing and Service Operations Management, 2021, 23(2): 488-507.[69]ZAKARIAZADEH A, JADID S, SIANO P. Multi-objective scheduling of electric vehicles in smart distribution system[J]. Energy Conversion and Management, 2014, 79: 43-53. doi: 10.1016/j.enconman.2013.11.042[70]YIN W J, MAVALURU D, AHMED M, et al. Application of new multi-objective optimization algorithm for EV scheduling in smart grid through the uncertainties[J]. Journal of Ambient Intelligence and Humanized Computing, 2020, 11(5): 2071-2103. doi: 10.1007/s12652-019-01233-1[71]WAN Zhi-qiang, LI He-peng, HE Hai-bo, et al. Model-free real-time EV charging scheduling based on deep reinforcement learning[J]. IEEE Transactions on Smart Grid, 2019, 10(5): 5246-5257. doi: 10.1109/TSG.2018.2879572[72]LI He-peng, WAN Zhi-qiang, HE Hai-bo. Constrained EV charging scheduling based on safe deep reinforcement learning[J]. IEEE Transactions on Smart Grid, 2020, 11(3): 2427-2439. doi: 10.1109/TSG.2019.2955437[73]DANG Qi-yun, WU Di, BOULET B. A Q-learning based charging scheduling scheme for electric vehicles[C]//IEEE. 2019 IEEE Transportation Electrification Conference and Expo. New York: IEEE, 2019: 8790603.[74]LATIFI M, RASTEGARNIA A, KHALILI A, et al. Agent-based decentralized optimal charging strategy for plug-in electric vehicles[J]. IEEE Transactions on Industrial Electronics, 2019, 66(5): 3668-3680. doi: 10.1109/TIE.2018.2853609[75]LI Hang, LI Guo-jie, LIE T T, et al. Constrained large-scale real-time EV scheduling based on recurrent deep reinforcement learning[J]. International Journal of Electrical Power and Energy Systems, 2023, 144: 108603. doi: 10.1016/j.ijepes.2022.108603[76]YUAN Yu-kun, ZHAO Yue, LIN Shan. SAC: solar-aware E-taxi fleet charging coordination under dynamic passenger mobility[C]//IEEE. Proceedings of the IEEE Conference on Decision and Control. New York: IEEE, 2021: 2071-2078.[77]KOUFAKIS A M, RIGAS E S, BASSILIADES N, et al. Offline and online electric vehicle charging scheduling with V2V energy transfer[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(5): 2128-2138. doi: 10.1109/TITS.2019.2914087[78]AYAD A, EL-TAWEEL N A, FARAG H E Z. Optimal design of battery swapping-based electrified public bus transit systems[J]. IEEE Transactions on Transportation Electrification, 2021, 7(4): 2390-2401. doi: 10.1109/TTE.2021.3083106[79]KONER R, LI H, HILDEBRANDT M, et al. Graphhopper: multi-hop scene graph reasoning for visual question answering[C]//Springer. 20th International Semantic Web Conference. Berlin: Springer, 2021: 111-127.[80]WANG Lu-ting, CHEN Bo. Model-based analysis of V2G impact on battery degradation[C]//SAE. 2017 SAE World Congress Experience. Warrendale: SAE, 2017: 1699.[81]YAN Li, SHEN Hai-ying, LI Zhuo-zhao, et al. Employing opportunistic charging for electric taxicabs to reduce idle time[J]. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 2018, 2(1): 47.[82]KUSARI A, LI Pei, YANG Han-zhi, et al. Enhancing sumo simulator for simulation based testing and validation of autonomous vehicles[C]//IEEE. 2022 IEEE Intelligent Vehicles Symposium. New York: IEEE, 2022: 829-835.[83]MA T Y, RASULKHANI S, CHOW J Y J, et al. A dynamic ridesharing dispatch and idle vehicle repositioning strategy with integrated transit transfers[J]. Transportation Research Part E: Logistics and Transportation Review, 2019, 128: 417-442. doi: 10.1016/j.tre.2019.07.002

网址:考虑充电需求的电动汽车行为策略研究综述 https://www.yuejiaxmz.com/news/view/1009017

相关内容

浅谈电动汽车充电设施规划及有序充电策略研究
电动汽车锂离子动力电池优化充电策略研究
浅谈电动汽车有序充电管理优化策略研究
考虑道路拥堵的电动车路径及充电策略
基于群智感知技术的电动汽车充电策略的研究的任务书
浅议电动汽车有序充电控制的策略.doc
基于峰谷分时电价引导的电动汽车有序充电策略及优化模型研究,基于峰谷分时电价引导的电动汽车有序充电策略及其优化模型仿真验证
浅谈基于峰谷电价的电动汽车有序充电策略
【充电】基于粒子群优化算法的电动汽车充放电V2G研究附Matlab代码
基于用电行为习惯的家庭节能用电策略研究

随便看看