搜索资源列表
45188302cvogelTV
- 改进的RL算法,和正则化结合,更能很好的复原图像(The improved RL algorithm, combined with regularization, can better restore the image)
RL
- 基于matlab的Rotman lens设计(matlab based Rotman lens design)
AADP.py
- Actor critic 求解动态规划问题 示例代码(Actor critic example code)
power_diode
- The power_diode example illustrates a single pulse rectifier consisting of a Diode block, an RL load, and an AC Voltage source block.
power_thyristor_example
- In the power_thyristor example, a single-pulse thyristor rectifier is used to feed an RL load.
开源代码
- 滤除反投影所带来的伪迹,还原原图像,减少伪迹的产生。。。。。。。。。(Filtering the artifacts caused by backprojection, reducing the original image, reducing the generation of artifacts.)
DeepLearningFlappyBird
- 利用深度学习强化飞行的小鸟游戏,使其能够自动飞行,代码包含飞行的小鸟游戏源代码。(The use of depth learning to strengthen the flight of bird games, so that it can fly automatically, the code contains flappy bird game.)
RL
- 用python搭建了各类常用的强化学习算法的框架,通过迷宫寻路的例子实现各类算法。(The framework of all kinds of commonly used reinforcement learning algorithms is built with Python, and all kinds of algorithms are realized by the example of labyrinth finding.)
LDPC码编译码算法的研究与实现_周丽RU2008
- 低密度奇偶校验码(LDPC码)以其低复杂度的迭代译码算法和可逼近信道容 量限而成为目前最佳的编码技术之一,越来越受到众多编码研究学者的关注。本 文在对低密度奇偶校验码现有理论的研究基础上,系统地阐述了低密度奇偶校验 码基于图模型的编译码思想。对低密度奇偶检验码的快速编码问题进行了深入的 研究,介绍了一种可以有效的降低编码复杂度的快速编码算法.RL」算法,在深入 理解用贪婪算法寻找RU算法加权因子的基础上,提出了贪婪算法的一种实用方 法。在译码方面,详细的推导基于概率测度下的置信传播算
driver
- 适合于瑞萨RL芯片的SPI通信底层驱动,使用语言C。(SPI communication underlying driver suitable for Reza RL chip.)
Complementary_Pwm_Output_OK
- 定时中断,RL/G14互补PWM波,频率周期可调(Timing interrupt, RL/G14 complementary PWM wave, adjustable frequency cycle.)
rl
- python实现强化学习,基于吴恩达教程,实现机器人自动走迷宫功能(Python implementation of reinforcement learning)
RL
- 强化学习 DQN代码,和通信相关,利用python进行训练,大家可以看看(reinforcement learning)
G026-TGS2602空气质量检测模块说明书V1.0
- TGS2602空气质量检测模块代码,氨气、硫化氢、乙醇(TGS2602 NH3 VCC RL VRL RS)
keras-rl-master
- 入门级vgg实例应用代码,各位仅供参考,随时交流学习(Entry level VGg instance application code, you are only for reference)
RL-Stock-master
- 使用强化学习完成股票预测。强化学习是机器学习的另一个分支,在决策的时候采取合适的行动 (Action) 使最后的奖励最大化。与监督学习预测未来的数值不同,强化学习根据输入的状态(如当日开盘价、收盘价等),输出系列动作(例如:买进、持有、卖出),使得最后的收益最大化,实现自动交易。(Using reinforcement learning to complete stock forecast)
dqn
- dqn算法,深度Qlearning算法 实现,普通实现,基本完成RL任务(Dqn algorithm, deep qlearning algorithm implementation, common implementation, basically complete RL task)