本發明公開了一種基于無觀測狀態下的網絡型強化學習方法,包括:初始化DQN算法網絡模型的網絡模型參數、輸入參數;依據網絡模型參數、輸入參數采用估計網絡,確定初始策略;根據當前時刻與初始策略交互的環境反饋出的價值評估值,確定當前假設狀態;依據價值評估值及當前假設狀態,確定當前時刻對應的最優策略;根據價值評估值、當前時刻對應的最優策略,優化DQN算法網絡模型。本發明還公開了一種基于無觀測狀態下的網絡型強化學習系統。該基于無觀測狀態下的網絡型強化學習方法及系統的目的是解決在真實動態博弈場景下對抗雙方存在信息不對等情況下,無法獲取對方狀態信息時,現有強化學習模型難以在該場景下直接應用的問題。
聲明:
“基于無觀測狀態下的網絡型強化學習方法及系統” 該技術專利(論文)所有權利歸屬于技術(論文)所有人。僅供學習研究,如用于商業用途,請聯系該技術所有人。
我是此專利(論文)的發明人(作者)