2019/4/5-4/6日訓練日記 概率期望DP

這兩天一直在看概率期望dp的東西,偶然看到一句話---正向推概率,反向推期望。

(不同人對這句話的理解方式是不同的吧,不大好說出來,自己理解就好)

對於這種結局一定的遊戲,求期望應該倒推

對於有些遊戲,結局是無法預判的,只能說結局是某種情形的概率是多少,這種情況自然只能順推了。

(認真思考一下,可以想明白的)

概率DP找到正確的狀態定義後,轉移是比較容易想到的。但狀態一定是“可數”的,把有範圍的整數作爲數組下標。事實上,將問題直接作爲狀態是最好的。如問“n人做XX事的期望次數”,則設計狀態爲f[i]表示i個人做完事的期望。轉移一般是遞推,即從上一個狀態轉移得 或轉移向下一個狀態。

有時期望DP需以最終狀態爲初始狀態轉移,即逆推。如f[i]表示期望還要走f[i]步到達終點。這種狀態的轉移是刷表法,形如f[i]=∑p[i→j]f[j]+w[i→j] ,其中p[] 表示轉移的概率,w[]表示轉移對答案的貢獻。一般來說,初始狀態確定時可用順推,終止狀態確定時可用逆推。

莫比烏斯也是看了兩天了,不確定到時如果真出到自己能不能推出來,明天再看半天,之後再往前補題

清明時間太短,專題太多,慢慢來吧,受夠了浮躁的心態了,慢一點也要掌握啊,彆着急啊

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章