從一個狀態到下一個狀態是存在一個轉移矩陣的,但是轉移矩陣應該不如直接模擬的複雜度低
每輪模擬後把特定點k清0,最後把k點以外的各個點的概率加和
原本考慮到矩陣的收斂性,添加了一個收斂性判斷(精度要求比較高才能過),1.8s
後來去掉收斂性判斷直接暴力反而更快,1.2s
可能是因爲d本身比較小,精度要求有些高,沒有明顯的區別
#include<iostream>
#include<algorithm>
#include<iostream>
#include<stdio.h>
#include<string.h>
#include<stdlib.h>
#include<vector>
#include<queue>
#include<cmath>
using namespace std;
#define ll __int64
#define inf 0x3f3f3f3f
int dir[4][2]={0,1,0,-1,1,0,-1,0};
int n,m,d;
vector<int>bians[60];
double map[60][2];
int main()
{
int T;
scanf("%d",&T);
while(T--)
{
int i,j,k,p,num;
int ta,tb;
int te,le;
int flag;
double ans;
scanf("%d%d%d",&n,&m,&d);
for(i=1;i<=n;i++)
bians[i].clear();
for(i=1;i<=m;i++)
{
scanf("%d%d",&ta,&tb);
bians[ta].push_back(tb);
bians[tb].push_back(ta);
}
for(k=1;k<=n;k++)
{
for(i=1;i<=n;i++)
map[i][0]=1.0/(double)n;
map[k][0]=0;
for(p=1;p<=d;p++)
{
te=p%2;
le=(p+1)%2;
for(i=1;i<=n;i++)
map[i][te]=0;
for(i=1;i<=n;i++)
{
num=bians[i].size();
for(j=0;j<num;j++)
map[bians[i][j]][te]+=map[i][le]/(double)num;
}
map[k][te]=0;
}
ans=0;
for(i=1;i<=n;i++)
ans+=map[i][te];
printf("%.10lf\n",ans);
}
}
return 0;
}