最近公司要出一個論壇系統
因爲最近貌似xxx查的也比較嚴,所以圖片和文字安全一樣要注意
其中文字就涉及到敏感字過濾的問題
目前大概流傳兩種解決辦法:
1、利用分詞器分詞實現過濾 比如見得比較多的 IKAnalyzer
2、利用一些效率優秀的算法 比如DFA算法
DFA算法 中文稱作有窮自動機 解釋:有一個有限狀態集合和一些從一個狀態通向另一個狀態的邊,每條邊上標記有一個符號,其中一個狀態是初態,某些狀態是終態。
它是是通過event和當前的state得到下一個state,即event+state=nextstate。
至於爲什麼說DFA算法比較優秀,其實他也沒做什麼運算,有的只是狀態的變化
ps:那好奇的寶寶說肯定就有無窮,詳情見xxxdu。。。
下面用畫圖表示
比如現在有幾個詞需要被過濾
我是好人、我是壞蛋、我是學生
這樣我們就把三個詞變成了一棵樹,以此類推 好多個詞就變成了 幾棵樹
比如我的詞庫有2k多個詞 可能100顆樹?我猜的.
這樣就大大減小了搜索的範圍
以java的角度來看 他就是一個嵌套map 左邊爲鍵右邊爲值,嵌套進去,當get(key) == null 時說明到頭了,這個時候如果全部匹配,說明你敏感了 要回家歇一會
理論差不多
具體實現還是有差異的
由於樹可能到中間也是一個完整的詞
所以不能以get(key)= null 爲準 需要加一個標記 或者說轉換狀態來算作敏感。
下面上代碼
package com.hqjl.communityserv.filter;
import com.hqjl.communityserv.util.SensitiveWordInit;
import java.io.File;
import java.util.HashSet;
import java.util.Iterator;
import java.util.Map;
import java.util.Set;
/**
* @author chunying
* @Date: 2019/9/26 0026
*/
public class SensitivewordFilter {
@SuppressWarnings("rawtypes")
private Map sensitiveWordMap = null;
public static int minMatchTYpe = 1; //最小匹配規則
public static int maxMatchType = 2; //最大匹配規則
/**
* 構造函數,初始化敏感詞庫
*/
public SensitivewordFilter(File file){
sensitiveWordMap = new SensitiveWordInit().initKeyWord(file);
}
/**
* 判斷文字是否包含敏感字符
* @param txt 文字
* @param matchType 匹配規則 1:最小匹配規則,2:最大匹配規則
* @return 若包含返回true,否則返回false
*/
public boolean isContaintSensitiveWord(String txt,int matchType){
boolean flag = false;
for(int i = 0 ; i < txt.length() ; i++){
int matchFlag = this.CheckSensitiveWord(txt, i, matchType); //判斷是否包含敏感字符
if(matchFlag > 0){ //大於0存在,返回true
flag = true;
}
}
return flag;
}
/**
* 獲取文字中的敏感詞
* @param txt 文字
* @param matchType 匹配規則 1:最小匹配規則,2:最大匹配規則
* @return
*/
public Set<String> getSensitiveWord(String txt , int matchType){
Set<String> sensitiveWordList = new HashSet<String>();
for(int i = 0 ; i < txt.length() ; i++){
int length = CheckSensitiveWord(txt, i, matchType); //判斷是否包含敏感字符
if(length > 0){ //存在,加入list中
sensitiveWordList.add(txt.substring(i, i+length));
i = i + length - 1; //減1的原因,是因爲for會自增
}
}
return sensitiveWordList;
}
/**
* 替換敏感字字符
* @param txt
* @param matchType
* @param replaceChar 替換字符,默認*
*/
public String replaceSensitiveWord(String txt,int matchType,String replaceChar){
String resultTxt = txt;
Set<String> set = getSensitiveWord(txt, matchType); //獲取所有的敏感詞
Iterator<String> iterator = set.iterator();
String word = null;
String replaceString = null;
while (iterator.hasNext()) {
word = iterator.next();
replaceString = getReplaceChars(replaceChar, word.length());
resultTxt = resultTxt.replaceAll(word, replaceString);
}
return resultTxt;
}
/**
* 獲取替換字符串
* @param replaceChar
* @param length
* @return
*/
private String getReplaceChars(String replaceChar,int length){
String resultReplace = replaceChar;
for(int i = 1 ; i < length ; i++){
resultReplace += replaceChar;
}
return resultReplace;
}
/**
* 檢查文字中是否包含敏感字符,檢查規則如下:<br>
* @param txt
* @param beginIndex
* @param matchType
* @return,如果存在,則返回敏感詞字符的長度,不存在返回0
*/
@SuppressWarnings({ "rawtypes"})
public int CheckSensitiveWord(String txt,int beginIndex,int matchType){
boolean flag = false; //敏感詞結束標識位:用於敏感詞只有1位的情況
int matchFlag = 0; //匹配標識數默認爲0
char word = 0;
Map nowMap = sensitiveWordMap;
for(int i = beginIndex; i < txt.length() ; i++){
word = txt.charAt(i);
nowMap = (Map) nowMap.get(word); //獲取指定key
if(nowMap != null){ //存在,則判斷是否爲最後一個
matchFlag++; //找到相應key,匹配標識+1
if("1".equals(nowMap.get("isEnd"))){ //如果爲最後一個匹配規則,結束循環,返回匹配標識數
flag = true; //結束標誌位爲true
if(SensitivewordFilter.minMatchTYpe == matchType){ //最小規則,直接返回,最大規則還需繼續查找
break;
}
}
}
else{ //不存在,直接返回
break;
}
}
if(matchFlag < 2 || !flag){ //長度必須大於等於1,爲詞
matchFlag = 0;
}
return matchFlag;
}
}
這裏要用到一個初始化敏感詞庫的工具
package com.hqjl.communityserv.util;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import java.io.BufferedReader;
import java.io.File;
import java.io.FileInputStream;
import java.io.InputStreamReader;
import java.util.*;
/**
* @author chunying
* @Date: 2019/9/26 0026
*/
public class SensitiveWordInit {
private final Logger logger = LoggerFactory.getLogger(SensitiveWordInit.class);
public String ENCODING = "UTF-8"; //字符編碼
@SuppressWarnings("rawtypes")
public HashMap sensitiveWordMap;
public SensitiveWordInit(){
super();
}
@SuppressWarnings("rawtypes")
public Map initKeyWord(File file){
try {
//讀取敏感詞庫
Set<String> keyWordSet = readSensitiveWordFile(file);
//將敏感詞庫加入到HashMap中
addSensitiveWordToHashMap(keyWordSet);
//spring獲取application,然後application.setAttribute("sensitiveWordMap",sensitiveWordMap);
} catch (Exception e) {
logger.error(e.getMessage(), e);
}
return sensitiveWordMap;
}
/**
* 讀取敏感詞庫,將敏感詞放入HashSet中,構建一個DFA算法模型:<br>
* 我 = {
* isEnd = 0
* 是 = {<br>
* isEnd = 1
* 壞= {isEnd = 0
* 人 = {isEnd = 1}
* }
* 好 = {
* isEnd = 0
* 人 = {
* isEnd = 1
* }
* }
* }
* }
* @param keyWordSet 敏感詞庫
*/
@SuppressWarnings({ "rawtypes", "unchecked" })
private void addSensitiveWordToHashMap(Set<String> keyWordSet) {
sensitiveWordMap = new HashMap(keyWordSet.size()); //初始化敏感詞容器,減少擴容操作
String key = null;
Map nowMap = null;
Map<String, String> newWorMap = null;
//迭代keyWordSet
Iterator<String> iterator = keyWordSet.iterator();
while(iterator.hasNext()){
key = iterator.next(); //關鍵字
nowMap = sensitiveWordMap;
for(int i = 0 ; i < key.length() ; i++){
char keyChar = key.charAt(i); //轉換成char型
Object wordMap = nowMap.get(keyChar); //獲取
if(wordMap != null){ //如果存在該key,直接賦值
nowMap = (Map) wordMap;
}
else{ //不存在則,則構建一個map,同時將isEnd設置爲0,因爲他不是最後一個
newWorMap = new HashMap<String,String>();
newWorMap.put("isEnd", "0"); //不是最後一個
nowMap.put(keyChar, newWorMap);
nowMap = newWorMap;
}
if(i == key.length() - 1){
nowMap.put("isEnd", "1"); //最後一個
}
}
}
}
/**
* 讀取敏感詞庫中的內容,將內容添加到set集合中
*/
@SuppressWarnings("resource")
private Set<String> readSensitiveWordFile(File file) throws Exception{
Set<String> set = null;
InputStreamReader read = new InputStreamReader(new FileInputStream(file),ENCODING);
try {
if(file.isFile() && file.exists()){ //文件流是否存在
set = new HashSet<String>();
BufferedReader bufferedReader = new BufferedReader(read);
String txt = null;
while((txt = bufferedReader.readLine()) != null){ //讀取文件,將文件內容放入到set中
set.add(txt);
}
}
else{ //不存在拋出異常信息
throw new Exception("敏感詞庫文件不存在");
}
} catch (Exception e) {
throw e;
}finally{
read.close(); //關閉文件流
}
return set;
}
}
這裏說下最小匹配原則 用於發現敏感詞就算違規的系統,當發現含有敏感詞時直接返回
最大匹配原則 當發現敏感詞時繼續查看 適用於後續需要替換敏感詞
然後看下文章過濾是怎麼用的
首先是baseFilter
package com.hqjl.communityserv.filter;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.context.annotation.Scope;
import org.springframework.stereotype.Component;
import javax.annotation.PostConstruct;
import java.io.File;
/**
* @author chunying
* @Date: 2019/10/8 0008
*/
@Component
public class BaseFilter<T> {
private final Logger LOG = LoggerFactory.getLogger(BaseFilter.class);
private static File file;
private static SensitivewordFilter secondFilter;
private static SensitivewordFilter firetFilter;
private T t;
protected SensitivewordFilter getSecondFilter() {
return secondFilter;
}
protected SensitivewordFilter getFiretFilter() {
return firetFilter;
}
public void setT(T t) {
this.t = t;
}
protected T getT() {
return t;
}
public BaseFilter() {
}
@PostConstruct
private synchronized void init() {
if (firetFilter== null) {
LOG.warn("正在初始化敏感詞庫...");
file = new File(BaseFilter.class.getClassLoader().getResource("file/SensitiveWord.txt").getFile());
firetFilter = new SensitivewordFilter(file);
}
}
public FilterCheckResult checkViolation() {
return null;
}
}
創建baseFilter的原因是 我的程序中有好多需過濾的地方,其他filter需要繼承它
其中SensitiveWord.txt 是放在resource下的敏感詞文件
這個類的作用是項目啓動時初始化了敏感詞庫,初始化以後不用再次讀取敏感詞文件了
這裏我預留了兩個filter,可以用作敏感1級 、2級的區分
然後是articleFilter
package com.hqjl.communityserv.filter;
import com.hqjl.communityserv.bean.po.Article;
import com.hqjl.communityserv.imageCheck.BaseRequest;
import com.hqjl.communityserv.imageCheck.ImageSyncScanRequest;
import org.apache.commons.lang3.StringUtils;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.context.annotation.Scope;
import org.springframework.stereotype.Component;
/**
* @author chunying
* @Date: 2019/10/8 0008
*
* @Description:帖子的過濾器 用於帖子的內容校驗以及違規檢查
*/
@Component
public class ArticleFilter<T extends Article> extends BaseFilter{
private final Logger LOG = LoggerFactory.getLogger(ArticleFilter.class);
public ArticleFilter() {
}
public FilterCheckResult checkFormat() {
FilterCheckResult filterCheckResult = new FilterCheckResult();
Boolean result;
T t = (T)super.getT();
String content = t.getContent();
String title = t.getTitle();
if (StringUtils.isEmpty(content.trim())) {
LOG.warn("該帖子內容爲空" + t.getTitle());
result = false;
}
result = true;
filterCheckResult.setResult(result);
return filterCheckResult;
}
@Override
public FilterCheckResult checkViolation() {
FilterCheckResult filterCheckResult = new FilterCheckResult();
String detail = "";
Boolean result = true;
filterCheckResult.setResult(result);
filterCheckResult.setDetail(detail);
if(!(checkFormat().getResult())) {
result = false;
return filterCheckResult;
}
T t = (T)getT();
String content = t.getContent();
String title = t.getTitle();
String label = t.getLabel();
boolean b3 = false;
//敏感詞過濾 TODO 雙層filter過濾
SensitivewordFilter filter = getFiretFilter();
boolean b1 = filter.isContaintSensitiveWord(content, 1);
if (label != null) {
b3 = filter.isContaintSensitiveWord(label, 1);
}
//替換敏感字
if (b1) {
content = filter.replaceSensitiveWord(content, 1, "*") ;
detail += "帖子正文有敏感詞";
}
if (b3 && label != null) {
filter.replaceSensitiveWord(label, 1, "*") ;
detail += "話題有敏感詞";
}
t.setContent(content);
t.setLabel(label);
if (b1 || b3) {
result = false;
}
filterCheckResult.setResult(result);
filterCheckResult.setDetail(detail);
return filterCheckResult;
}
}
這裏寫的有點亂 不要介意,具體的article類我就不往這裏放了 僅供參考
我這裏是只要看到敏感詞直接返回false 前端發帖失敗