怎么在Java中使用DFA算法過(guò)濾敏感詞?針對(duì)這個(gè)問(wèn)題,這篇文章詳細(xì)介紹了相對(duì)應(yīng)的分析和解答,希望可以幫助更多想解決這個(gè)問(wèn)題的小伙伴找到更簡(jiǎn)單易行的方法。
創(chuàng)新互聯(lián)公司主營(yíng)永和網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司,主營(yíng)網(wǎng)站建設(shè)方案,成都app開發(fā),永和h5小程序制作搭建,永和網(wǎng)站營(yíng)銷推廣歡迎永和等地區(qū)企業(yè)咨詢
具體實(shí)現(xiàn):
1、匹配大小寫過(guò)濾
2、匹配全角半角過(guò)濾
3、匹配過(guò)濾停頓詞過(guò)濾。
4、敏感詞重復(fù)詞過(guò)濾。
例如:
支持如下類型類型過(guò)濾檢測(cè):
fuck 全小寫
FuCk 大小寫
fuck全角半角
f!!!u&c ###k 停頓詞
fffuuuucccckkk 重復(fù)詞
敏感詞過(guò)濾的做法有很多,我簡(jiǎn)單描述我現(xiàn)在理解的幾種:
①查詢數(shù)據(jù)庫(kù)當(dāng)中的敏感詞,循環(huán)每一個(gè)敏感詞,然后去輸入的文本中從頭到尾搜索一遍,看是否存在此敏感詞,有則做相
應(yīng)的處理,這種方式講白了就是找到一個(gè)處理一個(gè)。
優(yōu)點(diǎn):so easy。用java代碼實(shí)現(xiàn)基本沒什么難度。
缺點(diǎn):這效率讓我心中奔過(guò)十萬(wàn)匹草泥馬,而且匹配的是不是有些蛋疼,如果是英文時(shí)你會(huì)發(fā)現(xiàn)一個(gè)很無(wú)語(yǔ)的事情,比如英文
a是敏感詞,那我如果是一篇英文文檔,那程序它妹的得處理多少次敏感詞?誰(shuí)能告訴我?
②傳說(shuō)中的DFA算法(有窮自動(dòng)機(jī)),也正是我要給大家分享的,畢竟感覺比較通用,算法的原理希望大家能夠自己去網(wǎng)上查查
資料,這里就不詳細(xì)說(shuō)明了。
優(yōu)點(diǎn):至少比上面那sb效率高點(diǎn)。
缺點(diǎn):對(duì)于學(xué)過(guò)算法的應(yīng)該不難,對(duì)于沒學(xué)過(guò)算法的用起來(lái)也不難,就是理解起來(lái)有點(diǎn)gg疼,匹配效率也不高,比較耗費(fèi)內(nèi)存,
敏感詞越多,內(nèi)存占用的就越大。
③第三種在這里要特別說(shuō)明一下,那就是你自己去寫一個(gè)算法吧,或者在現(xiàn)有的算法的基礎(chǔ)上去優(yōu)化,這也是小Alan追求的至
高境界之一,如果哪位淫兄有自己的想法一定別忘了小Alan,可以加小Alan的QQ:810104041教小Alan兩招耍耍。
二、代碼實(shí)現(xiàn)
其目錄結(jié)構(gòu)如下:
其中resources資源目錄中:
stopwd.txt :停頓詞,匹配時(shí)間直接過(guò)濾。
wd.txt:敏感詞庫(kù)。
1、WordFilter敏感詞過(guò)濾類
package org.andy.sensitivewdfilter; import java.io.BufferedReader; import java.io.IOException; import java.io.InputStreamReader; import java.util.ArrayList; import java.util.HashMap; import java.util.HashSet; import java.util.List; import java.util.Map; import java.util.Set; import org.andy.sensitivewdfilter.util.BCConvert; /** * 創(chuàng)建時(shí)間:2016年8月30日 下午3:01:12 * * 思路: 創(chuàng)建一個(gè)FilterSet,枚舉了0~65535的所有char是否是某個(gè)敏感詞開頭的狀態(tài) * * 判斷是否是 敏感詞開頭 | | 是 不是 獲取頭節(jié)點(diǎn) OK--下一個(gè)字 然后逐級(jí)遍歷,DFA算法 * * @author andy * @version 2.2 */ public class WordFilter { private static final FilterSet set = new FilterSet(); // 存儲(chǔ)首字 private static final Mapnodes = new HashMap (1024, 1); // 存儲(chǔ)節(jié)點(diǎn) private static final Set stopwdSet = new HashSet<>(); // 停頓詞 private static final char SIGN = '*'; // 敏感詞過(guò)濾替換 static { try { long a = System.nanoTime(); init(); a = System.nanoTime() - a; System.out.println("加載時(shí)間 : " + a + "ns"); System.out.println("加載時(shí)間 : " + a / 1000000 + "ms"); } catch (Exception e) { throw new RuntimeException("初始化過(guò)濾器失敗"); } } private static void init() { // 獲取敏感詞 addSensitiveWord(readWordFromFile("wd.txt")); addStopWord(readWordFromFile("stopwd.txt")); } /** * 增加敏感詞 * @param path * @return */ private static List readWordFromFile(String path) { List words; BufferedReader br = null; try { br = new BufferedReader(new InputStreamReader(WordFilter.class.getClassLoader().getResourceAsStream(path))); words = new ArrayList (1200); for (String buf = ""; (buf = br.readLine()) != null;) { if (buf == null || buf.trim().equals("")) continue; words.add(buf); } } catch (Exception e) { throw new RuntimeException(e); } finally { try { if (br != null) br.close(); } catch (IOException e) { } } return words; } /** * 增加停頓詞 * * @param words */ private static void addStopWord(final List words) { if (words != null && words.size() > 0) { char[] chs; for (String curr : words) { chs = curr.toCharArray(); for (char c : chs) { stopwdSet.add(charConvert(c)); } } } } /** * 添加DFA節(jié)點(diǎn) * @param words */ private static void addSensitiveWord(final List words) { if (words != null && words.size() > 0) { char[] chs; int fchar; int lastIndex; WordNode fnode; // 首字母節(jié)點(diǎn) for (String curr : words) { chs = curr.toCharArray(); fchar = charConvert(chs[0]); if (!set.contains(fchar)) {// 沒有首字定義 set.add(fchar);// 首字標(biāo)志位 可重復(fù)add,反正判斷了,不重復(fù)了 fnode = new WordNode(fchar, chs.length == 1); nodes.put(fchar, fnode); } else { fnode = nodes.get(fchar); if (!fnode.isLast() && chs.length == 1) fnode.setLast(true); } lastIndex = chs.length - 1; for (int i = 1; i < chs.length; i++) { fnode = fnode.addIfNoExist(charConvert(chs[i]), i == lastIndex); } } } } /** * 過(guò)濾判斷 將敏感詞轉(zhuǎn)化為成屏蔽詞 * @param src * @return */ public static final String doFilter(final String src) { char[] chs = src.toCharArray(); int length = chs.length; int currc; int k; WordNode node; for (int i = 0; i < length; i++) { currc = charConvert(chs[i]); if (!set.contains(currc)) { continue; } node = nodes.get(currc);// 日 2 if (node == null)// 其實(shí)不會(huì)發(fā)生,習(xí)慣性寫上了 continue; boolean couldMark = false; int markNum = -1; if (node.isLast()) {// 單字匹配(日) couldMark = true; markNum = 0; } // 繼續(xù)匹配(日你/日你妹),以長(zhǎng)的優(yōu)先 // 你-3 妹-4 夫-5 k = i; for (; ++k < length;) { int temp = charConvert(chs[k]); if (stopwdSet.contains(temp)) continue; node = node.querySub(temp); if (node == null)// 沒有了 break; if (node.isLast()) { couldMark = true; markNum = k - i;// 3-2 } } if (couldMark) { for (k = 0; k <= markNum; k++) { chs[k + i] = SIGN; } i = i + markNum; } } return new String(chs); } /** * 是否包含敏感詞 * @param src * @return */ public static final boolean isContains(final String src) { char[] chs = src.toCharArray(); int length = chs.length; int currc; int k; WordNode node; for (int i = 0; i < length; i++) { currc = charConvert(chs[i]); if (!set.contains(currc)) { continue; } node = nodes.get(currc);// 日 2 if (node == null)// 其實(shí)不會(huì)發(fā)生,習(xí)慣性寫上了 continue; boolean couldMark = false; if (node.isLast()) {// 單字匹配(日) couldMark = true; } // 繼續(xù)匹配(日你/日你妹),以長(zhǎng)的優(yōu)先 // 你-3 妹-4 夫-5 k = i; for (; ++k < length;) { int temp = charConvert(chs[k]); if (stopwdSet.contains(temp)) continue; node = node.querySub(temp); if (node == null)// 沒有了 break; if (node.isLast()) { couldMark = true; } } if (couldMark) { return true; } } return false; } /** * 大寫轉(zhuǎn)化為小寫 全角轉(zhuǎn)化為半角 * * @param src * @return */ private static int charConvert(char src) { int r = BCConvert.qj2bj(src); return (r >= 'A' && r <= 'Z') ? r + 32 : r; } }
其中:
isContains :是否包含敏感詞
doFilter:過(guò)濾敏感詞
2、WordNode敏感詞節(jié)點(diǎn)
package org.andy.sensitivewdfilter; import java.util.LinkedList; import java.util.List; /** * 創(chuàng)建時(shí)間:2016年8月30日 下午3:07:45 * * @author andy * @version 2.2 */ public class WordNode { private int value; // 節(jié)點(diǎn)名稱 private ListsubNodes; // 子節(jié)點(diǎn) private boolean isLast;// 默認(rèn)false public WordNode(int value) { this.value = value; } public WordNode(int value, boolean isLast) { this.value = value; this.isLast = isLast; } /** * * @param subNode * @return 就是傳入的subNode */ private WordNode addSubNode(final WordNode subNode) { if (subNodes == null) subNodes = new LinkedList (); subNodes.add(subNode); return subNode; } /** * 有就直接返回該子節(jié)點(diǎn), 沒有就創(chuàng)建添加并返回該子節(jié)點(diǎn) * * @param value * @return */ public WordNode addIfNoExist(final int value, final boolean isLast) { if (subNodes == null) { return addSubNode(new WordNode(value, isLast)); } for (WordNode subNode : subNodes) { if (subNode.value == value) { if (!subNode.isLast && isLast) subNode.isLast = true; return subNode; } } return addSubNode(new WordNode(value, isLast)); } public WordNode querySub(final int value) { if (subNodes == null) { return null; } for (WordNode subNode : subNodes) { if (subNode.value == value) return subNode; } return null; } public boolean isLast() { return isLast; } public void setLast(boolean isLast) { this.isLast = isLast; } @Override public int hashCode() { return value; } }
關(guān)于怎么在Java中使用DFA算法過(guò)濾敏感詞問(wèn)題的解答就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道了解更多相關(guān)知識(shí)。