万恶的源头 HelloWorld
要完成lucene 的配置 需要几个jar包 (如果需要可以留言我私发)
1. Directory: 类代表一个Lucene索引的位置,FSDirectory:它表示一个存储在文件系统中的索引的位置
2. Analyzer 类是一个抽象类, 它有多个实现,在一个文档被入索引库之前,首先需要对文档内容进行分词处理,针对不同的语言和应用需要选择适合的 Analyzer。Analyzer 把分词后的内容交给 IndexWriter 来建立索引
3. IndexWriter:是创建索引和维护索引的中心组件, 这个类创建一个新的索引并且添加文档到一个已有的索引中。IndexWriter只负责索引库的更新(删、更新、插入),不负责查询
4. Document:由多个字段(Field)组成,一个Field代表与这个文档相关的元数据。如作者、标题、主题等等,分别做为文档的字段索引和存储。add(Fieldable field)添加一个字段(Field)到Document
Store,Index介绍
枚举类型 | 枚举常量 | 说明 |
Store | NO | 不存储属性的值 |
YES | 存储属性的值 | |
Index | NO | 不建立索引 |
ANALYZED | 分词后建立索引 | |
NOT_ANALYZED | 不分词,把整个内容作为一个词建立索引 |
说明:Store是影响搜索出的结果中是否有指定属性的原始内容。Index是影响是否可以从这个属性中查询(No),或是查询时可以查其中的某些词(ANALYZED),还是要把整个内容作为一个词进行查询(NOT_ANALYZED)。
1 public void saveGoods(Goods goods) { 2 //创建一个indexWrite 3 IndexWriter indexWriter = null; 4 //指定索引库的目录 5 Directory directory = null; 6 //创建一个分词器 7 Analyzer analyzer = null; 8 9 10 try {11 //不同分词器,分词的效果不同12 analyzer = new StandardAnalyzer(Version.LUCENE_30);13 //目录可以任意指定,最好和项目同级目录14 directory= FSDirectory.open(new File("./indexData"));15 //通过分词器和索引创建indexWrite16 indexWriter=new IndexWriter(directory,analyzer, IndexWriter.MaxFieldLength.LIMITED);17 //把Goods 转化成lucene可以识别的doument18 Document doc=new Document();19 //Goods 对象中的,每个属性,转化lucene 中的字段20 doc.add(new Field("gid",goods.getGid().toString(), Store.YES,Index.NOT_ANALYZED));21 doc.add(new Field("gname",goods.getGname(), Store.YES,Index.ANALYZED));22 doc.add(new Field("gprice",goods.getGprice().toString(), Store.YES,Index.NOT_ANALYZED));23 doc.add(new Field("gremark",goods.getGremark(), Store.YES,Index.ANALYZED));24 //把document添加到索引库25 indexWriter.addDocument(doc);26 //提交27 indexWriter.commit();28 } catch (IOException e) {29 e.printStackTrace();30 throw new RuntimeException(e);31 }finally {32 try {33 indexWriter.close();34 } catch (IOException e) {35 e.printStackTrace();36 }37 }38 }
1 package cn.wh; 2 3 import lombok.AllArgsConstructor; 4 import lombok.Data; 5 import lombok.NoArgsConstructor; 6 import lombok.experimental.Accessors; 7 8 //有参构造函数 9 @AllArgsConstructor10 //无参构造函数11 @NoArgsConstructor12 //封装13 @Data14 //链式风格访问15 @Accessors(chain = true)16 public class Goods implements java.io.Serializable {17 // Fields18 private Integer gid;19 private String gname;20 private Double gprice;21 private String gremark;22 23 }
1 public List<Goods> query(String gname){ 2 List<Goods> goodsList=new ArrayList<Goods>(); 3 // 创建查询工具类 4 IndexSearcher indexSearcher=null; 5 // 指定Lucenen索引库目录 6 Directory directory=null; 7 // 创建一个分词器 8 Analyzer analyzer=null; 9 try {10 // 指定查询的目录11 directory=FSDirectory.open(new File("./indexData"));12 // 指定查询的分词器: 钓鱼岛中国的---> 钓鱼 钓鱼岛 中国13 analyzer=new StandardAnalyzer(Version.LUCENE_30);14 // QueryParser:查询解析器,用来解析查询的字符串,和分词15 /*16 * Version.LUCENE_30:版本号17 * gname: 要查询的 字段名 Term:key,后面可以到多个字段中查找18 * analyzer:指定对关键字的分词器19 * */20 QueryParser parse=new QueryParser(Version.LUCENE_30,"gname",analyzer);21 // 解析要查询的关键字:返回的是Query类型22 Query query=parse.parse(gname);23 indexSearcher=new IndexSearcher(directory);24 // indexSearch做查询操作: n 用户期望查询结果数,后面做分页使用25 TopDocs topDocs=indexSearcher.search(query,10);26 /*27 * TopDocs:28 * totalHits: 实际查询到的结果数29 * scoreDocs[]: 存储了所有符合条件的document 编号30 * */31 System.out.println("实际的结果数为:" + topDocs.totalHits);32 // 存储的是document在lucenen中的逻辑编号33 ScoreDoc[] docs=topDocs.scoreDocs; //[0]=0 [1]=134 /*35 * ScoreDoc:36 * doc: 文档逻辑编号37 * score: 当前文档得分38 *39 * */40 for(int i=0;i<docs.length;i++){41 System.out.println("文档的编号:" + docs[i].doc);42 System.out.println("此文档的得分:" + docs[i].score);43 // 通过文档的编号获取真正的文档44 Document doc=indexSearcher.doc(docs[i].doc);45 // 把Document类型转化我们自己识别的类型46 Goods goods=new Goods();47 goods.setGid(Integer.parseInt(doc.get("gid")));48 goods.setGname(doc.get("gname"));49 goods.setGprice(Double.parseDouble(doc.get("gprice")));50 goods.setGremark(doc.get("gremark"));51 goodsList.add(goods);52 }53 } catch (Exception e) {54 e.printStackTrace();55 throw new RuntimeException(e);56 }57 return goodsList;58 59 }
可以根据hello 查询出来东西
这时 lucence 提供了一个jar 包 这个jar包是可以看见索引文件中的元素模样
在cmd 输入 java -jar XXXX jar包的名 (如果要这个jar 包 可以留言 我私法)
打开一个客户端 这时 在path中输入索引文件夹的位置
就能看见每个分词的效果就大小和索引