Java阶段四Day11
文章目录
- Java阶段四Day11
- Spring AOP
- Elasticsearch
- 1. 关于各种数据库的使用
- 2. 关系型数据库中的索引
- 3. 安装与启动elasticsearch
- 4. 访问elasticsearch
- 5. 使用elasticsearch分词
- 6. elasticsearch文档的相关概念
- 7. 使用elasticsearch添加数据
- 7.1. 添加文档
- 7.2. 查看文档
- 7.3. 修改文档
- 7.4. 删除
 
- 8. elasitcsearch中的字段的数据类型
- 9. 搜索
- 9.1. 准备测试数据
- 9.2. 简单的搜索
 
 
 
Spring AOP
AOP:面向切面编程
注意:AOP并不是Spring原创的技术,也不是Spring的独家技术,而是源自AspectJ,只是Spring很好的支持了AOP。
AOP技术主要解决了“横切关注”的相关问题,也就是“若干个不同的方法都需要执行相同的任务”的问题!
在许多框架中,都通过AOP技术实现了对应的功能,例如:
-  在Spring JDBC中,使用AOP实现了事务管理 try { 开启事务 执行连接点:你的业务方法 提交事务 } catch (RuntimeException e) { 回滚事务 }
-  在Spring MVC框架中,使用AOP处理了异常 
-  在Spring Security框架,使用AOP检查权限 
假设存在需求:统计当前项目中所有Service方法的执行耗时。
在Spring Boot项目中使用AOP需要添加依赖:
<!-- Spring Boot支持AOP的依赖项 -->
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-aop</artifactId>
</dependency>
然后:
import org.aspectj.lang.ProceedingJoinPoint;
import org.aspectj.lang.annotation.Around;
import org.aspectj.lang.annotation.Aspect;
import org.springframework.stereotype.Component;
/**
 * 统计所有Service方法执行耗时的切面类
 *
 * @author java@tedu.cn
 * @version 1.0
 */
@Aspect
@Component
public class TimerAspect {
    @Around("execution(* cn.tedu.tea.admin.server..service.*.*(..))")
    public Object xx(ProceedingJoinPoint pjp) throws Throwable {
        long start = System.currentTimeMillis();
        Object proceedResult = pjp.proceed();
        long end = System.currentTimeMillis();
        System.out.println("执行耗时:" + (end - start));
        return proceedResult;
    }
}
import lombok.extern.slf4j.Slf4j;
import org.aspectj.lang.ProceedingJoinPoint;
import org.aspectj.lang.annotation.Around;
import org.aspectj.lang.annotation.Aspect;
import org.springframework.stereotype.Component;
import java.util.Arrays;
/**
 * 统计所有Service方法执行耗时的切面类
 *
 * @author java@tedu.cn
 * @version 1.0
 */
@Slf4j
@Aspect // 标记当前类是一个切面类
@Component // 标记当前类是一个组件类,则Spring会进行处理
public class TimerAspect {
    // 连接点(JoinPoint):程序执行过程中的某个节点,可能是某个方法的调整,或是某个方法抛出了异常
    // 切入点(PointCut):匹配连接点的表达式
    // -------------------------------------------------------------------
    // 通知(Advice)注解:
    // @Around:环绕,可以包裹连接点的执行,所以,你可以在执行连接点之前和之后编写你所需的代码
    // @Before:在执行连接点之前
    // @After:在执行连接点之后
    // @AfterThrowing:在抛出异常之后
    // @AfterReturning:在成功返回之后
    // -------------------------------------------------------------------
    // 各通知的执行点大致是以下这样:
    // @Around开始
    // try {
    //      @Before
    //      执行连接点
    //      @AfterReturning
    // } catch (Throwable e) {
    //      @AfterThrowing
    // } finally {
    //      @After
    // }
    // @Around结束
    // -------------------------------------------------------------------
    // 切入点表达式:匹配某些方法
    // 可以使用通配符:
    // - 星号(*):任意有且仅有1次匹配
    // - 2个连接的小数点(..):任意n次匹配,仅能用于包名和参数列表
    //                 ↓ 返回值类型
    //                   ↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓ 包名
    //                                                  ↓ 类名
    //                                                    ↓ 方法名
    //                                                      ↓↓ 参数列表
    // 在切入点表达式中,在返回值类型声明的左侧,还可以指定修饰符,修饰符是可选的
    // 如果没有显式的指定修饰符,则无论什么修饰符都可以匹配
    // 其实,其它部分也是如此,例如,如果没有指定包名,则无视匹配的类在哪个包下
    // 注意:注解是典型的修饰符
    // 注意:无论是注解,还是返回值、参数,只要不是基本数据类型、java.lang包下的类型,都必须使用全限定名
    @Around("execution(* cn.*.tea.admin.server..service.*.*(..))")
    //     ↓↓↓↓↓↓ 使用@Around时必须声明为ProceedingJoinPoint对象调用proceed()返回的结果
    //            ↓↓↓↓↓ 自定义的方法名
    //                  ↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓ 使用@Around时必须是ProceedingJoinPoint类型
    //                                           ↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓ 必须抛出
    public Object timer(ProceedingJoinPoint pjp) throws Throwable {
        log.trace("TimerAspect.timer()开始执行");
        // 获取连接点信息
        String targetClassName = pjp.getTarget().getClass().getName(); // 类型名
        String signatureName = pjp.getSignature().getName(); // 方法名
        Object[] args = pjp.getArgs(); // 参数列表
        System.out.println("连接点(方法)所属的类的名称:" + targetClassName);
        System.out.println("连接点(方法)的名称:" + signatureName);
        System.out.println("连接点(方法)的参数列表:" + Arrays.toString(args));
        // 获取起始时间
        long start = System.currentTimeMillis();
        // 调用ProceedingJoinPoint参数对象的proceed()方法,表示执行连接点,即调用了匹配到的方法
        // 注意-1:调用proceed()方法的异常,必须抛出,不可以简单的try...catch(除非在catch中再抛出异常)
        // 注意-2:调用proceed()方法时返回的结果,表示对应的Service方法的返回值,必须作为当前切面方法的返回值
        Object proceedResult = pjp.proceed();
        // 获取结束时间
        long end = System.currentTimeMillis();
        // 输出
        System.out.println("执行耗时:" + (end - start));
        log.trace("TimerAspect.timer()执行结束,即将返回");
        return proceedResult;
    }
}
关于SpringAOP的更多知识可看这篇文章:Spring AOP讲解及实例
Elasticsearch
1. 关于各种数据库的使用
关于MySQL:是关系型数据库,能清楚的表示数据之间的关系,并且,是基于磁盘存储的,可以使用相对较低的成本存储大量的数据
关于Redis:是基于K-V结构的在内存中读写数据的数据库(虽然也会自动同步到磁盘),能够明显的提高查询效率(通常设计预期不低于10万QPS),进而还可以保护关系型数据库,并且,通常是使用专门的服务器或集群,也可以作为整个集群中的共享内存资源
关于elasticsearch:用于解决搜索问题的非关系型文档数据库
2. 关系型数据库中的索引
在关系型数据库中,索引(index)是一种单独的、物理层面的对数据库中的一列或多列的值进行排序检索的一种数据结构。
如果没有做任何优化的处理,当MySQL这类数据库中的数据量较多时,查询效率会非常低下,这是因为在执行查询时,MySQL会把当前表中所有的数据全部检查一遍,检查每条数据是否匹配当前的查询规则!另外,MySQL是基于磁盘存储的,数据不会非常整齐的集中存储在磁盘的某个位置,而是散列的分布的磁盘的不同位置,例如:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-yg4Plz7I-1688551201196)(assets\image-20230705101201977.png)]](https://img-blog.csdnimg.cn/f3cbefe802e64eb684ceede7b8d8def2.png)
所以,在查询时,会需要频繁的执行IO操作,最终,实际表现查询效率非常低!
在MySQL中,创建索引的简单语法是:
CREATE INDEX index_name ON table_name (column_name[, column_name_2 ...]);
例如:
CREATE INDEX idx_username ON account_user (username);
对于某张表的某个字段的索引,只需要创建1次即可!
当创建索引后,索引对应的列的查询效率都可以在毫秒级完成!
注意:在创建索引时,表中的数据越多,创建索引的耗时越多!
删除索引的语法格式是:
DROP INDEX index_name ON table_name;
例如:
DROP INDEX idx_username ON account_user;
在创建索引时,MySQL会将对应字段的数据进行排序,并在索引中记录下每条数据的位置信息,所以,索引就相当于是“书的目录”,后续,当需要查询时,会先翻“书的目录”,找出数据对应的“页码”,并直接翻到对应的那一页,就能把数据全部找出来!所以,整体效率非常之高!
索引的本质是一种B+Tree结构(是一种树型结构)的数据,在MySQL中,InnoDB存储引擎中页的大小是16KB,如果使用BIGINT类型的主键,每个主键需要占用8字节,在B+Tree中的指针是4~8字节,每个指针与主键形成一个节点,则每个节点将占用最多16字节,每页最少可以存储1024个节点,深度为3的B+Tree最多可以存储1024 * 1024 * 1024个节点,大约是1000 * 1000 * 1000 = 1000000000个节点(10亿),所以,每个B+Tree可以维护约10亿个节点,如果表中的数据量不超过10亿条,都只需要最多执行3次IO操作,就可以找出数据的位置。
在数据库,即使你没有显式的创建索引,某些字段的查询效率可能也非常高,因为索引还有其它种类,包括:
- PRIMARY KEY:主键索引
- UNIQUE:唯一索引
- INDEX:普通索引
- FULLTEXT:全文索引
基于索引的特性,使用时,必须注意:
- 索引不会包含有NULL值的列
- 数据量非常少的表没有必要创建索引,例如绝大部分字典表,或数据量不多且修改频率也非常低的表也没有必要创建索引,例如资讯平台的“栏目”或“类别”、小型应用中“用户的角色”
- 数据经常变化的字段不要创建索引,因为会频繁的更新索引,导致更新效率低下
- 查询时需要计算字段值时,索引是无效的,例如:where age + 10 > 30时,age列的索引是无效的
- 左侧的模糊查询无法使用索引,因为索引是基于对这一列的数据进行排序得到的 
  - 其实,在开发实践中,所有模糊查询都是不允许使用的
 
除了以上限制以外,不同的企业的开发规范可能提出更高的要求:
- 类型为text的字段不允许使用索引
- 类型为varchar且字段值可能很长的字段,也不允许使用索引
- 其它
3. 安装与启动elasticsearch
无论是哪个操作系统,只需要下载elasticsearch的压缩包即可,将其解压,执行bin目录下的elasticsearch即可启动elasticsearch服务:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ixE86Lo6-1688551201197)(assets\image-20230705141026096.png)]](https://img-blog.csdnimg.cn/dbdfb5497b674f4eb3f269c483e02f47.png)
启动成功后,看到的结果大致是:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Hdi9DnNc-1688551201198)(assets\image-20230705141117661.png)]](https://img-blog.csdnimg.cn/7cb28c7d32e74cf79643d3bdaf80b8ae.png)
在使用elasticsearch的过程中,以上窗口不可以关闭!
启动成功后,你可以通过浏览器访问 http://localhost:9200,结果如下:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-b3L8uD8e-1688551201199)(assets\image-20230705141253272.png)]](https://img-blog.csdnimg.cn/43a2d892003f485fbef35a0fc286e070.png)
4. 访问elasticsearch
elasticsearch提供的访问方式是基于RESTful的,你可以使用任何一个可以提交REST请求的工具来访问elasticsearch,例如常见的测试工具PostMan等。
在IntelliJ IDEA中,你可以创建以.http为扩展名的HttpRequest文件,通过这类文件来提交REST请求,例如:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZxUCoGTK-1688551201200)(assets\image-20230705142113575.png)]](https://img-blog.csdnimg.cn/c22c5ebe2ac246a784277c1d25fb3756.png)
然后,在文件中编写请求:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-21tWQq1T-1688551201201)(assets\image-20230705142236387.png)]](https://img-blog.csdnimg.cn/26da3343a90f4d2b901c38d8c984c961.png)
直接点击请求左侧的绿色小箭头即可发起请求,执行效果如下:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PDUf8RrZ-1688551201201)(assets\image-20230705142416281.png)]](https://img-blog.csdnimg.cn/a94b9f24cddd4ec0971b664605e664c9.png)
5. 使用elasticsearch分词
向 http://localhost:9200/_analyze 提交请求即可分词,请求参数必须是名为text的,参数值就是你希望分词的词组或词句,例如:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8q6Hdiqn-1688551201202)(assets\image-20230705143417016.png)]](https://img-blog.csdnimg.cn/5cd86c96390041119b77481befebc3b7.png)
在同一个.http文件中,可以编写多个请求,但是,后续的请求的代码必须使用 ### 和前序的请求分开,不能只使用1个 #!
也可以对中文进行分词,但是,默认的分词对中文的支持非常不好,它只会将每个汉字作为一个词!
示例代码:
### 简单的分词:中文
GET http://localhost:9200/_analyze
Content-Type: application/json
{
  "text": "很高兴认识你!"
}
可以在elasticsearch中安装插件,以更好的支持中文的分词,经典的中文分词插件就是ik分词器。
你只需要找到elasticsearch文件夹下的plugins文件夹(如下图所示):
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-j93N1d92-1688551201203)(assets\image-20230705144408822.png)]](https://img-blog.csdnimg.cn/ecec09b2f33d41e1b6e6073231605f64.png)
然后,将IK分词器的文件夹粘贴到plugins的子级即可,并且,你可以自由的修改IK分词器文件夹的名称,例如:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8YJYOUne-1688551201204)(assets\image-20230705144540764.png)]](https://img-blog.csdnimg.cn/4549ab1390144b26bd5eae03124bfefa.png)
以上配置完成后,需要重启elasticsearch才会应用新的分词器!
接下来,在提交请求时,可以在请求参数列表中添加analyzer参数,取值可以是IK分词器中的ik_smart或ik_max_word,例如:
### 使用IK的分词:智能
GET http://localhost:9200/_analyze
Content-Type: application/json
{
  "analyzer": "ik_smart",
  "text": "很高兴认识你!"
}
### 使用IK的分词:最大词量(最细粒度)
GET http://localhost:9200/_analyze
Content-Type: application/json
{
  "analyzer": "ik_max_word",
  "text": "很高兴认识你!"
}
使用IK分词器时,还可以自造词!
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-mtfvl6Rg-1688551201204)(assets\image-20230705152018871.png)]](https://img-blog.csdnimg.cn/8f92e1f7f9d046349e6caf255a5aa4d7.png)
6. elasticsearch文档的相关概念
索引(index / indices)
- 相当于MySQL中的Database
类型(type / types)
- 相当于MySQL中的Table,可以自行创建“类型”,或,如果不关心“类型”,则使用_doc表示类型名
文档(document / documents)
- 相当于MySQL中的一行行的数据,在elasticsearch中每个数据都是由JSON格式组织的
字段(field / fields)
- 相当于MySQL中的Column
7. 使用elasticsearch添加数据
7.1. 添加文档
添加文档(使用elasticsearch随机生成的ID)
请求URL的格式:
POST http://localhost:9200/{索引名}/{类型名}
提示:添加文档时,如果索引不存在,会自动创建索引;如果类型不存在,会自动创建类型!
请求示例:
### 添加文档(新增数据),将随机生成此数据在ES中的ID
POST http://localhost:9200/index_crud/_doc
Content-Type: application/json
{
  "id": 1,
  "title": "这是放在ES中的第1篇文章",
  "sort": 80,
  "gmtCreate": "2023-07-01"
}
添加文档(新增数据),并自行指定ID
请求URL的格式(此处对ID值并没有严格的要求):
PUT http://localhost:9200/{索引名}/{类型名}/{文档ID}
请求示例:
### 添加文档(新增数据),并自行指定ID,此处对ID值并没有严格的要求
PUT http://localhost:9200/index_crud/_doc/No9527
Content-Type: application/json
{
  "id": 9527,
  "title": "这是放在ES中的第2篇文章",
  "sort": 90,
  "gmtCreate": "2023-07-02"
}
7.2. 查看文档
查看当前索引中的所有文档
请求URL的格式:
GET http://localhost:9200/{索引名}/_search
请求示例:
### 查看当前索引中的所有文档
GET http://localhost:9200/index_crud/_search
根据ID访问文档
请求URL的格式:
GET http://localhost:9200/{索引名}/_doc/{文档ID}
提示:如果是elasticsearch自动生成的ID,你可以通过“查看所有文档”来获取ID值,或者,此前添加文档时,返回的结果中也会包含ID值。
请求示例:
### 根据ID访问文档(此前添加文档时使用的自定义ID)
GET http://localhost:9200/index_crud/_doc/No9527
7.3. 修改文档
修改文档【1】
请求URL的格式:
PUT http://localhost:9200/{索引名}/_doc/{文档ID}
提示:以上请求与“指定ID的添加文档”是相同的!
注意:此类操作会使用请求参数替换原有的整个数据,如果原数据有5个属性,请求参数只有2个属性,执行后,数据将只有本次请求的2个属性!
请求示例:
PUT http://localhost:9200/index_crud/_doc/No9527
Content-Type: application/json
{
  "id": 9527,
  "title": "这是放在ES中的第2篇文章",
  "sort": 90,
  "gmtCreate": "2023-07-02"
}
修改文档【2】
请求URL的格式:
POST http://localhost:9200/{索引名}/_doc/{文档ID}/_update
提示:这种修改文档的方式只会修改原数据中与本次请求参数对应的属性
注意:如果原数据中没有本次请求的参数属性,则会在原数据上添加新的属性!
请求示例:
POST http://localhost:9200/index_crud/_doc/No9527/_update
Content-Type: application/json
{
  "doc": {
    "commentCount": 637
  }
}
7.4. 删除
根据ID删除文档
请求URL的格式:
DELETE http://localhost:9200/{索引名}/{类型名}/{文档ID}
注意:如果尝试删除的文档不存在,则会响应404错误!
请求示例:
DELETE http://localhost:9200/index_crud/_doc/No9527
删除整个索引
请求URL的格式:
DELETE http://localhost:9200/{索引名}
注意:将会删除这个索引中的所有类型及各类型中的数据!
注意:如果尝试删除的索引不存在,则会响应404错误!
请求示例:
DELETE http://localhost:9200/index_crud
8. elasitcsearch中的字段的数据类型
在elasticsearch中,文档的各个字段都是有数据类型的,大致有:
- 字符串类型:text、keyword- text类型被处理时,默认会被分词- 默认类型
 
- keyword类型被处理时,默认不会被分词
 
- 数值类型:integer、long
当向elasticsearch中添加文档时,如果对应的索引没有设置数据类型,则会自动设置数据类型!
可以查询索引信息,来观察各字段的数据类型!请求URL的格式为:
### 查看索引的基本信息
GET http://localhost:9200/{索引名}
请求示例:
### 查看索引的基本信息
GET http://localhost:9200/index_search
也可以专门的创建索引,并在创建时指定各字段的数据类型,请求方式大致是:
PUT http://localhost:9200/{索引名}
Content-Type: application/json
{
	"mappings": {
		"properties": {
			"{字段名1}": {
				"type": "{数据类型1}"
			},
			"{字段名2}": {
				"type": "{数据类型2}"
			},
			...
			"{字段名n}": {
				"type": "{数据类型n}"
			}
		}
	}
}
请求示例:
### 创建索引,并配置各字段的数据类型
PUT http://localhost:9200/index_search
Content-Type: application/json
{
  "mappings": {
    "properties": {
      "id": {
        "type": "long"
      },
      "title": {
        "type": "text"
      },
      "desc": {
        "type": "keyword"
      },
      "sort": {
        "type": "integer"
      },
      "price": {
        "type": "integer"
      }
    }
  }
}
9. 搜索
9.1. 准备测试数据
预计的测试数据是:
| id | title | desc | sort | price | 
|---|---|---|---|---|
| 1 | 散装龙井 | 性价比之王 | 150 | 200 | 
| 2 | 龙井礼盒套装 | 超值套装 | 160 | 668 | 
| 3 | 新上架铁观音 | 新茶上市 | 120 | 370 | 
| 4 | 武夷大红袍 | 经典红茶 | 130 | 988 | 
| 5 | 茉莉花茶 | 小清新 | 190 | 120 | 
将以上测试数据存入到名为index_search索引中,则代码为:
### 添加测试数据-1
PUT http://localhost:9200/index_search/_doc/1
Content-Type: application/json
{
  "id": 1,
  "title": "散装龙井",
  "desc": "性价比之王",
  "sort": 150,
  "price": 200
}
### 添加测试数据-2
PUT http://localhost:9200/index_search/_doc/2
Content-Type: application/json
{
  "id": 2,
  "title": "龙井礼盒套装",
  "desc": "超值套装",
  "sort": 160,
  "price": 668
}
### 添加测试数据-3
PUT http://localhost:9200/index_search/_doc/3
Content-Type: application/json
{
  "id":3,
  "title": "新上架铁观音",
  "desc": "新茶上市",
  "sort": 120,
  "price": 370
}
### 添加测试数据-4
PUT http://localhost:9200/index_search/_doc/4
Content-Type: application/json
{
  "id": 4,
  "title": "武夷大红袍",
  "desc": "经典红茶",
  "sort": 130,
  "price": 988
}
### 添加测试数据-5
PUT http://localhost:9200/index_search/_doc/5
Content-Type: application/json
{
  "id": 5,
  "title": "茉莉花茶",
  "desc": "小清新",
  "sort": 190,
  "price": 120
}
9.2. 简单的搜索
请求URL的格式:
GET http://localhost:9200/{索引名}/_search?q={字段名:关键字}
注意:执行以上搜索时,会自动对关键字进行分词,例如,关键是“套装”时,“散装”也会出现在结果中,因为会对“套装”进行分词,得到“套装”、“套”、“装”这些词,而“散装”也包含了“装”,所以,会出现在结果中!
请求示例:
### 搜索:按照title的“套装”进行搜索
GET http://localhost:9200/index_search/_search?q=title:套装
### 搜索:按照desc的“红茶”进行搜索
GET http://localhost:9200/index_search/_search?q=desc:红茶
注意:执行以上搜索时,如果搜索的字段是text类型,会自动对关键词进行分词,如果字段是keyword,则不会分词,仅有完全匹配的数据才会被搜索到!



















