Druid适用JSON-over-HTTP和SQL二种查询方法。除开标准化的SQL实际操作外,Druid还提供了大量唯一性实际操作,运用Druid提供算法模块能够快速的开展记数,排行和分位数计算,英语六级算分计算方式。
5.1 前期准备工作
5.1.1 导进很多数据

提前准备很多数据提供查询,大家插进1万个任意打的数据
http://localhost:8010/taxi/batchTask/100000
5.2.2 查询数据摄取过程
我们不难发现数据摄取过程后台运行,只能等待数据摄取任务完成

5.3 原生态查询
Druid 一开始的时候并不是适用 SQL 查询的,原生态查询是由查询 Broker 提供的 http server 来完成的

5.3.1 查询词法
curl -L -H&39; -XPOST --data-binary@<query_json_file> <queryable_host>:<port>/druid/v2/?pretty
5.3.2 查询实例

5.3.2.1 编写查询JSON
编写查询的JSonvi query/filter1.json
json 具体内容如下
{&34;:&34;, &34;:&34;, &34;:&34;, &34;:[ {&34;:&34;, &34;:&34; }], &34;:{&34;:&34;,&34;:&34;,&34;:1}, &34;:[&34;]}
5.3.2.2 主要参数表述
queryType:查询种类,timeseries意味着时间序列分析查询
dataSource:数据源,特定必须查询的数据源是什么
granularity:分类粒度分布,特定要进行分类的粒度分布是怎么样的
aggregations:汇聚查询:里边大家汇聚了count,对数据进行汇总
filter:数据过虑,必须查询这些数据
intervals:查询时长的范畴,留意时间段是原闭后开,后边的日期是查询不了的

5.3.2.3 实行查询指令
在取名行中实行下边的指令会把查询json发送至相对应的broker内进行查询--data-binary指定查询json的路线
curl -L -H &39; -XPOST --data-binary @query/filter1.json

大家查询了每一个月进行打的人数有多少个
沪江网一般都是很低的!用四易准~他是按标准评分细则的。并且根据以往使用过的学生们反映,总成绩上相差无异,这个和王长喜规则差不太多 江户时代问题就更大了,找词与阅读的打分规则不知为什么改为那般。
5.4 查询种类
druid查询使用的是HTTP RESTFUL方法,REST插口承担接受客户端查询要求,英语六级考试成绩计算方式,手机客户端只需将查询标准封装形式成JSON文件格式,根据HTTP方式进行JSON查询标准发送至broker连接点,查询取得成功会回到JSON格式结论数据。了解一下druid提供的查询种类
5.4.1 时间序列分析查询

timeseries时间序列分析查询针对特定时间范围依照查询标准回到汇聚出来的结果集,查询标准中能设查询粒度分布,结论排序方式及其过滤条件,过滤条件可以用嵌入过虑,同时支持后汇聚。
5.4.1.1 查询特性
时间序列分析查询主要包含7个主要一部分

就拿算分器来,我一般是较为这样算下来,所以最后分数比用算分器计算出来的高一点些:四级估600,考得606;六级估520,考得539。(因而最后分数称得准不准要将你也是开朗可能也是消极可能的影响因素考虑在内)。
| 特性 | 叙述 | 是不是务必 |
| queryType | 该字符串数组一直&34;; 该字段名告知Apache Druid怎样去理解这一查询 | 是 |
| dataSource | 用于标志查询的字符串数组或是目标,与关系型数据库文件的手表相近。查询数据源可以获得其他信息 | 是 |
| descending | 是不是对结果集开展降序排序,默认设置是false,其实就是升序排列 | 否 |
| intervals | ISO-8601格式JSON目标,重新定义了要查询的时间段 | 是 |
| granularity | 重新定义了查询过程的粒度分布,参照 Granularity | 是 |
| filter | 参照 Filters | 否 |
| aggregations | 参照 汇聚 | 否 |
| postAggregations | 参照Post Aggregations | 否 |
| limit | 限定返回结果数量整数金额值,默认设置是unlimited | 否 |
| context | 能够被用于改动查询个人行为,包含 Grand Total 和 Zero-filling。详细信息能看 前后文主要参数一部分中所有参数类型 | 否 |
5.4.1.2 实例
{&34;:&34;, &34;:&34;, &34;:&34;, &34;:2, &34;:&34;, &34;:&34;, &34;:[ {&34;:&34;, &34;:&34;, &34;:&34; } ], &34;:{&34;:&34;,&34;:&34;,&34;:&34;}, &34;:[&34;]}
5.4.2 TopN查询
290分是所谓最低分,零分都是290分。但这个分伴随着你各部件解题的准确率不一样而改变,例如:非正常情况最低分数高,你零分 或是 准确率非常高 或是 你其余部分分数高,某一部分稍低,你最低分就略微高一点。
topn查询是由特定的制度和表明层面回到一个结果集,星火英语四级高考估分器线上,topn查询可以看作是给出排序规则,回到单一维度的group by查询,可是topn查询比group by特性迅速。metric这一属性topn专属依照这个指标排列。
5.4.2.1 查询特性
topn的查询特性如下所示
| 特性 | 叙述 | 是不是务必 |
| queryType | 该字符串数组一直&34;,Druid根据本值来决定如何解析查询 | 是 |
| dataSource | 界定即将查询的字符串数组或是目标,与关系型数据库文件的手表相近。 详细信息可以看一下 数据源 一部分。 | 是 |
| intervals | ISO-8601文件格式时间间隔,重新定义了查询的时间段 | 是 |
| granularity | 界定查询粒度分布, 参照 Granularities | 是 |
| filter | 参照 Filters | 否 |
| aggregations | 参照Aggregations | 针对数值类型的metricSpec, aggregations或是postAggregations务必特定,不然非必要 |
| postAggregations | 参照postAggregations | 针对数值类型的metricSpec, aggregations或是postAggregations务必特定,不然非必要 |
| dimension | 一个string或是json目标,用于界定topN查询的层面列,详细信息参照DimensionSpec | 是 |
| threshold | 在topN中界定N的一个整型数字,比如:在top列表格中回到几个结论 | 是 |
| metric | 一个string或是json目标,用于特定top列表中排列。其他信息能够参照TopNMetricSpec | 是 |
| context | 参照Context | 否 |
5.4.2.2 实例

查询每季度年龄最小女人的第四个的大都市
vi query/topN.json

{&34;:&34;, &34;:&34;, &34;:&34;, &34;:2, &34;:&34;, &34;:&34;, &34;:[ {&34;:&34;, &34;:&34;, &34;:&34; }], &34;:{&34;:&34;,&34;:&34;,&34;:&34;}, &34;:[&34;]}
5.4.2.3 实行查询

curl -L -H &39; -XPOST --data-binary @query/topN.json
5.4.5 分类查询

实际应用中常常要进行分类查询,相当于sql语句里的Group by查询,如果对于单独层面和标准开展分类聚合计算,建议使用topN查询,可以获得更多的查询特性,分类查询适宜多层次,多指标汇聚查询
5.4.5.1 查询特性
下列内容是一个GroupBy查询的重要一部分:
| 特性 | 叙述 | 是不是务必 |
| queryType | 该字符串数组应当一直&34;,Druid根据本值来决定如何解析查询 | 是 |
| dataSource | 界定即将查询的字符串数组或是目标,与关系型数据库里的表相近。 详细信息可以看一下 数据库 一部分。 | 是 |
| dimension | 一个用于GroupBy的json List,详细信息参见DimensionSpec去了解获取维度的形式 | 是 |
| limitSpec | 参见limitSpec | 否 |
| having | 参见Having | 否 |
| granularity | 定义查询粒度分布,参见 Granularities | 是 |
| filter | 参见Filters | 否 |
| aggregations | 参见Aggregations | 否 |
| postAggregations | 参见Post Aggregations | 否 |
| intervals | ISO-8601格式时间间隔,定义了查询的时间段 | 是 |
| subtotalsSpec | 一个JSON二维数组,回到顶尖维度子集合分类的额外结果集。稍候将更具体地表述它。 | 否 |
| context | 参见Context | 否 |
5.4.5.2 实例
每一季度统计分析年龄要求21-31的男女打的的总数

vi query/groupBy.json
{&34;:&34;, &34;:&34;, &34;:&34;, &34;:[&34;], &34;:[ {&34;:&34;, &34;:&34; }], &34;:{ &34;:&34;, &34;:&34;, &34;:&34;, &34;:&34;, &34;:true }, &34;:[&34;]}
5.4.5.3 实行查询

curl -L -H &39; -XPOST --data-binary @query/groupBy.json
5.5 查询部件
四、六级考试报导总分成710分,计算公式:公式计算中TotSco表明总成绩,X表明每一位学生心理量表变换前初始总成绩,Mean表明心理量表平均值(是那被挑选取样的平均值),SD表明心理量表标准偏差(是那被挑选取样的标准偏差)。
在谈到具体查询以前,我们首先来了解一下各种各样查询都要用到的最基本部件,如Filter,Aggregator,Post-Aggregator,Query,Interval等,每一种部件都包含许多的小细节

5.5.1 Filter
Filter便是过滤装置,在查询句子中就是一个JSON目标,用于对维度进行分类和过虑,表明维度达到Filter的好还是我们想要的数据信息,相近sql里的where词句。Filter涉及到的种类如下所示:
5.5.1.1 挑选过滤装置
Selector Filter的功效类似SQL里的where key=value,它json实例如下所示
&34;:{&34;:&34;,&34;:dimension_name,&34;:target_value}
应用实例

vi query/filter1.json
{&34;:&34;, &34;:&34;, &34;:&34;, &34;:[ {&34;:&34;, &34;:&34; }], &34;:{&34;:&34;,&34;:&34;,&34;:1}, &34;:[&34;]}
5.5.1.2 正则匹配过滤装置
Regex Filter 用户可以使用正则表达式开展维度的过滤筛选,一切java支撑的规范正则匹配druid也支持,它JSON格式如下所示:
&34;:{&34;:&34;,&34;:dimension_name,&34;:regex}
应用实例,大家检索名字包括数据的客户进行汇聚统计分析

vi query/filter2.json
{&34;:&34;, &34;:&34;, &34;:&34;, &34;:[ {&34;:&34;, &34;:&34; }], &34;:{&34;:&34;,&34;:&34;,&34;:&34;}, &34;:[&34;]}
实行查询
curl -L -H &39; -XPOST --data-binary @query/filter2.json
5.5.1.3 逻辑性过滤装置

Logincal expression Filter包括and,not,or三种过滤装置,每一种也支持嵌入,能够搭建丰富多样的逻辑运算,与sql里的and,not,or相近,JSON关系式如下所示:
&34;:{&34;:&34;,&34;:[filter1,filter2]}&34;:{&34;:&34;,&34;:[filter1,filter2]}&34;:{&34;:&34;,英语四六级考试成绩手机模拟器,&34;:[filter]}
应用实例,大家查询每一个月,开展打的而且是女士的总数
vi query/filter3.json
{&34;:&34;, &34;:&34;, &34;:&34;, &34;:[ {&34;:&34;, &34;:&34; }], &34;:{&34;:&34;, &34;:[{&34;:&34;,&34;:&34;,&34;:1}, {&34;:&34;,&34;:&34;,&34;:&34;}]}, &34;:[&34;]}
对数据进行查询
curl -L -H &39; -XPOST --data-binary @query/filter3.json
5.5.1.4 包括过滤装置
In Filter类似SQL里的in, 例如 where username in(&39;,&39;,&39;),它JSON格式如下所示:
{ &34;:&34;,六级听力算分器, &34;:&34;, &34;:[&39;,&39;,新东方六级高考估分器线上,&39;]}
应用实例,大家查询每一个月,在四川省、江西、福建打的人数

vi query/filter4.json
{&34;:&34;, &34;:&34;, &34;:&34;, &34;:[ {&34;:&34;, &34;:&34; }], &34;:{&34;:&34;, &34;:&34;, &34;:[&34;,&34;,&34;]}, &34;:[&34;]}
对数据进行查询

curl -L -H &39; -XPOST --data-binary @query/filter4.json
{&34;:&34;,&34;:&34;,&34;:&34;, 34;upper&34;31&默认设置包括相当于&34;:true #数字比较时特定alphaNumeric为true}
应用实例,大家查询每一个月,年龄要求21-31中间打的人总数

vi query/filter5.json
{&34;:&34;, &34;:&34;, &34;:&34;, &34;:[ {&34;:&34;, &34;:&34; }], &34;:{ &34;:&34;, &34;:&34;, &34;:&34;, &34;:&34;, &34;:true }, &34;:[&34;]}
对数据进行查询
curl -L -H &39; -XPOST --data-binary @query/filter5.json

5.5.2 汇聚粒度分布
汇聚粒度分布根据granularity配置项特定汇聚周期时间,周期时间范畴要高于或等于创建索引时设定的检索粒度分布,druid带来了三种类型的汇聚粒度分布分别为:Simple,Duration,Period
5.5.2.1 Simple的汇聚粒度分布

Simple的汇聚粒度分布根据druid给予固定时间粒度开展汇聚,以字符串数组表明,定义查询标准的时候不会必须显示界面type配置项,druid给予的常见Simple粒度分布:
all,none,minute,fifteen_minute,thirty_minute,hour,day,month,Quarter(一季度),year;
all:会把开始和完毕期限内全部数据聚合到一起回到一个结果集。
none:依照创建索引后的最少粒度分布做聚合计算,最少粒度分布是ms为基准,不建议性能指标较弱;
minute:以min做为汇聚的最小粒度分布;
fifteen_minute:15min汇聚;
thirty_minute:30min汇聚
hour:一小时汇聚
day:天汇聚
month:月汇聚
Quarter:一季度汇聚
year:年聚合
编写检测,我们这边依照季度聚合,而且大家过虑年龄范围21-31的信息,而且依照地域及其性别开展分组

vi query/filter6.json
{&34;:&34;, &34;:&34;, &34;:&34;, &34;:[&34;,&34;], &34;:[ {&34;:&34;, &34;:&34; }], &34;:{ &34;:&34;, &34;:&34;, &34;:&34;, &34;:&34;, &34;:true }, &34;:[&34;]}

查询
curl -L -H &39; -XPOST --data-binary @query/filter6.json
5.5.2.2 Duration聚合粒度分布
duration聚合粒度分布带来了更加高效的聚合粒度分布,不仅仅限于Simple聚合粒度分布给予固定聚合粒度分布,而是用ms为基准自定聚合粒度分布,例如两个小时做一次聚合能设duration配置项为7200000ms,因此Simple聚合粒度分布不可以满足的聚合粒度分布可以考虑应用Duration聚合粒度分布。
英语四级各档分数遍布是:英语听力(35%)249分、阅读文章(35%)249分、阅读和汉语翻译(30%)
留意:应用Duration聚合粒度分布必须设定配置项type值为duration
这一太笼统 我讲下我的吧 英语听力16个 英语单词4个 语句两个半 迅速8个 找词2个 深层7个 完型填空5个 汉语翻译2个 =。
编写检测,只需根据
vi query/filter7.json

{&34;:&34;, &34;:&34;, &34;:{ &34;:&34;, &34;:7200000}, &34;:[&34;,&34;], &34;:[ {&34;:&34;, &34;:&34; }], &34;:{ &34;:&34;, &34;:&34;, &34;:&34;, &34;:&34;, &34;:true }, &34;:[&34;]}
数据统计
curl -L -H &39; -XPOST --data-binary @query/filter7.json
5.5.2.3 Period聚合粒度分布

Period聚合粒度分布使用了日期文件格式,常见的几类周期时间表明方式,一小时:PT1H,一周:P1W,一天:P1D,一个月:P1M;应用Period聚合粒度分布必须设定配置项type值为period。
编写检测,只需根据一天开展聚合

vi query/filter8.json
{&34;:&34;, &34;:&34;, &34;:{ &34;:&34;, &34;:&34;}, &34;:[&34;], &34;:[ {&34;:&34;, &34;:&34; }], &34;:{ &34;:&34;, &34;:&34;, &34;:&34;, &34;:&34;, &34;:true }, &34;:[&34;]}

数据统计
curl -L -H &39; -XPOST --data-binary @query/filter8.json
5.5.3 聚合器
Aggregator是聚合器,聚合器能够在数据摄取期和查看环节应用,在数据摄取环节应用聚合器可以在数据被查看以前依照层面开展聚合测算,提升查看环节聚合测算特性,在查看环节中,应用聚合器可以实现多种不同指标值的搭配测算。
5.5.3.1 公共属性
王长喜四级高考估分器较为精确。英语四级考试常见问题:1、同学们在报名前填好《报名卡》或者以别的方式按报名处需要提供有关信息,按照规定执行各类办理手续,之后还需要按本地考试中心网特定时间和地点领到《准考证》和《考试通知单》。
聚合装置的公共属性详细介绍
type:

name:界定传参的字段名称,等同于sql词法中的字段别称;
fieldName:数据库中已经界定的指标值名字,该值不能自定,一定要和数据库里的指标值名一致;
5.5.3.2 记数聚合
记数聚合器,相当于sql词法里的count函数,用以测算druid roll-up合拼以后的数据条数,六级分数计算方式,并非摄入原始记录数量,在定义数组方式指标值标准中务必添加一个count类别的记数指标值count;

例如想查看Roll-up 后有多少个条数据信息,查询JSON文件格式如下所示
vi query/aggregator1.json
绝对没有难题,写作会有一点误差,但是写作不会给太分太低的。
{&34;:&34;, &34;:&34;, &34;:&34;, &34;:[ {&34;:&34;, &34;:&34; }], &34;:{ &34;:&34;, &34;:&34;, &34;:&34;, &34;:&34;, &34;:true }, &34;:[&34;]}
5.5.3.3 求合聚合
求合聚合器,相当于sql词法里的sum函数,客户指标值求合测算,druid给予两类的聚合器,分别为long种类和double类别的聚合器;
第一类便是longSum Aggregator ,承担整数类型计算,JSON文件格式如下所示:
有一个网址计分很准的,http://4eonline.com/ 上面有一个四级算分,你试一下,还是相当准的,偏差并不大
{&34;:&34;,&34;:out_name,&34;:&34;}
第二类是doubleSum Aggregator,承担浮点型测算,JSON文件格式如下所示:

{&34;:&34;,&34;:out_name,&34;:&34;}
实例
vi query/aggregator2.json
{&34;:&34;, &34;:&34;, &34;:&34;, &34;:[ {&34;:&34;, &34;:&34;, &34;:&34; }], &34;:{ &34;:&34;, &34;:&34;, &34;:&34;, &34;:&34;, &34;:true }, &34;:[&34;]}
5.6 Druid SQL

Druid SQL是一个内置SQL层,是Druid根据JSON的当地数据库语言的替代物,它是由根据 Apache Calcite的在线解析和计划器给予支持
Druid SQL将SQL转换成查看Broker(查看的第一个过程)上的原生Druid查看,随后做为原生态Druid查看传达给数据信息过程。不仅在Broker上 变换SQL) 的(轻度)花销以外,与原生态查看对比,并没有附加性能损害。
5.6.1 基本上查看
5.6.1.1 查询数据总数量
还可以在druid的控制面板查询
select count(1) from &34;

5.6.1.2 查看现阶段打的总数
我们能统计分析出去现阶段的打的人数
5.6.2 聚合作用
聚合函数公式能够发生在所有的查询SELECt子句中。可以用相近词法过虑一切聚合器 AGG(expr) FILTER(WHERe whereExpr)。过滤的聚合器仅聚合与其说过滤装置相匹配的行。同一SQL查看里的2个聚合器很有可能有着不同的筛选器。

仅有COUNT聚合能接受DISTINCT。
| 作用 | 手记 |
| COUNT(*) | 测算个数,英语四级最低分是什么意思。 |
| COUNT(DISTINCT expr) | 测算expr的差异值,能是string,numeric或hyperUnique。默认设置前提下,这也是自然数,应用HyperLogLog的组合。要想获得准确的记数,请把“useApproximateCountDistinct”设为“false”。如果是这样做,expr一定要字符串数组或数据,由于使用hyperUnique列不能进行精准记数。另见APPROX_COUNT_DISTINCT(expr)。在精准模式中,每一个查看只可以一个不同类型的记数。 |
| SUM(expr) | 求合数。 |
| MIN(expr) | 选用最小的数据。 |
| MAX(expr) | 取最大数字。 |
| AVG(expr) | 平均值。 |
| APPROX_COUNT_DISTINCT(expr) | 测算expr的差异值,能是基本列或hyperUnique列。不管“useApproximateCountDistinct”数值怎样,这始终都是自然数。另见COUNT(DISTINCT expr)。 |
| APPROX_COUNT_DISTINCT_DS_HLL(expr,[lgK,tgtHllType]) | 测算expr的差异值,能是基本列或HLL手稿列。的lgK和tgtHllType参数HLL手稿word里叙述。不管“useApproximateCountDistinct”数值怎样,这始终都是自然数。另见COUNT(DISTINCT expr)。该DataSketches扩展务必加载应用该功能。 |
| APPROX_COUNT_DISTINCT_DS_THETA(expr,[size]) | 计算expr的差异值,能是基本列或Theta sketch列。该size主要参数在Theta sketchword里叙述。不管“useApproximateCountDistinct”数值怎样,这始终都是自然数。另见COUNT(DISTINCT expr)。该DataSketches扩展务必加载应用该功能。 |
| APPROX_QUANTILE(expr,probability,[resolution]) | 计算numeric或approxHistogram exprs的类似分位数。“几率”需要在0和1中间(不包括)。“屏幕分辨率”主要是用于计算的形心数。像素越高,结论越准确,但花销也就越高。假如不提供,则默认设置屏幕分辨率为50. 务必加载类似直方图扩展才能进行该功能。 |
| APPROX_QUANTILE_DS(expr,probability,[k]) | 计算标值或Quantiles手稿 exprs的类似分位数。“几率”需要在0和1中间(不包括)。该k主要参数在Quantiles手稿word里叙述。该DataSketches扩展务必加载应用该功能。 |
| APPROX_QUANTILE_FIXED_BUCKETS(expr,probability,numBuckets,lowerLimit,upperLimit,[outlierHandlingMode]) | 计算数据或固定不动桶直方图 exprs的类似分位数。“几率”需要在0和1中间(不包括)。的numBuckets,lowerLimit,upperLimit,和outlierHandlingMode主要参数在规定桶内叙述直方图文本文档。在类似直方图扩展务必加载应用该功能。 |
| BLOOM_FILTER(expr,numEntries) | 依据形成数值计算布隆过滤器,在假设正比例提升以前expr应用numEntries最大数量的差异值。相关别的详细资料,客户程序bloom filter扩展文本文档 |

5.6.2.1 查询数据总数量
还可以在druid的控制面板查询

select count(1) from &34;
5.7 手机客户端API
我在这里完成SpringBoot Mybatis完成SQL查看ApacheDruid数据信息
5.7.1 引进Pom依靠
<dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId></dependency><dependency><groupId>org.mybatis.spring.boot</groupId><artifactId>mybatis-spring-boot-starter</artifactId><version>2.2.0</version></dependency><dependency><groupId>org.apache.calcite.avatica</groupId><artifactId>avatica</artifactId><version>1.18.0</version></dependency><dependency><groupId>org.apache.calcite.avatica</groupId><artifactId>avatica-server</artifactId><version>1.18.0</version></dependency></dependencies>

5.7.1.1 配备数据库联接
在application.yml中配备数据库的连接信息内容
连接时特别注意Druid时区时间和JVM时区,不设时区时间时默认设置选用JVM时区时间
spring:datasource: 推动信息内容driver-class-name: org.apache.calcite.avatica.remote.Driver
5.7.2 编写代码
5.7.2.1 撰写dao层
public class TaxiMessage {private String __time;private Integer age;private Integer createDate;private String local;private String sex;private Integer status;private String statusText;private String username; //setter getter 忽视@Overridepublic String toString() {return &34; &39;&39;\&39; &34; age &34; createDate &39;&39;\&39; &39;&39;\&39; &34; status &39;&39;\&39; &39;&39;\&39; &39;;}}
5.7.2.2 撰写mapper
全部字段、表名必须采用如下所示方法标志 \&34;

@Mapperpublic interface TaxiMessageMapper {@Select(&34;taxi_message\&{username}")public TaxiMessage findByUserName(String username);}
5.7.2.3 撰写Service

@Servicepublic class TaxiMessageService {@Autowiredprivate TaxiMessageMapper taxiMessageMapper;public TaxiMessage findByUserName(String username) {return taxiMessageMapper.findByUserName(username);}}
5.7.2.4 撰写运行类
@SpringBootApplication@MapperScan(basePackages = &34;)public class Application {public static void main(String[] args) {SpringApplication.run(Application.class);}}
5.7.2.5 撰写测试类
@RunWith(SpringRunner.class)@SpringBootTest(classes = Application.class)public class DruidTest {@Autowiredprivate TaxiMessageService taxiMessageService;@Testpublic void test() {TaxiMessage taxiMessage = taxiMessageService.findByUserName(&34;);System.out.println(taxiMessage);Assert.assertNotNull(taxiMessage);}}
5.7.2.6 运行测试
本文链接:
本文章“英语四级算分器,英语六级算分计算方式”已帮助 90 人
免责声明:本信息由用户发布,本站不承担本信息引起的任何交易及知识产权侵权的法律责任!
本文由赋能网 整理发布。了解更多培训机构》培训课程》学习资讯》课程优惠》课程开班》学校地址等机构信息,可以留下您的联系方式,让课程老师跟你详细解答:
咨询热线:4008-569-579


