东北大学学报:自然科学版  2018, Vol. 39 Issue (12): 1685-1690  
0

引用本文 [复制中英文]

王蒙湘, 李芳芳, 于戈. 交互式数据探索框架的特征自适应技术[J]. 东北大学学报:自然科学版, 2018, 39(12): 1685-1690.
[复制中文]
WANG Meng-xiang, LI Fang-fang, YU Ge. Feature Adaptive Technology in Interactive Data Exploration Framework[J]. Journal of Northeastern University Nature Science, 2018, 39(12): 1685-1690. DOI: 10.12068/j.issn.1005-3026.2018.12.003.
[复制英文]

基金项目

国家自然科学基金资助项目(61472071);中央高校基本科研业务费专项资金资助项目(N161604005);辽宁省自然科学基金资助项目(2015020018)

作者简介

王蒙湘(1991-), 女, 内蒙古赤峰人, 东北大学博士研究生;
于戈(1962-), 男, 辽宁大连人, 东北大学教授, 博士生导师。

文章历史

收稿日期:2017-05-24
交互式数据探索框架的特征自适应技术
王蒙湘, 李芳芳, 于戈    
东北大学 计算机科学与工程学院, 辽宁 沈阳 110169
摘要:交互式数据探索是一组多样的发现式应用程序的关键技术, 着重于交互、探索和发现; 在许多场景和领域中广泛应用.以海量的学术文献数据探索为背景, 对交互式数据探索的特征自适应技术进行研究.首先, 提出一种适用于面向学术文献数据探索的特征自适应交互式数据探索框架FA-IDE(feature-adaptive interactive data exploration), 在每次迭代过程中动态地调整特征子集, 以满足用户兴趣多样性的需求.其次, 针对该框架, 提出特征子集的均匀度BFS(balance of feature subsets)评价准则, 并给出了基于BFS的序列前向特征选择算法.再次, 针对相关样本发现问题, 提出划分等级建立方法, 根据决策树模型对用户兴趣区域划分后, 提出基于相似度的结果集排序策略.实验结果表明, 所提出方法可有效提高用户探索效率和最终结果的准确性.
关键词交互式数据探索    主题提取    特征选择    样本发现    机器学习    
Feature Adaptive Technology in Interactive Data Exploration Framework
WANG Meng-xiang, LI Fang-fang, YU Ge    
School of Computer Science & Engineering, Northeastern University, Shenyang 110169, China
Corresponding author: YU Ge, E-mail: yuge@mail.neu.edu.cn
Abstract: Interactive data exploration(IDE)is a key technique in a diverse set of discovery-based applications, which focuses on interaction, exploration and discovery and has a wide range of applications in many scenes and areas. The feature adaptive technology of interactive data exploration was studied in this paper with the background of massive academic literature data exploration. Firstly, a framework of interactive data exploration was presented, namely FA-IDE(feature-adaptive interactive data exploration) framework, which can dynamically adjust the subset of features during each iteration to meet the needs of the user′s interest diversity. Secondly, according to this framework, the evaluation criteria of the balance of feature subsets(BFS) were proposed in the stage of exploration and a sequence forward feature selection algorithm based on BFS was also given. Besides, for the phases of related sample discovery, a division level establishment method was proposed. According to the decision tree model which can divide the user interest area, a strategy of result set sorting based on similarity was proposed.The results of experiments show that the accuracy and efficiency of the proposed method have been effectively improved.
Key words: interactive data exploration    topic extraction    feature selection    sample discovery    machine learning    

交互式数据探索在挖掘大数据的数据价值方面具有重要作用.通常来说, 交互式数据探索(interactive data exploration, IDE)是指用户在不十分明确自己查询输入的前提下, 系统通过列举样例、协同过滤、机器学习等技术和方式与用户进行交互和反馈, 从而逐渐接近用户的真实查询意图, 最终提供给用户与其查询意图最匹配的查询结果或返回相应的查询语[1].交互式数据探索的关注点[2]是强调交互、探索和发现.用户从海量的数据中用较小的精力, 更准确地找到所需要的信息, 其方式有别于用户通过搜索输入关键字找到所需信息的搜索过程[3].

对于数据探索这种大数据价值发现方式, 其难点在于在不同场景和领域下, 数据处理方式和交互式框架结构都有所不同.因此, 本文面向科学文献管理领域, 具体讨论和研究海量文献数据的交互式数据探索关键技术与实现.随着Internet的迅猛发展, 网络上学术文献共享以及文献数量膨胀, 产生了“信息迷向”和“信息过载”的问题.其次, 一些数据库和信息检索系统的交互方式为“提交查询-返回结果”, 这不能满足用户在查询过程中对信息需求的多样性与动态性[4].

针对以上问题, 本文以面向学术文献的交互式数据探索关键技术作为研究内容, 提出一种基于特征自适应的交互式数据探索的框架FA-IDE(feature-adaptive interactive data exploration), 在每次迭代过程中动态地调整特征子集, 以满足用户兴趣多样性的需求.其次, 针对探索方法, 提出了特征子集的均匀度BFS(balance of feature subsets)评价准则, 并给出了基于BFS的序列前向特征选择算法.最后, 针对相关样本发现问题, 提出划分等级建立方法, 根据决策树模型对用户兴趣区域划分后, 提出基于相似度的结果集排序策略.

1 交互式数据探索概述

交互式数据探索与传统的Web数据探索查询不同, 它的特点可概括为三个方面[1].一是查询动态性, 即输入数据动态性[2]和数据信息的动态性;二是交互反馈性[1], 即根据用户的探索行为, 对查询进行动态调整以精确地预测结果;三是学习主动性, 即引入学习主动性, 将机器学习方法应用于数据探索的各个阶段以提高数据探索的效率和准确性[5].

近年来, 已经存在很多原型系统针对交互式数据探索中的数据探索进行处理.DICE系统[6]和Blink系统[7]都支持海量数据的交互式查询, 但两者为提高交互式响应时间及快速返回查询结果而牺牲了结果准确性.AIDE系统[5]是一种支持IDE的自动化用户导航系统, 但存在属性分布偏斜等问题.SnapToQuery系统[8]是一种基于Snapping技术的反馈机制, 通过“快照”用户可能感兴趣的查询, 指导用户在查询规范过程中提出互动反馈.但不同的连接和聚合可视化效果不同, 泛化能力差, 基于运动捕捉的Snap界面存在抖动、敏感等问题.

2 基于特征自适应的交互式数据探索框架

本文提出的基于特征自适应的交互式数据探索框架FA-IDE, 如图 1所示, 改变传统的根据关键字等的输入方式, 采用基于手动标记示例的数据探索方式.

图 1 FA-IDE系统框架 Fig.1 System framework of FA-IDE

在数据预处理阶段, 给定一个数据库D, 在数据库中提取包含m个文献样本的初始文献数据集S(x1, x2, …, xm), 假设用户已经决定探索n个属性, 即文献的主题, 每个文献样本xid个属性(主题)描述, xi=(xi1, xi2, …, xid)是d维样本空间中的一个向量, 其中, xij表示xi在第j个属性上的取值, d为样本xi的维数.文献样本经过LDA(latent Dirichlet allocation)模型[9]的处理后, 构建出文献的主题特征向量T=(t1, t2, …, tk), 其中, ti表示第i个主题, 进而生成文献-主题模型.

在探索阶段, 系统进行样本重要属性选择.在每次迭代过程中, 从所有特征集合F={fi|i=1, …, k}中选择出特征子集X={f1, f2, …, fk}, 每次迭代过程动态地调整特征子集, 随后, 对探索空间根据重要属性进行网格划分, 进入相关样本发现阶段.将采样样本提供给用户进行反馈, 并要求用户按特征将探索任务标记感兴趣与不感兴趣的样本, 且这个分类在下一个迭代中不能修改.

当用户提供反馈时, 迭代指导过程开始.用户的相关性反馈要求按属性将样本分类, 用户标记的第i个样本记为(xi, yi), 其中yiY是样本xi的标记, Y是所有标记的集合或输出空间.已标记的样本用于训练分类模型M以划分用户的兴趣区域.此时, 将每次迭代选取的相关样本集与基于网格划分提取出的样本集合并, 在下次迭代中, 将提取的样本一起反馈给用户进行标记, 达到提高系统精度的目的.

当用户显式地终止该过程时, 即用户认为相关样本的集合已经达到了令其满意的大小或用户不想再标记更多样本时, 迭代过程结束.最后, 系统将分类模型进行数据提取并把结果集排序后输出.

3 FA-IDE中的探索方法 3.1 基于特征选择的样本重要属性选择

本文提出特征子集的均匀度BFS的评价准则, 将类别上所有样本数据的评估特征均匀度因子引入DFS(discernibility of feature subsets)准则[10], 使其具备评价数据偏斜度的能力, 并结合序列前向选择方法SFS(sequential forward selection)实现特征选择算法, 以达到在迭代过程中动态调整特征子集的目的.

定义1  对于C(C≥2)类分类问题, 设训练样本集为{(xm, ym)|xmRk, k>0, ym∈{1, …, C}, C≥2, m=1, …, n}, 其中, n是训练样本集规模, k是样本空间维数, ‖ym|ym=j, m=1, …, n‖=nj, j=1, …, C, nj为第j类的样本个数, 则含有i个特征的特征子集的均匀度BFSi定义为

(1)

式中:λ是区分度因子的权重系数;μ是均匀度因子的权重系数;χ2为卡方分布,检验样本在各个特征上是否分布均匀;x表示包含前i个特征的子集在全部数据集上的均值向量; x(j)表示在第j类数据集上的均值向量; xm(j)表示第j类中第m个样本对应前i个特征的特征向量.

定义2  设文献样本xi=(xi1, xi2, …, xik), xik为样本xik个主题的概率值, 文献样本xj=(xj1, xj2, …, xjk), xjk为样本xjk个主题的概率值, 本文使用余弦距离定义文献xixj之间的相似度:

(2)

基于BFS的序列前向特征选择算法设计如下:

F={fi|i=1, …, k}为全部特征组成的集合, X为被选择特征组成的子集; L为训练集且初始为空集, 即L=∅;基于BFS评价准则, 计算特征均匀度最大的k个特征, 即X={f1, f2, …, fk}; 在X={f1, f2, …, fk}上, 基于网格划分算法从全部数据集D提取初始样本集, 与标准对照集A比对结果, 得到标记数据集U; 令L=LU; 根据式(1), 使用数据集D和训练集L计算F中每个特征的BFS; 选择最重要的特征fmax=max{fi, i=1, …, k}, 令F=F-{fmax}; X=X∪{fmax}; max BFS=min.

输入:全部数据集D, 标准对照集A;

输出:特征子集X;

1.for 1 to k do//选择的特征个数k

2.begin

3.    for each fiX do

4.    begin

5.      temp X=X∪{fi};

6.      根据式(1)计算BFS(temp X);

7.      if BFS(temp X)> max BFS then

8.        begin

9.        max BFS = BFS(temp X);

10.      selected_feature =fi;

11.      end//end of if

12.     end//end of for

13.      X= temp X;

14.    F=F-selected_feature;

15.   end//end of for

3.2 相关样本发现

相关样本发现过程是数据探索的关键步骤, 它从还未探索的区域收集样本并识别单一相关样本, 通过展示给用户不同数据区域的样本发现相关样本.本文的方法是使用网格划分技术[7], 从每个网格单元发现样本以保证最大程度覆盖全部探索空间.

定义3  定义参数η为具体需要划分的区域数量, 即划分等级, 代表了划分的粒度级别.如果将归一化后的属性划分为η个等宽区域范围, 那么在整个探索空间上将创建ηd个网格单元.

定义4  定义参数σ为每个单元格在每个属性上覆盖的范围:

(3)

设一个网格的虚拟中心为O, 以这个中心点为基准, 在每个维度的一定范围内检索一个随机样本.

定义5  定义参数τ为每个单元的采样距离, 取决于每个属性域的划分等级.即

(4)

定义6 每个探索任务在R个样本的d维空间上执行, 即R={r1, r2, …, ri}, 其中, ri表示在第i个网格中获得的样本.对于RD一个给定的用户, 相关反馈样本集被划分成两类, 即感兴趣样本集RrR和不感兴趣样本集RirR.

基于网格划分方法的样本发现算法设计如下:

输入:探索空间全部样本集合D={d1, d2, d3, …, dn}, d个探索属性集X={f1, f2, …, fk};

输出:相关反馈样本集R;

设划分等级为η; 函数U为用户模型;

1) 对任意fi划分成等宽的η个区域, 其中i=1, 2, …, d, 得到ηd个网格单元;

2) 对第i个网格单元, 从D中使用式(2), 选择出距离虚拟中心O最近的样本di;

3) 对R中的每一个样本, 使用U进行标记, 得到RrRir;

4) 对感兴趣样本集Rr中的每一个样本所在的网格单元重复2)和3)两个步骤;

5) 在步骤2)至4)中, 相关反馈样本集R为样本发现阶段反馈给用户标记的样本集, Rr中每个样本所在的网格构成用户的兴趣区域.

交互式数据探索依赖于决策树分类器来划分用户兴趣区域, 通过用户已标记的样本数据对探索空间进行划分.本文使用CART决策树生成分类模型, 得到最终用户兴趣区域.

3.3 基于相似度的结果集排序

在用户兴趣区域中, 对结果集的排序问题, 分为单兴趣区域和多兴趣区域讨论.兴趣区域中的已标记样本表示用户反馈时标记的感兴趣样本, 未标记样本表示用户可能感兴趣的样本.

图 2所示是在二维空间中用户的单兴趣区域的表示以及样本的分布情况.单兴趣区域内, 排序过程设计如下:

图 2 二维空间中用户的单兴趣区域及样本分布 Fig.2 User's single interest area and sample distribution in two-dimensional space

1) 对兴趣区域内所有已标记样本计算几何中心G;

2) 得到中心后, 对所有样本根据式(2)计算与G的距离;

3) 根据计算值进行快速排序, 得到排序结果.

在多兴趣区域中, 当位于不同区域的多个样本拥有相同的用户兴趣相似度时, 需要对这些样本进行排序.图 3所示是二维空间中用户的多兴趣区域及样本的分布情况.

图 3 二维空间中用户的多兴趣区域及样本分布 Fig.3 User's multi area of interest and sample distribution in two-dimensional space

定义7  在多兴趣区域的情况下, 对于任意兴趣区域, 兴趣区域权重为已标记样本与该区域内所有样本数的比值, 区域内样本总数记为Ntotal, 已标记样本数记为Nmarked, 则区域权重公式为

(5)

因此, 对于任意两个文献xixj, 加权相似度公式为

(6)

多兴趣区域内, 排序过程设计如下:

1) 对任意兴趣区域, 计算兴趣区域内所有已标记样本的几何中心G;

2) 对任意兴趣区域, 使用式(5)计算区域的兴趣区域权重;

3) 对该区域内每个样本, 使用式(6)计算与G的加权相似度;

4) 根据计算值进行快速排序, 得到多兴趣区域的排序结果.

4 实验验证及结果分析 4.1 数据说明及实验方法

本文实验数据集为12种计算机科学类期刊, 包括:《软件学报》、《计算机科学与探索》、《计算机研究与发展》等2012~2016年14 428篇文献的题目、作者、发表时间及摘要信息.本文的数据预处理阶段, 通过LDA主题模型[9]对文献的主题进行提取, 通过交叉验证, 根据不同的主题数k进行实验, 画出Topic_number-logp(w|k)曲线[11], 得到后续实验选择主题个数为30.

实验方法:通过给定一个目标样本集作为标准对照集, 每次迭代过程中, 使用标准对照集对样本进行标记, 达到模拟用户的目的.根据这个标准对照集, 标记每次从迭代过程中提取的新样本集, 用户标记的样本是否为感兴趣的结果, 取决于这些样本是否包含在标准对照集中; 同时使用该标准对照集对最终样本集的准确率、召回率以及F1值进行评价.

标准对照集选择方法:通过不同的标准对照集选择方法来模拟不同情况下的迭代目标.实验通过改变标准对照集的复杂性来模拟以下迭代情况[2], 分别将大、中、小三种区域作为最终兴趣区域, 即将该区域中的所有样本作为标准对照集; 实验中在各个维度上归一化后, 大区域为宽度大于6小于9的区域, 中区域为宽度大于3小于6的区域, 小区域为宽度大于0小于3的区域.

4.2 BFS中的参数设置

根据实验数据的特点以及特征选择方法中关于类似参数的设置经验, 将参数值设置为:λ=0.8, μ=0.2;λ=0.6, μ=0.4;λ=0.4, μ=0.6;λ=0.2, μ=0.8.该实验的方法是在不同维数下, 基于BFS的特征选择算法F1值达到70%时, 通过标记样本的数量来确定λμ的值.

图 4可知, 当维度数为2, 3, 4时, μ取较大值时迭代效率更高.维度较低时, 每轮给用户反馈的样本较少, 即在BFS中λ作为区分度因子的训练数据较少.当探索属性维数为5时, 由于每轮迭代用户需要标记更多的样本, BFS中区分度因子λ依赖于训练数据集的大小, 故λ值较大时效果更好.因此, 本文选择λ=0.4, μ=0.6为BFS的权重系数.

图 4 不同维度下BFS中参数λμ对标记样本量的影响 Fig.4 Influence of parameters λ and μ on BFS in different dimensions
4.3 单目标区域下, 标记样本总量与F1值的关系实验

图 5图 6分别描述了样本总量为7 200和14 400时, 三种特征选择算法对应的迭代效率对比.

图 5 标记样本总量为7 200时三种算法F1值的比较 Fig.5 Comparison of F1 of three algorithms in the total number of samples at 7 200
图 6 样本总量为14 400时三种算法F1值的比较 Fig.6 Comparison of F1 of three algorithms in the total number of samples at 14 400

由图可知, BFS算法和DFS算法在不同数据量下的迭代效率均优于Random算法, 且BFS算法迭代性能略优于DFS算法, F1值可提高1%~3%.另外, 由于本文提出的FA-IDE框架及基于BFS的序列前向特征选择算法, 提供给用户进行反馈的样本对总体样本具有较好的覆盖度, 样本总量的增加只会增加数据分布的密度, 但不会对网格空间的收敛速度产生影响.因此, 数据量的成倍增长对迭代性能没有产生显著的影响.

4.4 不同区域下三种算法的迭代效率对比实验

图 7所示为用户兴趣目标区域为大、中和小三种规模时, 三种特征选择算法达到相同F1值的迭代效率.由图 7可知, BFS算法和DFS算法总是优于Random算法.在目标区域为大区域时, BFS算法达到相同F1值时, 需要标记的样本数量更少且效率更高.DFS算法依靠训练集进行特征选择, 更关注于用户的兴趣, 当目标区域较小时, 往往需要标记更多样本才能准确寻找到目标区域.因此, 在这种情况下, DFS算法略好于BFS算法.

图 7 不同区域下三种算法的迭代效率对比 Fig.7 Iteration efficiency comparison of three algorithms in different regions (a)—大区域;(b)—中区域;(c)—小区域.
5 结语

本文阐述了交互式数据探索的基本概念、存在的问题, 提出了一种基于特征自适应的交互式数据探索框架FA-IDE, 可根据用户兴趣多样性需求, 每次迭代过程中动态地调整特征子集.该框架将整个交互式数据探索划分为数据预处理和探索两个阶段.在探索阶段, 基于数据集在特征子集上的分布情况, 提出了特征子集的均匀度BFS评价准则, 根据评价准则, 给出了基于BFS的序列前向特征选择算法.其次, 针对相关样本发现问题, 提出划分等级建立方法, 利用决策树模型对用户兴趣区域划分后, 提出基于相似度的结果集排序策略.实验结果表明, 与现有的方法相比, 本文提出的基于特征自适应的交互式数据探索框架及相应的探索方法可以有效提高用户迭代效率和最终结果的准确性.

参考文献
[1]
王蒙湘, 李芳芳, 谷峪, 等. 交互式数据探索综述[J]. 计算机科学与探索, 2017, 11(2): 171–184.
( Wang Meng-xiang, Li Fang-fang, Gu Yu, et al. Survey on interactive data exploration[J]. Computer Science and Exploration, 2017, 11(2): 171–184. )
[2]
Ellermann J, Dorn K.Explore-by-example: an automatic query steering framework for interactive data exploration[C]//ACM SIGMOD International Conference on Management of Data.Snowbird, 2014: 517-528. https://dl.acm.org/citation.cfm?id=2610523
[3]
Dimitriadou K, Papaemmanouil O, Diao Y.Interactive data exploration based on user relevance feedback[C]//IEEE International Conference on Data Engineering.Atlanta, 2014: 292-295. https://www.researchgate.net/publication/269306585_Interactive_data_exploration_based_on_user_relevance_feedback
[4]
Du X Y, Chen J, Chen Y. Research on big data exploration[J]. Journal of Communication, 2015, 36(12): 77–88.
[5]
Dimitriadou K, Pappaemmanouil O, Diao Y. AIDE:an active learning-based approach for interactive data exploration[J]. IEEE Transactions on Knowledge & Data Engineering, 2016, 28(11): 2842–2856.
[6]
Kamat N, Jayachandran P, Tunga K, et al.Distributed and interactive cube exploration[C]//IEEE International Conference on Data Engineering.Atlanta, 2014: 472-483. https://www.researchgate.net/publication/269306322_Distributed_and_interactive_cube_exploration
[7]
Agarwal S, Iyer A P, Panda A, et al. Blink and it's done:Interactive queries on very large data[J]. Proceedings of the VLDB Endowment, 2012, 5(12): 1902–1905. DOI:10.14778/2367502
[8]
Jiang L, Nandi A.SnapToQuery: providing interactive feedback during exploratory query specification [C]//Proceedings of the VLDB Endowment.Kohala Coast, 2015: 1250-1261. https://dl.acm.org/citation.cfm?id=2809986
[9]
Newman D, Asuncion A U, Smyth P, et al.Distributed inference for latent Dirichlet allocation[C]//Conference on Neural Information Processing Systems.Vancouver, 2007: 1-6.
[10]
谢娟英, 谢维信. 基于特征子集区分度与支持向量的特征选择算法[J]. 计算机学报, 2014, 37(8): 1704–1718.
( Xie Juan-ying, Xie Wei-xin. Feature selection algorithm based on feature subset identity and support vector machine[J]. Journal of Computers, 2014, 37(8): 1704–1718. )
[11]