摘要
在挖掘大型数据库的关联规则时,使用并行计算是必需的.针对传统的并行计算,存在不能处理节点失效,难以处理负载均衡等问题,提出基于Hadoop架构实现并行关联规则计算的设计.理论和实验证明,基于Hadoop的并行关联规则计算,能处理节点失效,并且能做到节点负载均衡.
Parallel compute is required in mining frequent item sets on large databases.MPI can't handle node failure,and it's difficult to solve load balance.So we propose parallel mining frequent item sets on Hadoop.Theoretical and experimental results show parallel mining frequent item sets on Hadoop can handle node failure and can solve load balance.
出处
《天津理工大学学报》
2011年第1期25-28,32,共5页
Journal of Tianjin University of Technology
基金
国家863基金(2009AA01Z152)
天津市自然科学基金(08JCYBJC12400)
中小企业创新基金(08ZXCXGX15000)