现在的时代正是大数据创新的时代,无数的企业正在进行一系列的数据创新和发展。
商业智能随着多年的发展,越来越完善,而这种发展也被众企业理解为现有数据的知识性转化,为企业提供明智的决策参考工具。不仅是大型企业,越来越多的中小企业也已经意识到信息化的重要性和迫切性,呈现出对管理软件旺盛的需求态势。中小企业在应用ERP等产品后,必将应用商业智能方案。
然而,在企业推动其商业智能的进程中,遇到的最大阻碍是什么?
很多人会首先提到极差的数据质量。在商业智能领域里,缺乏优质的数据确实是一个很现实的问题,尤其是当企业开始重视商业智能并希望通过分析数据来做企业决策的时候。针对数据来源进行处理,有助于减少基本的错误,建立起信任度,并可解决很多商业智能项目在最初的实施阶段出现的问题。
但是如果一味强调对数据完美性的追求,那就会背离我们部署商业智能解决方案的初衷。
实际上,没有完美的数据,数据也不可能完美。做出这种论断的多半是企业的IT或技术人员。他们常常感觉没有安全感,因为尽管他们知道数据是安全、可靠和备份过的,他们还是无法判断它的内容是好是坏。具有讽刺意味的是,只有在企业的管理者、决策者或数据分析专家在实际使用中接触到这些数据时,这些数据的质量和可用性问题才会真正出现。
在优化数据质量上所付出的时间和精力必须得与所获得的价值相平衡。绝大多数的应用场景并不需要完美的数据,他们需要的数据质量是在一定的容限范围内的。当然,容限范围的标准也是因功能和应用的具体场景而有所不同。财务应用对于数据错误的容忍度是很低的。但这并不是一个难题,因为金融管理这一职位本身承担了巨大的工作量和责任,因此财务交易数据的准确性是不难达到的。会计和审计的整个过程都是集中在数据质量的,它的目标是最大程度地从财务记录中减少错误。在我们的组织内部产生数据并对数据进行控制也有助于提高数据的质量。在其他方面,因为监管较少,对数据错误的容忍度就不那么严格。具有80%以上准确度的数据对于很多运营或战略决策可能就够用了。人们可能只是通过数据得到一个方向上的暗示,这些数据从总体来说就是有价值的。
要得到完美(或近乎完美)的数据,需要付出巨大的努力。芝诺悖论适用于此。随着数据增长的数量和维度越来越大,到达完美就越来越难。根本不可能(或成本划算地)将所有数据源完美到同一个程度。另外一个关键的问题是,数据完善专家们怎么处理那些不完美的数据呢?遵从它?或者冒着过度清洁数据或错误地“纠正”数据的风险去改变它?我们必须得接受一个事实,那就是数据是很难被处理完美的。我们对于数据质量的处理方法要变得成熟起来,要确保它是适合今天企业里这种增长迅速和多样化的数据流信息环境的。
和企业决策者手里的数据又差又不安全相比,人们对于完美数据的盲目追求更加危险。追求完美,不管具不具备可能性,都不是一件好事。因为完美会引入固定的标准,而固定的参考框架本身就会阻碍人们回答真正基础性的问题,从而限制创新的思维。盲目相信完美的数据,永远都无法勇敢面对新事物带来的冲击,无法面对那些我们不能或看不到未来的事情。