海量天文数据时代的创新与思索
为了适应周末休闲的氛围,以后在周日,我们会把日常文章更新暂停一天,向大家介绍和分享一些网络资源,报告,如果有条件的话,也可能讨论一些更轻松一些的话题 今天给大家介绍的是刚刚结束的一次科学会议:今年5月3-5日在美国西弗吉尼亚,Greenbank,由美国国家射电天文台主办的 Innovations in Data-Intensive Astronomy 会议,从题目就可以看出,这次会议讨论的是海量天文数据时代在数据收集,处理,储存和分享上面临的挑战和可能的前景;从SDSS开始,天文学家们已经意识到了数据雪崩时代的到来,一次巡天观测产生几百TB的数据不足为奇,我们前两天介绍的OGLE巡天每晚250GB的数据流已经属于极其“轻量级”的了,未来的LSST(大视场全景巡天望远镜)进行的半全天测光巡天要求的数据处理能力是300MB/s,而其数据量更是轻松跨进了PB计量时代; 像变态的SKA (Square Kilometer Array)射电阵列在观测时产生的数据流可以达到16TB/s。简单的说,天文学研究的面貌已经在发生着改变,而我们,也要开始做好准备了