首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   101篇
  免费   0篇
教育   45篇
科学研究   19篇
各国文化   1篇
体育   4篇
文化理论   9篇
信息传播   23篇
  2021年   2篇
  2020年   1篇
  2019年   6篇
  2018年   9篇
  2017年   5篇
  2016年   3篇
  2015年   4篇
  2014年   6篇
  2013年   19篇
  2012年   11篇
  2011年   7篇
  2010年   4篇
  2009年   5篇
  2008年   2篇
  2007年   4篇
  2006年   3篇
  2002年   2篇
  2000年   1篇
  1999年   1篇
  1996年   1篇
  1990年   1篇
  1986年   1篇
  1982年   2篇
  1957年   1篇
排序方式: 共有101条查询结果,搜索用时 15 毫秒
101.
Over the past decade, national research evaluation exercises, traditionally conducted using the peer review method, have begun opening to bibliometric indicators. The citations received by a publication are assumed as proxy for its quality, but they require standardization prior to use in comparative evaluation of organizations or individual scientists: the citation data must be standardized, due to the varying citation behavior across research fields. The objective of this paper is to compare the effectiveness of the different methods of normalizing citations, in order to provide useful indications to research assessment practitioners. Simulating a typical national research assessment exercise, he analysis is conducted for all subject categories in the hard sciences and is based on the Thomson Reuters Science Citation Index-Expanded®. Comparisons show that the citations average is the most effective scaling parameter, when the average is based only on the publications actually cited.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号