Download Conference Programm and Book of Abstracts in PDF file

15th May 2017 / 15 maja 2017

International plenary session 1
Międzynarodowa sesja plenarna 1
(Chair: Barbara Sosińska-Kalata)

Beyond Accessibility: “Operational Usability” in Virtual Research Environments and Open Learning Contexts, Gerhard Budin (University of Vienna)

The paper focuses on two major scenarios in society, where research data are being produced and used: in scientific research (& development) and in education & learning. In both scenarios, web-based work environments have developed over time in the form of virtual research environments (VREs) and e-learning platforms. While in VREs research data are being produced and used in different stages of research, usually or increasingly in a collaborative way, such research data are re-used in learning platforms in different didactic models and educational contexts, ranging from primary to tertiary education and (professional) training. What these scenarios share is a fundamental value-creation process model with data being used for gaining information and using this for creating knowledge, both at individual and at collective levels. This knowledge is re-used as the source of creating theories, methods, models and tools to collect more data, and so on. This circular model is increasingly the point of departure for research data management plans and policies, as well as for operational data curation, data modeling, long-term preservation, algorithms for data mining and gathering, data aggregation and analysis, etc. Similarly, learning environments are modelled according to learning paths, didactic models, learner knowledge models and learning goals that are specified by educational experts, teachers and trainers.

The need for innovative information services in these two scenarios is also evident, in particular in the light of growing expectations of users in terms of usability and accessibility of user interfaces of such VREs and learning platforms. While the concept of accessibility covers all human senses, their potential impairments, and thus the availability of alternative ways of using such systems, the concept of usability has traditionally focused on the ease of use of systems depending on the types of users and their typical competences and skills.

The concept of knowledge organization with its multi-faceted methods of creating and using (more or less structured and formalized) knowledge organization systems (KOS) such as thesauri, classifications, terminologies, nomenclatures, taxonomies, and ontologies, is popular and crucial more than ever before, given the dramatic increase in the sheer volume of data being generated every second anywhere in the world. Innovation in KOS-based information services in the contexts of VREs and learning platforms include personalized and adaptive user models allowing individual users to focus on his/her own specific research interests and/or learning requirements while at the same time being a “good” team member in collaborative work and/or learning scenarios. Visualization techniques are an example of increasing usability and accessibility, also in terms of providing cognitive heuristic support in the research process as well as in the learning process.

The second half of the paper will show some large-scale initiatives and concrete examples (including our own projects in this area) and will finally draw conclusions for future work.

Artificial Intelligence–The Vehicle of Innovation, Mieczysław Muraszkiewicz (Warsaw University of Technology)

Artificial intelligence (AI) has been present in computer science and engineering since their origins; however, until recently its promises offering robust tools for dealing with complex intellectual tasks have usually turned out futile, e.g. the promise of online translations from one natural language to another. It has just changed thanks to a significant progress in the area of machine learning and the use of advanced neural networks. It seems that the recent success of the Google DeepMind’s AlphaGo computer programme that won a five Go game match against Lee Sedol, a world class human Go player, opens a new chapter of the AI and its real life applications. AI solutions can be injected into an array of conventional tools and facilities making them smarter, more efficient and more ergonomic. Examples: smart home appliances, smart wearing, smart cars, smart buildings, smart grids, and smart cities. It is claimed that the AI has become a powerful instrument of innovativeness going horizontally across very many areas of daily life, work, education, medical service, security, etc. It is also true for information science. Indeed, the AI can procure breakthrough solutions for information science, too. The paper provides a few examples towards this end.

Applying UX Principles to the Design of Library Discovery Services, Maciej Dziubecki (Aleph Polska)

User experience (UX) is getting more and more attention at the libraries. By providing best of breed solutions for discovery and delivery academic libraries strive to increase user engagement, promote the usage of available collections, and support patrons in achieving their goals. What are the key issues in building user-friendly discovery services? First of all understanding of users needs. In academic libraries they might be complex, as the university community is very diverse, from first year students to researchers. In this presentation I will try to share experience of the service provider in applying UX Principles to the design of Library Discovery Services.

Beyond Literacies: The evolving landscape of library support to Research 2.0, prof. Tibor Koltay (Eszterházy Károly University)

The appearance of Research 2.0 (Science 2.0, or eScience) that is understood as research in the sciences, social sciences and the humanities by making use of the internet’s power, which enables different new forms of networking, encourages openness and provides the possibility to access and manipulate massive amounts of data. Therefore, the purpose of the proposed paper is to identify tasks and roles that academic libraries have to fulfil in order to react to the developments, brought in by Research 2.0. On this background and taking into consideration that the situation, when researchers regard libraries only as dispensaries of books and articles has to be changed, libraries and librarians need to pay more attention to the core processes of research and the dynamics of change within scholarly communities. Awareness of these processes have to become integral part of their startegies and mid-range strategies, as well as resulting in the provision of varied targeted services, such as research data services, information literacy and data literacy education, raising awareness of faculty members on different issues and providing individual support to them. Research data services should include data management, data curation, not forgetting about data stewardship, data quality and data citation). A significant, though less known in the academic sphere is data governance. At present, as a rule, libraries offer informational services that differ from technical ones, often related to depositing data into repositories and/or removing them. Besides arguing for a wide array of services, this paper characterises Research 2.0, pointing out its controversies both in relation to open data and the academic use of social media, not forgetting about the newest publications, partially based on empirical research. Services will be characterised in the light of the burgeoning library literature on these subjects, giving attention to best practices. When describing different developments in academia and in libraries, an attempt will be made to differentiate between hype and reality to enable the identification of trends that may remain relevant for a long period of time.

International plenary session 2
Międzynarodowa sesja plenarna 2
(Chair: Wiesław Babik)

Documentation and Information Science: the forgotten origins of the French contribution, Widad Mustafa El Hadi (University Charles De Gaulle – Lille 3)

In my talk I will be focusing on the authors, theories, and practices that have been neglected, or forgotten by information specialists and try to assess in this retrospective exercise specialist contribution and impact on Information Science and Document theory. This exercise can be carried out according to three temporalities: going back in time, as far as the Enlightenment French philosophers and the Encyclopedists but also the significant contribution to classification theory and the footprint of Gabriel Naudé on knowledge organization. The second temporality fits with relatively recent history, from the nineteenth to the twentieth century with the birth of the francophone document theoreticians: 19th century philosopher Auguste Comte and his Broad System of Ordering, a classification inspired by the sequence of sciences running from mathematics and physics, through chemistry, biology and psychology, all the way to the social and human sciences; later S. Briet’s view of a document as something (potentially anything) made into a document close to the view that the word “document” should be used in a technical sense within information science to denote anything regarded as signifying something. This view solved the conceptual problem of incorporating museum objects into a coherent view of information studies (Buckland, 1999). The third temporality is the thriving activities of what we call in France the Precursors among whom we can mention Eric de Grolier, Jean-Claude Gardin, Robert Pagès, Robert Escarpit and Jean Meyriat. In my talk I will examine their specific contribution to Information Science with a special focus on knowledge organization.

Social Influence and Information Evaluation, Laurence Favier (University Charles De Gaulle – Lille 3)

Information evaluation is one of the most challenging tasks for people in the information seeking and retrieval process. Traditionally it includes appreciation of relevance, information credibility, information quality, cognitive authority and trust. Information evaluation in the context of social media, especially social networks (SNS) raises specific questions. Social media are internet-based applications that allow both creation and exchange of content, subjective evaluations (marks or « like » mentions), dissemination of selected contents to a networks of «friends». They are based on selective exposure to information and on social influence. Users choose their source of information, the Twitter account they follow for example. Their information behaviour is shaped by social influence which can be defined as how people’s individual actions are affected by other people.

The spreading of misinformation online (Del Vicario et al. 2016, Bessi et al 2014) is, in large part, caused by these SNS features. At the same time, SNS have become an important source of information, even the main one for young people. They are also useful tools for scientists who share content, agenda and publications, a powerful communication means for politicians, another canal of dissemination for traditional media (newspapers, TV etc.), an opportunity to find information about products before buying.

So the understanding of information evaluation in the background of SNS is a crucial issue for society and for information science. The aim of this paper is to analyse the components of social influence in information evaluation tasks.

Cybersecurity and the Internet of Things, Christopher Biedermann (Emitel)

The purpose of this paper is to utilize a recent cyber-attack to highlight the current state of readiness of IoT technologies with regards to security vulnerabilities and to highlight what the author believes are fundamental changes that will need to take place within these industries and technologies to mitigate overall cybersecurity risk. The approach to this paper was to interpret findings from a myriad of existing published security studies and commentary. The conclusions of this analysis are the following key points: (1) With the world becoming more interconnected through web enabled devices (IoT devices), new forms of security threats have developed; (2) At present there is a high level of vulnerability with regards to these devices; (3) There are existing technologies that can be implemented today to mitigate many of these risks; (4) However do to the fragmented and heterogeneous nature of these devices, implementation of even basic levels of security are more challenging than traditional internet connected devices (e.g. personal computers); (5) The industry needs to face and address three key fundamental issues that will in turn help to mitigate the unique security threats posed by IoT devices namely: (a) Drive for open standards, (b) Industry cooperation and consolidation, (c) Improvement of consumer awareness.

International Parallel Session 1: e-Government and e-Business
Międzynarodowa sesja równoległa 1: e-Administracja i e-Biznes
(Chair: Remigiusz Sapa)

Design and Implementation of New Framework to Protect and Secured e-Government by Using Internal Sensors and Detectors, Asaad AbdulRahman Nayyef

The increase of attacks on the digital environment and e-government infrastructures led to the emergence of several information security techniques which can lead to loss of data integrity and the difficulty substantiate the accuracy. Therefore, Insider threat is one of the most complex problems in information security in e-government environment and it requires a sophisticated response to detect and protect the misuse from authorized use.

This paper provides a detailed description of a framework for designing, analysing, deploying, and enforcing high level security management for e-government websites. This is done by using internal sensors and detectors, which are placed at critical points inside the e-government website source code and it is based on the sensors and detectors, which consist of relatively small amounts of source code to detect all of attacks in e-government website against all threats in real time. These sensors will look for signs of specific intrusions and will perform target monitoring by observing the behaviour of the website directly in real time, instead of through an audit trail or other indirect means. These techniques are used to protect information systems in e-government environment against unauthorized use, duplication, alteration, destruction and viruses attacks.

Electronic Government as a Research Field, Mariusz Luterek

(…) The purpose of this paper is to present results of bibliometric analysis of the E-Government Reference Library (EGRL), which contains 8,181 references of predominantly English language, peer-reviewed work, from eight core journals (Government Information Quarterly, Information Polity, International Journal of Electronic Government Research, International Journal of Public Administration in the Digital Age, Transforming Government: People, Process and Policy, Journal of Information Technology & Politics, Electronic Government, an International Journal and Electronic Journal of Electronic Government and five core conferences (Hawaii International Conference on System Sciences – e-Gov track, International Federation for Information Processing IFIP, dg.o (Digital Government Society of North America), International Conference on Theory and Practice of Electronic Governance and International Conference for E-Democracy and Open Government). The goal of this analysis is to answer the question of how information science, in Polish research reality, can participate in e-government research field. This is particularly important considering the fact that the information science focuses among other on user research, design and evaluation of utility information systems, intersystem communication at the semantic level, the organization of information systems, or the digital divide. At the same time, however, although these issues are often addressed in the literature in the field of e-government, they come with the perspective of other scientific disciplines.

The Quality Assessment of Information Services for Business Organizations: Expectations and Problems, Erika Janiūnienė, Lina Markevičiūtė

(…) The aim of the study is to discuss the quality assessment problems of information services for business organizations and its possible solutions by identifying information service quality evaluation criteria, defining the information services quality evaluation process and providing the direction of information service quality improvement. The objectives of the study are 1) to determine critical issues of the information service quality assessment; 2) to construct a holistic model of information service quality criteria based on information and service concepts quality criteria; 3) to define information service quality evaluation process on the basis of quality management theory; 4) to assess the quality of services following the determined criteria; 5) to provide recommendations for business organizations on what criteria to follow and how to evaluate the acquired information services; 6) to provide recommendations for providers of information services on how to improve the quality of information services so that consumer expectations could be met.

The analysis and synthesis of scientific literature on information and service management allowed to exclude problems of information service quality evaluation, to identify quality criteria of information services, to define the process of information services quality evaluation. Information services \ quality criteria were rated by using a method of multicriteria quality assessment. During in-depth interviews with company representatives who had been using information services, information service quality criteria at the user level were identified. The scientific literature analysis and synthesis, as well as the empirical research results allowed to devise recommendations both for business organizations which are planning to use information and for information service providers who seek to gain deeper understanding of their consumers expectations and afterwards to offer an information service that exceeds those expectations.

Information Flow Model as an Effective Tool For Supporting Transformation & Change In Organizations, Radosław Lipiński

Current literature defines a number of models for management of transformation processes in organizations. It is difficult however to find a model that is effective for different types of transformational processes occurring in organizations of varying types. To address this gap Author introduced an Information Flow Model (IFM) based on Agile methodology applied to information processes management. The proposed new and unique approach (IFM) is based on optimization of information processes in organization environment. Usage of information flow perspective in change management discipline is not common approach in the literature and also in daily organization practice. In a series of qualitative and quantitative studies (involving over hundred of enterprise leaders – model users), Author developed and validated criteria for benchmarking different models. Across all comparative studies Information Flow Model performed significantly better than five most popular models currently used in the different fields. In addition, Author evaluated the effectiveness of the information flow model in a few real-life transformation processes in multinational corporations functioning in Poland. Implications for information science and change management literature and practice are discussed.

International Parallel Session 2: e-Culture & e-Science
Międzynarodowa sesja równoległa 2: e-Kultura & e-Nauka
(Chair: Ewa Głowacka)

Towards Open Innovation of Services Using Social Media: The case of French academic libraries, Emmanuelle Chevry Pébayle

For nearly a decade, social media have begun to take a predominant place in various organizations. Their contributions and potential are now recognized worldwide (Chu & Nalani-Meulemans, 2008). In turn, libraries have seized these media to promote their library holdings, maintain a link with their users (Chu & Du, 2013), create online communities (Boyd & Ellison, 2007) and involve users in their processes of innovation. The instantaneous and interactive nature of these media seems to favor exchanges between librarians and users and encourage the generation of new ideas. This form of participation is part of a logic of open and participatory innovation (Scupola & Nicolajsen, 2013). We are witnessing a paradigm shift in the profession of librarians thanks to the changes imposed by digital. This evolution leads us to consider the innovation of services in a horizontal and interactive way with and by users. (…) The purpose of this paper is to analyze how the presence of university libraries on social media promotes the emergence of innovative services. Two surveys were conducted both with librarians and with 137 users in several French universities. Four main results emerge from this analysis from the point of view of the professionals and from the point of view of the users. After the state of the art on innovation in libraries through social media and presentation of the methodology, the author presents the main results of her research. On the one hand, social media are renewing pre-existing services. On the other hand, social media favor the emergence of new services and give the image of a library that is open to its environment and encourage participative and open innovations. These results will be discussed with similar findings presented in international literature.

Visual Information and Visual Persuasion in Public Relations Activities Promoting Libraries, Alicja Waszkiewicz-Raviv

We see more information than we read. The change has come and in the era of visual culture triumph new techniques to contact the public must be implemented. Intriguing place in the process of transformation, where words meets pictures, is contemporary library. How to promote this non-profit organization using modern tools of visual communication? Information design, infographics, Instagram and environmental PR tools might be the best answers. The interdisciplinary study focuses within the specific domain of pro-reading behaviors and the innovative techniques within visual public relations to promote them. Topic-relevant involvement can play a pivotal role in the strategies people use to process information, so the psychological MAO (motivation, ability, opportunity) model of persuasion is discussed as theoretical framework for new visual PR activities of the library.

Toruń University’s Open Access Data Project – the new role for University Libraries, Karolina Zawada

Over the span of almost 50 years, astronomers at Nicolaus Copernicus University collected a huge number of observations. The database contains records from the years 1949–1993 in the form of images of the sky on glass plates. The database is a huge collection in terms of both the wealth of information and physical volume occupied by these materials. Twelve thousand historical glass plates with astronomical images of the northern sky is a wealth of knowledge for astronomers looking for data from the old observations. They were recorded by several generations of astronomers. Unfortunately, like any other analogue material, the glass plates gradually degraded. Analog data are losing quality even under the best conditions of storage. On the other hand, digital data stored in a local safe can not be easily reused for further research on a large scale. We want researchers to have a chance to look into them and to compare present and archived observations. Collection of archival records were digitized and they are currently being processed. Eventually they will be publicly available. The information to which we have a rapid and unrestricted access is the most valuable information in modern world. We appreciate the Open Access. Not every data set can be based on such a model. Not everyone wants to share data in such a model.

„Toruń University’s Open Access Data Project – The online repository of raw astronomical data” is an example of realization of an open access model where the benefit will accrue to all stakeholders – the authors and the recipients. Digitized data will not lose the quality, the passage of time will not affect them, and we are taking care of backups. Nevertheless, digital data stored in a local safe can not be easily reused for further research on a large scale. Therefore, a dissemination of information about existing of such database is important. We want researchers to have a chance to look into them and to compare present and archived observations. (…)

The Impact of Social Influence on Users’ Ratings of Movies, Zhenfei Feng

(…) In this paper, we try to discover the main factors of social influence that affect users’ ratings in the social network environment. In the social network environment, users tend to consider themselves as members of the community or of the group which they are attached to. This sense of membership may change their rating behaviors. We find that social influence could affect users’ ratings in at least three following aspects. Firstly, more users tend to rate a movie based on its quality (objective factor) instead of their own preferences (subjective factor). Due to the fact that they feel responsible for telling other members whether this is a good movie or not. Secondly, users are more likely to be influenced by the ratings of others (the majority, their friends, and the opinion leaders) in the same community or group. Last but not least, we find that many users sometimes don’t show their real preferences when they find that they don’t share the same opinions as others. Consequently, their ratings may not be reliable enough to infer their preferences.

The goal of this study is to define the key factors that constitute users’ ratings in the social environment in order to improve the performance of recommender systems. In this paper, we will present the results of a survey related to, a Chinese online community. We investigated the users about their rating behaviors (how they rate, if they feel influenced by others’ ratings, and if they hide their real preferences). Thus, we will contribute to better understanding the impact of social influence on users’ ratings of recommender systems.

International parallel session 3: Information Systems and Their Users
Międzynarodowa sesja równoległa 3: Systemy informacyjne i ich użytkownicy
(Chair: Maria Próchnicka)

Establishment and Evaluation of a Training of Information Retrieval at the Faculty of Medicine, Marc Tanti

(…) This article aims to present an innovative training in the medical curriculum. Indeed, this type of education, whatever the French universities, are now only provided to future professionals in the fields of information, documentation, archives and libraries. The pilot of this course was born in 2013, in favour of a promotion of 27 medical interns from the University of Aix-Marseille in traineeship at the Armed Forces Training Hospital Laveran and Sainte-Anne, respectively in Marseilles and Toulon. It was realized in two half-days. The first half day consisted of a theoretical conference on information retrieval strategy. The main medical documentary databases were presented in particular MedLine/Pubmed. Document monitoring tools and management of information, including bibliography, such as EndNote® have also been taught. The second half-day consisted of Work-Practice on computers carried out from PubMed and EndNotes® and from practical or clinical cases. This teaching is innovative in the French medical curriculum. The following research questions have arised from that experience: How to evaluate this type of training? Is it useful? Can it be improved? Should it be sustained? We propose to evaluate it using an original tool: the “evaluation of a teaching by the students”, based on 4 questionnaires. The use of this kind of tools is not new. The first traces were found in the 1920s at Harvard University. But its implementation is still very shy and contrasted in France, because of the reluctance of the teaching staff. They fear that this assessment will be used as a tool to control their work. The results clearly demonstrate overall satisfaction with the content provided. Learners also claim to have acquired new skills in information retrieval, not previously owned. They also affirm the usefulness of such training in their curriculum, as part of the drafting of their thesis of medicine, but also beyond for their future medical activity. Suggestions for improvements are mainly technical and logistical. These include the use of compatible operating systems for all, more robust Wi-Fi connections, workforce less important and the dissemination at the end of the course of a simplified manual user for the software used. (…)

Collaborative Tagging vs. Controlled Vocabulary: a case study in healthcare area, Sílvia Cardoso, Patrícia Almeida

(…) Concepts such as folksonomy and collaborative tagging, as well as indexing practices that are not limited to traditional controlled vocabularies, seem to contribute to a current change in libraries, including the enrichment and promotion of the catalogue 2.0, which allow the active participation of its users, the consumers and, at the same time, producers of information. Some collaborative tagging studies in different areas of knowledge point out to some improvement of the tools and services, however they do it in a non-systematic and even something controversial way, since there is no unanimous position of researchers regarding these practices. It is in this context that it was carried out an analytic and exploratory case study about collaborative tagging in the health area, in the library of Santa Maria Health School (Escola Superior de Saúde de Santa Maria), in Oporto (Porto – Portugal). This study aims to determine whether the collaborative tagging is a way to enrich the catalogue and if it would improve the provided service in terms of indexing, regarding the controlled language currently used – the structured and trilingual vocabulary DeCS, Health Sciences Descriptors. To that end, it was requested the collaboration of five students and five teachers, on tagging five technical books in the area of nursing, present in the catalogue and often consulted in the library in question. The results were confronted with the controlled vocabulary indexing terms currently used, being studied the match and the quality of the labels criteria. (…)

Ethical Dimension in Knowledge Organization Systems and Applicable Architecture for Intercultural Interface Design, Tan Tran

(…) This paper looks into matters of cultural interoperability in knowledge organization, which can be briefly defined as “the degree to which knowledge and information is anchored to a unified model of meaning across cultures” (Vossen et al., 2011). It examines the potential for creating and monitoring globally accessible, ethically and culturally acceptable KOSs. A high-level and widely applicable architecture for intercultural interface design, which could serve as a model in local KOSs and emphasizes interoperability with global KOSs, will be specified. This is also needed to take into account the emergence of local KOSs’ adaptations and their connections to the linked open data. Thus this work focuses on two aspects: the development of conceptual and operational framework to tackle ethical dimension in KOS, and the implementation of intercultural interface design. Firstly, we discuss the challenges of creating a theoretic evaluation framework operating within the context of an intercultural and ethically responsible Knowledge Organization System (KOS). An exploration of ethical and societal concerns linked to the development of KOSs is the ultimate goal. The main intent resides in describing access modes, content selection, and transmission channels in KOS. The starting point is to develop a mode of access and organization of knowledge which respects cultural diversity on a global scale. Thus, this work is mainly a theoretical reflection that nourishes a proof-of-concept, i.e. the culturally-inclusive and ethically-oriented KOS, which represents the main deliverable. Designing an inclusive KOS interface is a way to address global cultural biases. We should consider the importance of opening up the notion of cultural inclusiveness, to weigh not only linguistic diversity (as a large part of the existing literature does), but also other social dimensions, such as gender, age, class. The approach is overall attentive to intersectionality and cultural interoperability. Secondly, addressing the emergence of local KOSs’ adaptations, the paper aims to offer insights into important approaches that take into consideration the cultural diversity in designing KOS and access interfaces to knowledge. A feasible solution will be discussed – that is the creating of local classifications for different contexts (cultures) that would interconnect using the Universal Decimal Classification (UDC) as a switching language. In this ‘prototype’, users from a given culture would adapt a universal language to their context and use it to interoperate with other cultures while taking advantage of a distributed network of adaptations. Each community would focus only on their own mapping, while the central institution in charge of the switching language would manage all mappings and make them available to the different communities. Local interfaces would have the potential to show not only an equivalence with the universal language, but also with other communities’ languages using the central institution as a node.

International parallel session 4: e-Science
Międzynarodowa sesja równoległa 4: e-Nauka
(Chair: Piotr Tafiłowski)

Merging Crowdsourcing and Computational Approaches for Digital Humanities, Amel Fraisse, Ronald Jenn, Quoc-Tan Tran, Samia Takhtoukh

The rapid growth of crowdsourcing challenges established approaches to knowledge construction and extraction. In fact, whether human expert or machine based models, they fail face the quantity and the nature of available corpus (noisy, multilingual, contradictory text, etc.). In this paper we describe a new approach that addresses the above mentioned shortcomings by merging collective human intelligence (Crowdsourcing) and automated knowledge construction and extraction methods in a symbiotic fashion. First, we are using crowdsourcing models to collect and annotate different type of corpus (article, novels, translations, social media text, etc.). According to the goal and the nature of the collected corpus, we define different annotation tasks (linguistic, syntactic, semantic, etc.). Second, crowdsourced corpus is processed using automated knowledge extraction methods to perform different digital humanities tasks: (a) automatic construction of linguistic resources such as vocabularies, thesauri or ontologies by using text mining algorithms (b) document classification task and (c) opinion mining. Third, for data visualisation, we suggest a user-centred design approach which aims to build a collaborative, interactive, generic and ergonomically user-friendly platform. The ultimate goal of this platform is to bring together colleagues from a range of disciplines and create a transnational dialogue around translations of literary works. We look forward to creating a scholarly virtual network (a map at the deep level) to tackle the lack of coordination between academics from science of information and documentation departments and those from conventional humanities. Finally, the quality of the produced knowledge will be assessed in an open evaluation campaign.

The Practices of Historians in the Digital Age, a Case Study, Samia Takhtoukh

Digital technology is at the origin of major changes related to science and the environment of scientific practice in general and the practices of historians in particular. Beyond the instrumental aspect and the use of new resources, digital practice is for historians an object of study and a tool of communication. This tends to broaden the field of expertise of a researcher in history, and makes complex its assimilation and its integration in the digital world. We conducted a previous study showed that the complexity of grasping the stakes of digital changes according to the stage of production of a research work. Indeed, historians are increasingly turning to resources available online, and do not hesitate to combine all platforms when it comes to the data collection phase. On the other hand, there are few researchers who use who use advanced digital tools to analyze the data collected, and not because majority of researchers neglect of these tools, but simply because the tools are not adapted to their needs or they have nontrivial and complex interfaces to use.

Finally, when it comes to the dissemination of data, another legal and economic dimensions are involved and they are not technical in nature.

In our proposal we aim to highlight the need for a favorable environment to ensure the assimilation and integration of the most experienced researchers in history in the digital world. We will focus on the most experienced researchers, that is, those who have years of experience in the field, and who, in our opinion, are the best to guide the transition from traditional to digital history, to put in place appropriate methodologies, and to participate in the design of relevant tools. (…)

Modern Tools on Patent Thicket Identification, Pablo Benalcazar

In 2015, the Property Office of the People’s Republic in China (SIPO) became the first patent office to receive more than one million patent applications in a single year, breaking any previous patent application records. Moreover, for the last five years, China has become the main driver of patent growth in the world. Due to China’s technical and economic development, along with the significant market incentives stablished by the Chinese government, it is expected that the number of patent filings across several technology classes will increase over the next decade. Researchers have argued that the global increase in patent applications, the roaring backlogs at patent offices, and the limited patent office resources, have induced examiners (who are tasked with evaluating applications and conducting prior art research) to grant invalid patents or “questionable patents”. Moreover, there is a growing concern among researchers that “patent thickets” —densely overlapping patent rights— have affected the economic and social value of patents, may have discouraged innovation in some particular technology fields, and have threaten the essential part of the quid pro quo of the patent system. In this work, we discuss the recent developments in patent thicket measurements and patent thicket identification methods. Furthermore, we compare the advantages and disadvantages of different patent thicket measures (qualitative and quantitative tools, e.g. fragmentation index, density and complexity of networks, blocking index) that have been proposed in literature.

16th May 2017 / 16 maja 2017

Sesja polska równoległa 1: Innowacje w informacji naukowej
Polish parallel session 1: Innovations in Scientific Information
(Prowadzący: Mirosław Górny)

Innowacyjne usługi informacyjne w nauce, Diana Pietruch-Reizes

Cel badań: analiza istoty usługi i roli sektora usług w nowoczesnej, inteligentnej gospodarce. Zwrócenie uwagi na znaczenie innowacyjności w sektorze usług i rodzaje innowacji, ze szczególnym uwzględnieniem rozwiązań innowacyjnych w obszarze usług informacyjnych w nauce. Metodologia: Dokonano przeglądu kluczowych pojęć i definicji z zakresu usług, wykorzystując metodę analizy i krytyki piśmiennictwa, odwołując się do literatury ekonomicznej. Wskazano na różne podejścia w odniesieniu do określenia usługi, ewaluowania tego pojęcia. Przedstawiono przykłady dobrych praktyk wprowadzania innowacji w usługach informacyjnych w nauce. Wyniki badań: Z badań wynika, że wzrasta rola usług opartych na specjalistycznej wiedzy, w tym usług informacyjnych, które stanowią ważny sektor w gospodarce innowacyjnej, opartej na wiedzy. Innowacje usługowe w nauce wiążą się z 1) tworzeniem nowych lub udoskonalonych usług, 2) zastosowaniem nowych lub udoskonalonych sposobów dostarczania usługi informacyjnej, 3) nowym sposobem komunikacji i interakcji z usługobiorcami i usługodawcami, 4) zastosowaniem nowych technologii informacyjno-komunikacyjnych.

Zwiastuny zmian w komunikacji naukowej – pierwsze doniesienie z długookresowych międzynarodowych badań wśród młodych naukowców, w tym polskich, Marzena Świgoń

Celem długookresowych międzynarodowych badań, o których mowa w tytule referatu, jest prognoza zmian w komunikacji naukowej na podstawie analizy postaw i zachowań współczesnych młodych pracowników naukowych w kontekście korzystania z mediów społecznościowych, zaangażowania w otwartą naukę, a także innych aktywności, jak budowanie pozycji i współpracy naukowej. Badania mają charakter międzynarodowy, obejmują takie kraje jak: Stany Zjednoczone, Wielka Brytania, Hiszpania, Francja, Chiny, Malezja i Polska. Kierownikiem zespołu projektu Harbingers jest David Nicholas (Ciber). Badania zaplanowano w trzech rocznych etapach, a niniejszy referat dotyczy wyników uzyskanych w pierwszej fazie, która odbyła się wiosną 2016 roku. Badania prowadzone są metodą wywiadów indywidualnych, pogłębionych, z wykorzystaniem kwestionariusza. W pierwszej fazie udział wzięło 116 młodych naukowców z różnych dyscyplin z 7 krajów; w tym 10 polskich respondentów związanych (w okresie prowadzenia wywiadów) z Uniwersytetem Warmińsko-Mazurskim w Olsztynie; pięciu respondentów miało doktoraty, a pozostali byli studentami studiów doktoranckich na UWM. W referacie przedstawiono ogólne wyniki i wnioski z pierwszego etapu badań zarówno w odniesieniu do całej badanej międzynarodowej zbiorowości, jak i bardziej szczegółowe dane o polskich respondentach. Ogółem większość respondentów z badanych krajów zwracała uwagę na przeciążenie obowiązkami zawodowymi, wysokie wymagania oraz niepewne warunki pracy. Widoczne było ich skupienie na finalnej części pracy naukowej, a mianowicie publikowaniu, w szczególności na publikowaniu jak największej liczby artykułów w najbardziej prestiżowych czasopismach, czyli posiadających najwyższy Impact Factor, ewentualnie indeksowanych w bazach Web of Science oraz Scopus. Otwarty dostęp do tekstów był kwestią drugorzędną w porównaniu z prestiżem czasopisma. Wykorzystywanie mediów społecznościowych, w szczególności ResearchGate, do popularyzacji swoich osiągnięć naukowych było powszechne, ale dzielenie się wiedzą przed oficjalną publikacją wyników, już nie. Zaobserwowano ogólną aprobatę dla systemu anonimowych podwójnych recenzji. W polskiej grupie, podobnie jak w całej zbiorowości respondentów, widoczne było także nastawienie na publikowanie i tradycyjne cytowania. Na tym tle zainteresowanie wykorzystaniem ResearchGate oraz mediów społecznościowych do dzielenia wiedzą i budowania pozycji naukowej było raczej słabe. W odróżnieniu od całej badanej zbiorowości, rodzimi respondenci bardziej optymistycznie postrzegali znaczenie bibliotek w komunikacji naukowej.

Innowacje w usługach wyszukiwania informacji a prawo autorskie. Studium przypadku The Google Book Search Project i proces Authors Guild przeciw Google, Teresa Święćkowska

Projekt Google Books, zakładając digitalizację całego dotychczasowego dorobku wydawniczego był jednym z najbardziej ambitnych przedsięwzięć informacyjnych. Został zahamowany przez skargę autorów i wydawców. Proces sądowy autorów i wydawców z firmą Google z powodu projektu „Google Books Search” ma bardzo ważne precedensowe znaczenie z punktu widzenia dostępu do informacji. Przedmiotem sporu było pytanie, czy tworzenie cyfrowych kopii chronionych utworów jest dopuszczalne bez zgody autora w celu pełnotekstowego wyszukiwania i udostępniania wyników tego wyszukiwania.

Kwestia dozwolonego użytku dla celów indeksowania i wyszukiwania należy do najbardziej kontrowersyjnych we współczesnych sporach o prawo autorskie, jak również ma zasadnicze znaczenie z punktu widzenia innowacyjnych usług informacyjnych. W referacie przedstawione będą założenia projektów Google Books Search, Google Library Project oraz Publisher Program. Analizowana będzie propozycja ugody z wydawcami jako przykład działania innowacyjnego firmy Google wobec zahamowania projektu wskutek skargi sądowej autorów i wydawców.

Ostatnia część referatu poświęcona będzie analizie projektu zarówno z punktu widzenia innowacyjnych usług informacyjnych, jak też jego wpływu na tworzenie nowych standardów udostępniania i upowszechniania informacji i wiedzy.

Sesja polska równoległa 2: Użytkownicy innowacyjnych usług informacyjnych
Polish parallel session 2: Users of Innovative Information Services
(Prowadzący: Jacek Tomaszczyk)

Reinterpretacja koncepcji użytkownika usług informacyjnych, Remigiusz Sapa

Przedmiotem rozważań jest użytkownik usług informacyjnych w aspekcie ontologicznym, a ich zasadniczym celem jest stworzenie podstaw do reinterpretacji koncepcji użytkownika tych usług w wybranych kontekstach współczesności, a co za tym idzie, do poszerzenia fundamentów teoretycznych dla rozwoju nowych modeli użytkownika usług informacyjnych i informacji w ogóle. Przyjęto podstawowe założenie, że dla doskonalenia i skutecznego projektowania usług informacyjnych nie wystarcza poznanie wybranych „zewnętrznych” atrybutów i zachowań ich użytkowników i konieczna jest refleksja nad ich „wnętrzem”, która może doprowadzić do wypracowania nowego w stosunku do dotychczasowych rozwiązań proponowanych w informatologii modelu natury i sposobu bycia takich użytkowników. Podstawą dla proponowanych rozstrzygnięć stały się inspiracje płynące z różnych obszarów ludzkiej działalności. W szczególności odniesiono się do wybranych zjawisk związanych z rozwojem technologii informacyjnych, doskonaleniem biologicznego człowieka i nowym podejściem do tworzenia wiedzy naukowej w oparciu o masowe zbiory danych (big data), a także do niektórych trendów w praktyce i teorii zarządzania oraz koncepcji powstałych na gruncie szeroko rozumianej myśli posthumanistycznej. Sięgnięcie do zróżnicowanych inspiracji było celowe i miało służyć uniknięciu jednowymiarowości wyobrażeń o użytkowniku. W efekcie zaproponowano ramową koncepcję użytkownika usług informacyjnych, która wyrażona została w postaci trzech zasadniczych postulatów tworzących szkielet dla dalszych prac teoretycznych i badań empirycznych. Pierwszy postulat dotyczy konieczności unikania reifikacji pojęcia użytkownika poprzez jego zoperacjonalizowanie i sprowadzenia do tego samego poziomu analitycznego, co inne badane elementy usług informacyjnych. Drugi postulat wskazuje na konieczność odejścia od apriorycznego identyfikowania użytkownika usługi informacyjnej z człowiekiem oraz rezygnacji z dążenia do zrozumienia jego działań jako wyłącznie aktywności człowieka. Przy czym nie chodzi o dehumanizację informatologii, ale o przyjęcie, że człowiek jest jednym z komponentów podmiotu będącego użytkownikiem informacji, który może mieć bardzo różny charakter i być fuzją heterogenicznych elementów. Trzeci postulat dotyczy rezygnacji z traktowania tak rozumianego użytkownika usług informacyjnych jako podmiotu stabilnego w czasie i przestrzeni, co w konsekwencji powinno skłaniać do spojrzenia na niego w kategoriach dynamicznych i przyglądanie się temu, jak się ów podmiot staje i jak przestaje być, jak się zmienia i jak uzyskuje zdolność użytkowania danej usługi, a nie na poszukiwaniu jakiegoś stałego pierwiastka określającego jego tożsamość.

Zastosowanie metody persony w badaniach informatologicznych oraz projektowaniu nowych rozwiązań zorientowanych na użytkownika, Paloma Korycińska, Monika Krakowska

W referacie ukazano przydatność metody persony (ang. persona method) do profilowania użytkowników na potrzeby opracowywania innowacyjnych rozwiązań w obszarze usług i produktów informacyjnych. Ta szczególna metoda badań mieszanych, polegająca na obrazowaniu odbiorcy na podstawie informacji jakościowych i danych statystycznych, stosowana jest często w marketingu oraz w procesach projektowania usług zorientowanych na użytkownika. Uwzględnia się w niej także kontekst społeczny, ekonomiczny, kulturowy i demograficzny, a także potrzeby, motywacje, zachowania informacyjne i konsumenckie w kreowaniu prototypu odbiorcy. Badania oparte na metodzie persony mogą odnosić się także do pomiaru jakości usług i satysfakcji użytkowników. W podjętych badaniach starano się ustalić profile użytkowników na podstawie uzyskanych danych statystycznych osób odwiedzających witrynę Wydziału Zarządzania i Komunikacji Społecznej Uniwersytetu Jagiellońskiego w okresie od marca do kwietnia 2017 r. Badania oparto także na wcześniejszych doświadczeniach analizy i kreowania wzorców użytkowników korzystających z witryn internetowych. Do uwiarygodnienia person wykorzystano narzędzie Google Analitics. Starano się sformułować najważniejsze cechy użytkowników, odnoszące się do demografii, zachowań, zainteresowań, wykorzystywanej technologii. Konceptualizacja uwarunkowań oraz cech charakterystycznych dla realnych odbiorców stanowi wstęp do określenia czynników wpływających na ich satysfakcję i przesądzających o jakości badanej witryny. Poszukiwano nie tylko możliwości zastosowania w badaniach konstruktu persony, ale także implementacji tej metody do badań informatologicznych, szczególnie do badań nad zachowaniami informacyjnymi i tworzeniem nowych, sprofilowanych rozwiązań, usług i produktów informacyjnych.

Percepcja graficznych elementów okładek książek – badania eyetrackingowe w bibliotece uczelnianej, Julita Niedźwiecka-Ambroziak

Autorka prezentuje przebieg badań eyetrackingowych przeprowadzonych w październiku 2016 r. (pilotażowo) oraz na przełomie marca i kwietnia 2017 r. w bibliotece WSB w Toruniu. Jego celem było zbadanie struktury i dynamiki cyfrowych zasobów wiedzy za pomocą metod wizualizacji – w tym przypadku map cieplnych wskazujących percepcję graficznych elementów okładek książek. Badanie eyetrackingowe polega na śledzeniu za pomocą programu komputerowego, rejestrującego najmniejsze ruchy gałki ocznej, pierwszego postrzegania określonych elementów. Dzięki temu można dowiedzieć się, na których elementach użytkownik się skupia, a które całkowicie pomija. Ma na celu sprawdzenie, czy odbiorca oglądając określony projekt graficzny skupia uwagę na elementach, na których jego twórcom zależało. Badanie pomaga zweryfikować, w jaki sposób jest postrzegany obiekt: strona internetowa, opakowanie czy okładki książek – jak miało to miejsce w bibliotece WSB w Toruniu (plansze z kilkunastoma okładkami książek w różnorodnych konfiguracjach). Prelegentka zaprezentuje komunikat z badań, w którym skupi się na pokazaniu koncepcji, przebiegu badań w bibliotece oraz zaprezentowaniu oprogramowania przeznaczonego do analizy eyetrackingowej w projektach badawczych: OGAMA (Open Gaze and Mouse Analyzer) oraz The Eye Tribe używanego bezpośrednio z interfejsu nagrywania.

Sesja polska równoległa 3: Innowacje w informacyjnych usługach bibliotecznych i bibliograficznych
Polish paralel session 3: Innovations in Library and Bibliographic Services
(Prowadzący: Barbara Sosińska-Kalata)

Mobilne usługi biblioteczne jako przedmiot badań informatologii, Maria Próchnicka

Wykorzystanie urządzeń mobilnych w różnych obszarach aktywności ludzkiej ma współcześnie charakter powszechny. Także biblioteki, w tym głównie biblioteki publiczne oraz akademickie, muszą zaadaptować się do szybko postępujących zmian w sferze technologicznej i wywołanych nimi zmian w nawykach potencjalnych i aktualnych użytkowników. W tym kontekście warty rozpoznania staje się stan wiedzy w zakresie wykorzystania technologii mobilnych w świadczeniu usług bibliotecznych i gotowości pracowników bibliotek do ich stosowania, oczekiwań użytkowników, jakości mobilnych usług bibliotecznych. W referacie przedstawione zostaną wyniki analizy ilościowej i treściowej piśmiennictwa dotyczącego mobilnych usług bibliotecznych, opublikowanego w recenzowanych czasopismach naukowych, w latach 2003–2017, indeksowanego w bazie Library, Information Science & Technology Abstracts.

Na podstawie treściowej analizy piśmiennictwa zidentyfikowane zostaną dominujące kierunki badań mających za przedmiot mobilne usługi biblioteczne, główne tematy badań, a także stosowane przez badaczy metody i narzędzia badawcze. Ustalony zostanie stan wiedzy w tym zakresie oraz określone obszary wymagające dalszej eksploracji. Ilościowa analiza piśmiennictwa pozwoli na określenie skali zainteresowania badaczy problematyką mobilnych usług bibliotecznych oraz zidentyfikowanie indywidualnych badaczy, zespołów i ośrodków badawczych wykazujących zainteresowanie tą problematyką.

Innowacyjne usługi informacyjne w Centralnej Bibliotece Statystycznej im. Stefana Szulca, Bożena Łazowska

Celem artykułu jest przedstawienie rozwijanych w Centralnej Bibliotece Statystycznej innowacyjnych usług informacyjnych w zakresie statystyki, demografii i nauk pokrewnych w oparciu o bazy własne (katalog biblioteczny ALEPH, statystyczna biblioteka cyfrowa), bazy prenumerowane (OECDiLibray) i bazy GUS i 16 urzędów statystycznych w województwach (portal informacyjny, banki danych, repozytoria, rejestry, infografiki, widżety). We współpracy z Centralnym Informatorium Statystycznym i Wojewódzkimi Ośrodkami Badań Regionalnych CBS udostępnia użytkownikom wiedzę łącząc informacje pochodzące z własnych baz bibliotecznych i bibliograficznych oraz z Dziedzinowych Baz Wiedzy, Banku Danych Lokalnych, Portalu Geostatystycznego, systemu monitorowania STRATEG, Statystycznego Vademecum Samorządowca itp.

Linked Open Data szansą dla bibliotek?, Dorota Siwecka

W referacie podjęto próbę przedstawienia korzyści i ewentualnych zagrożeń, jakie niesie ze sobą wykorzystanie koncepcji danych powiązanych (Linked Data) w działalności bibliotekarskiej. W ciągle rozwijającym się społeczeństwie informacyjnym, w którym coraz większą rolę odgrywa środowisko sieciowe, nie sposób odciąć się od nowych technologii. W wystąpieniu podjęto próbę odpowiedzi na pytania: W jaki sposób biblioteki, jako ośrodki posiadające ogromne zbiory informacji, mogą włączyć się w kreowanie społeczeństwa opartego na wiedzy? Czy powinny to zrobić? Jakie narzędzia mają do dyspozycji? Jakie mogą być przewidywane konsekwencje udziału lub rezygnacji z wykorzystywania zdobyczy nowych technologii (mocne i słabe strony, szanse i zagrożenia)? W kontekście włączania się bibliotek w ogólnoświatowy trend uwalniania/publikowania powiązanych danych (Linked Open Data – LOD), w referacie przedstawiono także informacje o tym, czym są Linked Open Data w kontekście informacji bibliotecznej? Czym charakteryzuje się Resource Description Framework (RDF) i dlaczego jest istotny dla mechanizmu LOD? Wystąpienie uzupełniono o informacje odnoszące się do dotychczasowej skali zjawiska na arenie międzynarodowej (przykłady bibliotek udostępniające powiązane dane). Przedstawiono również stanowisko międzynarodowych instytucji ( IFLA) dotyczące wykorzystywania technologii semantycznych przez biblioteki.

Sesja polska równoległa 4: Innowacje w informacji naukowej
Polish parallel session 4: Innovations in Scientific Information
(Prowadzący: Katarzyna Materska)

Analityka webowa repozytoriów i systemów informacji naukowej, Marcin Werla

Celem referatu jest przedstawienie kluczowych zagadnień związanych z wykorzystaniem analityki webowej (ang. web analytics) w kontekście systemów informacyjnych takich jak repozytoria, biblioteki cyfrowe, bazy bibliograficzne, czy systemów informacji naukowej. Jeszcze do niedawna informacje ilościowe związane z wykorzystaniem baz czy systemów informacji naukowej były używane przede wszystkim do raportowania stopnia popularności baz w sprawozdaniach instytucji prowadzących bazy, czy we wnioskach o finansowanie. Rozwój systemów analityki webowej, zarówno zamkniętych, takich jak Google Analytics, jak i otwartych, jak na przykład PIWIK, spowodował, że na podstawie informacji o ruchu użytkowników można wysnuwać wnioski dotyczące potrzeb użytkowników w zakresie funkcjonalności oraz zawartości systemów informacyjnych. Wnioski takie mogą służyć do kształtowania strategii rozwoju poszczególnych baz, pozwalając na optymalizację tej strategii pod kątem wybranych kryteriów. Niestety w praktyce możliwości oferowane przez te narzędzia są sprowadzane często do odczytania wartości takich jak współczynnik odrzuceń, czy średni czas wizyty, bez próby jakiejkolwiek analizy kontekstu. Takie podejście sprowadza możliwości analityki internetowej do prostego porównywania wartości ogólnych parametrów pomiędzy różnymi serwisami, bez zrozumienia ich prawdziwego znaczenia. W ramach referatu, na podstawie rzeczywistych przykładów (bazy bibliograficznej dziedzinowej, biblioteki cyfrowej i bazy bibliograficznej instytucjonalnej), przedstawione zostaną możliwości analityki webowej w kontekście dostępnych on-line systemów informacji naukowej. Omówione zostaną podstawowe zasady korzystania z narzędzi analitycznych i kluczowe możliwości tych narzędzi związane z pogłębioną analizą, takie jak segmentacja danych. Przedstawione także zostaną różnice wynikające z różnych metod gromadzenia danych o ruchu użytkowników (gromadzenie od strony użytkownika, a gromadzenie od strony serwera) i wpływ tych różnic na wyniki analiz. Ostatnia część referatu związana będzie z analityką indeksowania serwisów informacji naukowej i wyszukiwania treści z tych serwisów w wyszukiwarce Google. Wyszukiwarka ta, jako dominująca w skali światowej usługa, może być dla twórców internetowych serwisów informacyjnych źródłem bardzo ciekawych informacji i dużego ruchu użytkowników, lub też… źródłem zmartwień.

Jakość danych w systemie informacji naukowej, Michał Kozak

W każdym systemie informacyjnym jakość danych jest niezwykle ważna i powinna być rozpatrywana na wielu płaszczyznach. Niewątpliwie jedną z nich jest ujednoznacznienie (dezambiguacja), czyli odkrywanie konkretnego znaczenia słów w określonym kontekście (np. określonym zdaniu czy strukturze danych). Tematem niniejszego referatu jest problem dezambiguacji autorów publikacji naukowej. Jest to częste zadanie w przypadku automatycznego tworzenia bazy danych publikacji pracownika lub instytucji naukowej, w oparciu o integrację danych pochodzących z wielu źródeł. Autorzy publikacji występują często pod wieloma apelacjami (nazwami) i afiliacjami. Niejednoznaczność apelacji wynika zazwyczaj z szablonu wydawcy czasopisma bądź książki i ma głównie wpływ na zapis imienia autora. Problem występuje również przy nazwisku autora – do najczęstszych przyczyn zalicza się zmianę nazwiska panieńskiego czy nazwiska dwuczłonowe. Podobny problem występuje przy afiliacji, która również może być zapisana na wiele sposobów i nie musi być stała dla danej osoby. Większość organizacji i instytucji naukowych posiada różne wersje językowe oraz skróty swojej nazwy. Oczywiście zarówno w apelacji, jak i w afiliacji mogą wystąpić błędy, takie jak literówki, błędne imiona, skróty, które skutecznie utrudniają proces identyfikacji autora publikacji. Rozwiązanie tego problemu utrudnia również fakt, że zdarza się, iż różne osoby o takich samych inicjałach, imionach i nazwiskach pracują na tej samej uczelni, a nawet wydziale. Opisywane powyżej problemy wystąpiły w ramach prac związanych z wdrażaniem nowego Systemu Informacji Naukowej Politechniki Poznańskiej, opartego na oprogramowaniu SINUS rozwijanym przez Poznańskie Centrum Superkomputerowo-Sieciowe. W ramach wdrażania tego systemu informacje o dorobku naukowym pracowników (ponad 10 000 publikacji) były importowane z dwóch niezależnych systemów (Expertus i VIVO). Na te potrzeby zaproponowano autorski algorytm, który bazuje na imionach i inicjałach, nazwisku, afiliacji oraz zatrudnieniu (liście pracowników instytucji). Dla ponad 10 000 publikacji zaimportowanych do systemu SINUS około 70 autorów wymagało utworzenia dedykowanych reguł mapowania. Ponadto rozbudowany model danych oraz intuicyjny interfejs redaktora systemu ograniczył problem niejednoznaczności danych, co również miało wpływ na ich jakość. Niniejszy referat omawia szczegółowe działanie algorytmu, który pozwala rozwiązać problem niejednoznaczności autorów publikacji oraz opisuje model danych i interfejs użytkownika systemu SINUS w kontekście jakości gromadzonych i przetwarzanych danych. Przedstawione zostaną również kierunki dalszych prac, związane z wykorzystaniem współautorstwa oraz dziedziny publikacji w celu jednoznacznej identyfikacji osoby. Idea ta polega na tym, że autorzy często publikują z tymi samymi współautorami oraz posiadają relatywnie wąskie specjalizacje.

Kartografia wiedzy w usługach informacyjnych, Piotr Tafiłowski

W rzeczywistości, której jednym z elementów charakterystycznych jest przeładowanie informacyjne czy też smog informacyjny, specjaliści wskazują, że jedną z najlepszych metod koordynacji, uproszczenia, nawigacji, wyróżnienia informacji jest projektowanie map wiedzy. Mapowanie wiedzy stosuje się w takich dziedzinach, jak edukacja, opieka zdrowotna czy przedsiębiorczość. Dobrym pomysłem wydaje się, by te same modele wykorzystać w działalności naukowej, tym bardziej, że jednym z elementów tego systemu jest także wymieniona już w tym kontekście edukacja. Mapa wiedzy jest świadomie zaprojektowanym medium, w którym komunikacja pomiędzy twórcą a użytkownikiem odbywa się poprzez graficzne reprezentacje tekstu, relacji, modeli, liczby lub abstrakcyjne symbole. Jest ona doskonałym narzędziem do zbierania i udostępniania wiedzy w kontekście organizacyjnym. W swoim referacie zamierzam powiedzieć o pewnym szczególnym ujęciu mapy wiedzy, powstałej na bazie katalogu bibliotecznego, połączonej z bazą danych oraz innymi zasobami zewnętrznymi (np. pełnotekstowymi bazami danych subskrybowanymi przez bibliotekę, bazami bibliograficznymi, katalogami centralnymi itd.). Projekt, którego realizację chciałbym zaproponować, wychodzi poza standardowe definicje map wiedzy, tworzone przez badaczy tej problematyki. Proponowane rozwiązanie najstosowniej byłoby zaliczyć do dziedziny nazwanej kartografią wiedzy.

Sesja polska równoległa 5: Innowacje na rynku wydawniczym
Polish parallel session 5: Innovations on the Book Market
(Prowadzący: Marcin Roszkowski)

Cyfryzacja oferty wydawniczej a perspektywy rozwoju globalnego rynku publikacji w segmencie STM, Kamila Augustyn

Jak wskazują raporty International Publishers Association (IPA) od 2010 r. systematycznie wzrasta udział sprzedaży e-booków w przychodach wydawców. Przewiduje się, że w 2019 r. będzie wynosił już niemal 30%. Cyfrowe treści, nie tylko pod postacią elektronicznych książek, ale też artykułów, czasopism, baz danych, platform informacyjnych oraz oprogramowania narzędziowego, dominują już, w proporcjach 80% do 20%, w ofercie wydawnictw naukowych STM – science, technical, medical. Ten przynoszący największe przychody segment wydawniczy w perspektywie najbliższych kilku lat ma pozostać na fali wznoszącej – jak przewidują analitycy z International Association of STM Publishers oraz Institute of Electrical and Electronics Engineers (IEEE). (…) Przedmiotem wystąpienia będą perspektywy dalszego rozwoju STM w zakresie: prowadzenia badań (dostęp do literatury, tworzenie e-kolekcji i zarządzanie nimi, komunikacja między naukowcami, naukowcami a biznesem, naukowcami a społeczeństwem); publikowania (formy, miejsca, możliwości); podejścia do użytkowników (oferta produktowo-usługowa, interfejsy); polityki prywatności, praw autorskich, bezpieczeństwa; technologii (tworzenie i rozpowszechnianie standardów opisywania treści na przykładzie sieci semantycznej); finansowania (modele biznesowe). Rozpoznania mają posłużyć, w zamierzeniu autora, do szerszej dyskusji na temat sytuacji, w jakiej w dobie szerokopasmowego dostępu do informacji znalazł się światowy rynek wydawniczy, którego wartość, szacowana przez IPA w 2013 r. na 151 mld USD (w cenach nabywców), pozwoliła mu już wyprzedzić rynek produkcji filmowych, warty 133 mld USD, prasowy, szacowany na jakieś 107 mld USD, gier wideo – 63 mld USD – i muzyczny wart 50 mld USD.

Obserwatorium Językowe 2.0, Maria Przastek-Samokowa

Tytuł referatu nawiązuje do komunikatu zamieszczonego na stronie portalu „Najnowsze słownictwo polskie” prowadzonego przez Obserwatorium Językowe Uniwersytetu Warszawskiego. Projekt pod tą samą nazwą powstał z myślą o rejestracji nowych wyrazów, które pojawiają się w języku (od 2000 r.) niemal co dzień i ułatwiają nam opisywanie rzeczywistości. Neologizmy są naturalnym odzwierciedleniem zmian cywilizacyjnych, kulturowych oraz społecznych zachodzących w świecie i jako takie powstają na tyle dynamicznie, że trudno je na bieżąco opisywać za pomocą tradycyjnych słowników i wydawnictw kodyfikujących zasady językowe, chociażby ze względu na czas, który jest potrzebny do tego procesu. Trzyosobowy zespół językoznawców z Uniwersytetu Warszawskiego postanowił zająć się rejestracją nowych wyrazów za pomocą słownika internetowego umieszczonego na stronie Jest to rodzaj słownika źródłowego, przy tym słownika społecznościowego, budowanego siłami internautów na zasadzie crowdsourcingu, co stanowi novum w leksykografii polskiej. Szczególnie ważna/interesująca dla projektu jest właśnie rola czytelników/użytkowników języka, gdyż mogą oni budować definicje, zgłaszać własne propozycje haseł słownikowych. Projekt może na bieżąco i na różnym poziomie realizacji pokazywać efekty w Internecie. Na stronie Obserwatorium Językowego znaleźć można nie tylko listę haseł i opis budowy słownika neologizmów, ale także felietony językowe/eseje poświęcone interesującym zjawiskom współczesnej kultury, które odbijają się w słowach. Są tam również fotografie (wraz z odpowiednim komentarzem i linkami), dokumentujące wielorakie, związane z neologizacją, zjawiska językowe. Witryna posiada także własny fanpage na Facebooku. „Najnowsze słownictwo polskie” jest atrakcyjne dla młodych ludzi, którzy stają się współtwórcami tego wyjątkowego językoznawczego projektu i ważne dla 1) specjalistów badających najnowszą leksykę, gdyż może stać się podstawą do dalszych prac leksykologicznych, 2) zainteresowanych współczesnym językoznawstwem konfrontatywnym – może ich skłonić do porównania prezentowanego słownictwa z jego obcojęzycznymi odpowiednikami.

Sesja polska równoległa 6: Innowacje w informacyjnych usługach bibliotecznych i bibliograficznych
Polish parallel session 6: Innovations in Library and Bibliographic Services
(Prowadzący: Jadwiga Woźniak-Kasperek)

Blog jako narzędzie wykorzystywane w edukacji informacyjnej – na przykładzie bloga „Niezbędnik Chemika”, Justyna Antosik, Anna Kamińska

(…) Celem niniejszego referatu jest zaprezentowanie możliwości bloga jako narzędzia w edukacji informacyjnej na przykładzie bloga „Niezbędnik Chemika – blog o naukowych źródłach chemicznych”. Blog powstał w 2016 roku i redagują go bibliotekarze z Filii Biblioteki Głównej Politechniki Warszawskiej – Biblioteki Wydziału Chemicznego. Porusza tematykę naukowych źródeł z zakresu chemii, na przykład baz bibliograficznych, faktograficznych czy informatorów chemicznych. Opisuje również, jak korzystać z prezentowanych narzędzi i zasobów. „Niezbędnik Chemika” skierowany jest do naukowców i studentów kierunków chemicznych oraz osób zainteresowanych dziedziną chemii. W referacie podjęto próbę odpowiedzi na pytanie o perspektywy wykorzystania bloga w edukacji informacyjnej oraz możliwe do wykształcenia kompetencje informacyjne. W referacie szczególną uwagę zwrócono na sposoby kształtowania kompetencji informacyjnych poprzez blog „Niezbędnik Chemika”. Poruszono kwestie doboru treści, formy przekazu i sposobu dotarcia do potencjalnych odbiorców. Przedstawiono statystyki wykorzystania, ograniczenia bloga jako narzędzia używanego w edukacji informacyjnej oraz wskazano pomysły na dalszy rozwój „Niezbędnika Chemika”. Ponadto, zaprezentowano etapy powstawania bloga, zastosowane rozwiązania techniczne oraz wniesiony nakład pracy przy tworzeniu „Niezbędnika Chemika”. (…) Opisane studium przypadku pokazuje nowe możliwości prowadzenia edukacji informacyjnej w interesującej przestrzeni jaką jest blogosfera. Biblioteki naukowe mogą wykorzystać zebrane doświadczenie przy tworzeniu przez Bibliotekę Wydziału Chemicznego PW bloga „Niezbędnik Chemika” do zaplanowania własnych usług informacyjnych z zakresu edukacji informacyjnej oraz potrzebnych do tego narzędzi.

Nowe oprogramowanie dla elektronicznej biblioteki Uniwersytetu Warszawskiego – szanse, potrzeby, rzeczywistość, Grzegorz Kłębek

(…) Na początku roku 2016 Uniwersytet Warszawski złożył wniosek o dofinansowanie projektu „Nowa jakość udostępniania dóbr kultury na Uniwersytecie Warszawskim – stworzenie centrum digitalizacji zbiorów bibliotecznych i muzealnych” w ramach Programu Operacyjnego Polska Cyfrowa, poddziałanie 2.3.2 Cyfrowe udostępnienie zasobów kultury. Środki zostały przyznane i pod koniec zeszłego roku rozpoczęła się jego realizacja. Dotychczasowa polityka zmian bazowała na ewolucji, nie rewolucji. Dzięki dużemu dofinansowaniu możliwa jest jakościowa zmiana systemu prezentacji zbiorów cyfrowych, ale nie tylko. Znacznej modernizacja i rozbudowie zostanie poddana pracownia digitalizacji BUW. W ramach projektu zostanie przeprowadzona digitalizacja różnorodnych materiałów z całego Uniwersytetu. Ale największym wyzwaniem będzie zmiana oprogramowania na którym pracuje biblioteka cyfrowa. Zmiana ta będzie obejmowała przede wszystkim interfejs, z którym stykają się użytkownicy, ale dotknie również pracy redaktorów cyfrowych, zapewne pociągnie to również zmiany w całej ścieżce digitalizacji. Konieczność zmian była podyktowana przede wszystkim naszymi stałymi kontaktami z czytelnikami, które pokrywały się z wynikami ankiety przeprowadzonej przez Federację Bibliotek Cyfrowych wśród aktywnych użytkowników zdigitalizowanych obiektów. W obu przypadkach podstawowymi bolączkami odbiorców są kłopoty z otwarciem publikacji, archaiczność interfejsu oraz zdarzająca się niska jakość publikacji lub np. brak rozpoznania treści. Dlatego dla nowego oprogramowania biblioteki cyfrowej Uniwersytetu Warszawskiego podstawowym założeniem będzie łatwy dostęp do zdigitalizowanych obiektów, ich prezentacja w kilku formatach, łatwe przeszukiwanie treści cyfrowych bazujące na wysokiej jakości metadanych oraz na rozpoznaniu treści dla publikacji drukowanych. Ze względu na różnorodność obiektów przewidzianych w projekcie (obiekty typowo biblioteczne z naciskiem na tzw. zbiory specjalne, obiekty muzealne oraz archiwalne) zarówno sama warstwa prezentacji, jak i przyjęty schemat metadanych będą musiały być odpowiednio elastyczne. (…)

Nowa baza danych dla „Polskiej Bibliografii Literackiej”, Karolina Jaworska

Polska Bibliografia Literacka (opracowywana przez Pracownię Bibliografii Bieżącej Instytutu Badań Literackich Polskiej Akademii Nauk) gromadzi informacje między innymi o utworach literackich, adaptacjach filmowych, spektaklach teatralnych, audycjach radiowych i telewizyjnych, ich recenzjach, na temat nagród, festiwali, a także wszelkich przejawów życia literackiego w kraju i za granicą. Znaczącą część bazy stanowią hasła osobowe pisarzy oraz polskich twórców teatralnych i filmowych. Polska Bibliografia Literacka rejestruje książki wydane w Polsce i poza granicami kraju, czasopisma polskie krajowe (przede wszystkim naukowe poświęcone literaturoznawstwu, ale także z zakresu pokrewnych dziedzin nauki) i niektóre polonijne czy naukowe obce, poświęcone problematyce krajów słowiańskich. Ze względu na zakres czasowy – od 1944 roku – oraz przedmiotowy – zbiera różnorodne typy materiałów dotyczących szeroko pojętej polskiej kultury literackiej – jest unikatową bazą bibliograficzną. Jako publikacja książkowa ukazywała się w latach 1954–2000 (roczniki 1944/1945–1988). W 1998 roku ze specjalistycznej bibliografii, wydawanej w małym nakładzie, przekształciła się w powszechnie dostępną elektroniczną bazę danych (obejmuje roczniki 1988–2002, co daje ponad 600 000 zapisów bibliograficznych). Obecnie przechodzi ona kolejny proces zmian, którego realizacja zaplanowana została na lata 2015–2018. Baza znajduje się w stanie modernizacji i zostanie unowocześniona tak, aby odpowiadała potrzebom użytkowników poszukujących w jej zasobach różnorodnych informacji. Usprawnione zostanie pozyskiwanie, agregowanie i eksportowanie danych. Na dotychczasowym etapie prac stworzone zostały nowe formularze służące do wprowadzania danych, pozwalające na lepsze oznaczenie i organizowanie zawartych w bazie treści, a w konsekwencji lepsze i szybsze wyszukiwanie informacji. Zmodernizowana została też struktura działowa Polskiej Bibliografii Literackiej, w ramach której materiał bibliograficzny jest organizowany. Twórcy bibliografii starają się dzięki temu w sposób przejrzysty i prosty prezentować, jak kształtuje się i zmienia stan wiedzy literaturoznawczej w Polsce i na świecie. Przeprowadzony został także proces digitalizacji roczników Polskiej Bibliografii Literackiej za lata 1944/1945–1988. Poszczególne roczniki PBL są dostępne w postaci plików PDF zawierających skany z rozpoznaną, przeszukiwalną warstwą tekstową. Są udostępnione w Repozytorium Cyfrowym Instytutu Badań Literackich PAN ( Docelowo planowane jest wcielenie zapisów bibliograficznych ze zdigitalizowanych roczników do elektronicznej bazy danych (razem jest to ponad 1 800 000 zapisów). Kolejnym krokiem jest zaprojektowanie wyszukiwarki, która ułatwi dotarcie do informacji odnotowywanych w bazie danych. Wyposażona będzie także w zaawansowane opcje wyszukiwawcze ułatwiające dotarcie do wyników nawet bardzo zawężonych wyszukiwań. Ponadto baza zostanie wzbogacona o nowe rodzaje materiałów. Powstanie również interfejs badawczy, wspomagający pracę z bazą poprzez narzędzia eksploracji i wizualizacji danych, a także ułatwienia w archiwizacji i dzieleniu się wynikami pracy.

Sesja polska równoległa 7: Humanistyka cyfrowa
Polish parallel session 7: Digital Humanities
(Prowadzący: Barbara Sosińska-Kalata)

Wpływ cyfryzacji infrastruktury informacyjnej na procesy badawcze w humanistyce. Wybrane aspekty zjawiska, Zbigniew Osiński, Mirosław Górny, Ewa Głowacka, Małgorzata Kisilowska

Celem referatu będzie prezentacja rozważań na temat przekształceń zachodzących w sferze infrastruktury informacyjnej humanistyki oraz widocznego i przewidywalnego wpływu tych zmian na praktyki badawcze i publikacyjne badaczy. Wykazany zostanie związek cyfryzacji infrastruktury z nowym trendem w badaniach i publikacjach humanistycznych zwanym humanistyką cyfrową.

Innowacyjne usługi informacyjne dla cyfrowej humanistyki, Anna Kamińska

(…) Celem niniejszego referatu jest pokazanie usług informacyjnych, jakie mogą zaoferować cyfrowej humanistyce specjaliści informacji. Szczególną uwagą zostaną objęte te obszary działalności bibliotek i ośrodków informacji, dzięki którym infrastruktura badawcza dla humanistyki cyfrowej może wzbogacić się o nowe narzędzia i technologie, a naukowcy mogą poznać nowe metody badawcze oraz zdobyć potrzebne umiejętności w pracy naukowej.

Materiał badawczy, który posłuży do identyfikacji usług informacyjnych dla cyfrowej humanistyki, stanowią projekty i inicjatywy zaprezentowane podczas corocznej międzynarodowej konferencji naukowej Digital Humanities, która odbyła się latem 2016 roku w Krakowie. Konferencja organizowana jest przez Alliance of Digital Humanities Organizations i należy do najważniejszych naukowych wydarzeń dla przedstawicieli cyfrowej humanistyki. Wygłoszone referaty nakreślają współczesny obraz cyfrowej humanistyki, jej obszary zainteresowań oraz kierunki rozwoju. W zebranym materiale badawczym znalazły się projekty i inicjatywy zaprezentowane w 269 referatach i pokazane na 118 posterach. Zgromadzony materiał nie stanowi próby reprezentatywnej dla wszystkich projektów humanistyki cyfrowej prowadzonych w 2016 roku, niemniej tak duża liczba projektów i inicjatyw pozwala na uchwycenie interesujących wniosków. Opisy projektów i inicjatyw przedstawionych na konferencji pochodzą z księgi abstraktów dostępnej na stronie internetowej konferencji pod adresem Wyniki analizy usług informacyjnych dla cyfrowej humanistyki na podstawie zebranego materiały badawczego zostaną przedstawione w formie danych liczbowych. Zaprezentowane zostaną również przykładowe usługi i ich wykorzystanie w konkretnych projektach cyfrowej humanistyki. (…)

Microsoft OneNote jako innowacyjne narzędzie cyfrowego humanisty, Jacek Tomaszczyk

Celem referatu jest pokazanie możliwości wykorzystania bezpłatnego programu Microsoft OneNote w pracy naukowej do gromadzenia, organizowania i opracowywania różnego typu materiałów – tekstowych, graficznych, audiowizualnych. Zaprezentowane zostanie także tworzenie osobistej bazy wiedzy w formie wiki oraz praca w grupie i udostępnianie materiałów.

Sesja polska równoległa 8: Innowacyjne usługi informacyjne w archiwach
Polish parallel session 8: Innovative Information Services in Archives
(Prowadzący: Piotr Tafiłowski)

Zintegrowany System Informacji Archiwalnej ZoSIA jako narzędzie uniwersalne, Justyna Soliwoda

Zintegrowany System Informacji Archiwalnej ZoSIA jest narzędziem informatycznym budowanym i rozwijanym przez Narodowe Archiwum Cyfrowe od prawie 10 lat. System jest dedykowany dla archiwów państwowych, ale również dla wszystkich instytucji przechowujących zbiory archiwalne (archiwów społecznych, bibliotek, muzeów, fundacji, uniwersytetów). Obecnie umożliwia opracowywanie zbiorów materiałów archiwalnych każdego typu przechowywanego w magazynach archiwalnych, w oparciu o uporządkowaną hierarchiczną strukturę opisu i przepisy archiwalne Naczelnego Dyrektora Archiwów Państwowych, a także międzynarodowy standard opisu archiwalnego ISAD(G). Obecnie z systemu korzysta prawie 100 instytucji. Do końca 2017 roku system zostanie wdrożony w całej sieci archiwów państwowych (łącznie ok 80 instytucji) i kolejnych instytucjach kultury. Do tego czasu zostaną przemigrowane również wszystkie opisy archiwaliów przechowywane w alternatywnych, rozproszonych bazach danych. Od stycznia 2018 roku ZoSIA będzie jednym narzędziem informatycznym kompleksowo stosowanym do opracowywania materiałów archiwalnych i udostępniania ujednoliconej informacji. Opracowywanie archiwaliów w systemie umożliwia następnie udostępnianie tych danych w serwisie Obecnie jest to największa w Polsce platforma, w której jest udostępnionych najwięcej zbiorów z archiwów państwowych i instytucji kultury (prawie 23 mln skanów). (…)

Schematy wyszukiwania informacji w zasobach archiwalnych w dobie elektronicznych pomocy archiwalnych, Monika Cołbecka

(…) Upowszechnienie dostępu do zasobu archiwalnego poprzez ogólnodostępne bazy danych powoduje, że informacja ta trafia do szerszego grona użytkowników, a co za tym idzie jest on bardziej zróżnicowany. W okresie, gdy aby zdobyć informację w archiwum trzeba było się do niego udać, nie było mowy o użytkownikach przypadkowych. Osoba trafiająca do pracowni naukowej archiwum czy to będąc użytkownikiem doświadczonym, znającym strukturę zasobu archiwalnego, potrafiącym poszukiwać w strukturalnym systemie pomocy ewidencyjno-informacyjnych, czy też osobą zupełnie początkującą, zawsze miała kontakt z personelem archiwum, służącym w większym czy mniejszym stopniu radą oraz ewentualnym szkoleniem. W tym momencie użytkownik poszukujący w sieci nie ma już tego komfortu, pozornie swobodniejszy dostęp do informacji archiwalnej może stanowić ograniczenie w jej odnalezieniu. Nieznajomość struktury zasobu i zasad poszukiwań może stwarzać pozory braku informacji, a z odpowiednim, minimalnym przeszkoleniem można by ją jednak odnaleźć. Nie można mówić w tym przypadku o wadzie, ale pewne jest, że to jak uporządkowany jest zasób archiwalny nigdy nie pozwoli na takie poszukiwanie i odnajdywanie informacji do jakiej przyzwyczajony jest współcześnie użytkownik sieci internetowej. Barierę tę jednak można starać się niwelować. Według mnie niezbędne w tym przypadku jest przyjrzenie się ścieżce poszukiwania informacji archiwalnej przez użytkownika w sieci, następnie porównanie z jej tradycyjnym odpowiednikiem. Ważne w tym przypadku będzie opisanie jakim językiem informacyjnym posługuje się użytkownik, jak wyglądają tworzone w obu przypadkach charakterystyki wyszukiwawcze i co najważniejsze, jak przekładają się na wyniki tzn. wyszukanie informacji kompletnej i trafnej. Obecnie przed archiwistami stoi wyzwanie, jakim jest takie opracowywanie pomocy informacyjnych, aby ich język informacyjno-wyszukiwawczy był jak najbardziej kompatybilny z językiem wyszukiwania informacji użytkowników, którzy są coraz bardziej nawykli do poszukiwań w Internecie.

Od przewodników i informatorów po retrokonwersję – czyli parę słów o pomocach informacyjnych dla użytkowników w archiwach państwowych, Kamila Biernat

W niniejszym wystąpieniu postanowiono skupić się na ukazaniu pomocy informacyjnych i ich roli, które mają służyć użytkownikom archiwów państwowych w Polsce. Już teraz należy zauważyć, jak wielki postęp na tym tle zrobiły archiwa, przechodząc od tradycyjnych środków informacyjnych aż po udostępnianie swoich zasobów on-line. Rozważania rozpoczną się od najdawniejszych form informacyjnych do których zaliczono wydawanie przewodników i informatorów po zasobach archiwów państwowych w postaci książkowych. Po omówieniu ich budowy i funkcji ukazane zostaną strony internetowe archiwów, dzięki którym współczesny użytkownik został poinformowany zarówno o pracy samej instytucji, jak i całego zasobu materiałów archiwalnych, jaki jest w niej przechowywany. Należy pamiętać również o bazach danych, które niegdyś stanowiły pierwszy krok w poszukiwaniu interesujących zespołów archiwalnych przez potencjalnych użytkowników. Wyróżnione zostaną przede wszystkim SEZAM (System Ewidencji Zasobu Archiwalnego), IZA (Inwentarz Zespołów Archiwalnych), PRADZIAD (Program Rejestracji Akt Metrykalnych i Stanu Cywilnego), ELA (Ewidencja Ludności w Archiwaliach). Dzisiaj główną rolę w tej materii odgrywa ZoSIA (Zintegrowany System Informacji Archiwalnej). W dalszej części wystąpienia nastąpi zwrócenie uwagi na dynamiczny postęp technologii informacyjnych, a z czym związana jest digitalizacja zasobów polskich archiwów państwowych i umieszczanie skanów na specjalnym stworzonym do tego zadania portalu – „Szukaj w archiwach” ( Oprócz skanów umieszczona zostanie również ewidencja zasobu archiwalnego czyli inwentarze.

W zasadniczej części uwaga zostanie zwrócona na proces retrokonwersji, która została określona jako: „proces przenoszenia opisów katalogowych, bibliograficznych księgozbioru z katalogu kartkowego biblioteki do katalogu komputerowego zintegrowanego systemu bibliotecznego lub do bazy danych. Dotyczy także przenoszenia do bazy informatycznej inwentarzy archiwalnych”. Zgodnie z obowiązującym „Programem retrokonwersji pomocy archiwalnych” Naczelnego Dyrektora Archiwów Państwowych zaplanowanym na lata 2017–2018 w Internecie ma pojawić się 13 mln nowych opisów jednostek archiwalnych. Jest to możliwe dzięki ZoSIA, która do końca 2017 roku ma zostać wdrożona we wszystkich archiwach państwowych w kraju. (…)

Sesja polska równoległa 9: Nowe trendy w dyscyplinach informacyjnych
Polish parallel session 9: New Trends in Information Disciplines
(Prowadzący: Diana Pietruch-Reizes)

Innowacja dla człowieka czy człowiek dla innowacji?, Katarzyna Materska

Innowacyjność, pomysłowość, kreatywność są wielkim bogactwem człowieka. Bez nich trudno wyobrazić sobie rozwój społeczny, kulturowy i gospodarczy, a także integralny rozwój samego człowieka. W ostatnich dziesięcioleciach innowację kojarzymy z narastającą w coraz szybszym tempie zmiennością współczesnego życia. Ciąg zmian w człowieku i otoczeniu (zmiany technologiczne i gospodarcze oraz kulturowe społeczeństwa, przeobrażenia w systemach wartości, stylu życia, poziomie aspiracji, poszczególnych jednostek i grup społecznych itp.) są ze sobą wzajemnie splecione zależnościami przyczynowo-skutkowymi.

Skala emocjonalnych postaw wobec postępu technologicznego i innowacji jest szeroka: od entuzjastycznej akceptacji i wyobrażania sobie wspaniałych perspektyw związanych z rozwojem do poczucia ciągłej presji czy katastroficznych niemal wizji zagłady człowieka i świata jego wartości. Można podać szereg przykładów, iż nie każda innowacja stawia w centrum człowieka i jego potrzeby. Niektóre innowacje naruszają i zakłócają istniejący porządek, ekosystem człowieka, wprowadzają po prostu „nowy wspaniały świat”. Jakiej innowacji potrzebuje współczesny człowiek? Jaka innowacja realnie służy człowiekowi a jaką stanowi przeszkodę w rozwoju jego potencjału? Czemu tak naprawdę służy innowacja? Czy innowacja jest moralna? Jakie innowacje uwzględniają potrzeby człowieka, jego środowiska i jego moralności? Autorka szuka częściowo odpowiedzi na te pytania w literaturze socjologicznej, filozoficznej i psychologicznej.

Przyjmując, że innowacyjność to także stan umysłu (co potwierdzają badania) artykuł dotyka niektórych psychologicznych koncepcji człowieka w sytuacji zmiany oraz postaw człowieka wobec innowacji (w tym tzw. osobowości innowacyjnej czy motywacji innowacyjnej).

Całość rozważań służy głębszemu osadzeniu problematyki innowacji w humanistycznej perspektywie informatologicznej, w której innowacyjne usługi informacyjne nastawione są na człowieka. W kolejnej nowej rzeczywistości muszą odnaleźć się zarówno bardzo zróżnicowani użytkownicy, jak i twórcy i dostawcy innowacyjnych rozwiązań (information professionals). Podjęty temat wydaje się ważny w dobie kształtowania się wzorów stechnicyzowanych społeczeństw, gdyż dotyczy moralnego postepowania, zwykle przypisywanego człowiekowi.

Logistyka informacji: przydatność w nauce o informacji i działalności informacyjnej, Wiesław Babik

Klasyczna logistyka jest tradycyjnie rozumiana jako proces planowania, implementacji i kontrolingu skutecznego, wydajnego, efektywnego przepływu i składowania towarów i realizacji usług oraz związanej z tym informacji, od punktu ich pochodzenia/tworzenia do punktu konsumpcji w celu zaspokojenia potrzeb klientów, zgodnie z ich wymogami i życzeniami. W sytuacji, gdy informacja i wiedza są postrzegane jako towar a więc i produkt efektywne sterowanie ich przepływem staje się problemem logistycznym. Zadaniem logistyki w tym przypadku logistyki informacji staje się organizacja i koordynacja procesów przepływu informacji i wiedzy w kanałach i łańcuchach logistycznych. W rzeczywistości są to procesy zarządzania łańcuchami dostaw informacji w systemach informacyjnych. Proponowane podejście jest zbieżne z rozumieniem logistyki jako obiegu/koordynacji zbioru określonej klasy procesów (tu procesów informacyjnych i wiedzotwórczych) przebiegających w środowisku informacji identyfikowanym w ramach jednego lub wielu układów odniesienia.

Wykorzystanie logistyki do sterowania i koordynacji procesów informacyjnych może prowadzić do integracji i tworzenia nowych wartości dodanych. Funkcje tradycyjnej logistyki mogą być rozciągnięte na sferę procesów informacyjnych i obejmować także aspekty czysto organizacyjne nazywane organizacją informacji i wiedzy. Prowadzić one mogą w szczególności do optymalizacji strumieni i przepływów zasobów informacyjnych. Integracja tych procesów może zapewnić pożądaną wysoką jakość obsługi informacyjnej użytkowników przy takiej organizacji informacji i wiedzy, która pozwala uzyskać optymalny poziom wykorzystania informacji i dodatkową wartość dodaną w postaci wiedzy. Wystąpienie i artykuł to próba asymilacji osiągnięć klasycznej logistyki gospodarczej do nauki o informacji i działalności informacyjnej, mająca na celu wykazanie, że logistyka informacji pozwala szerzej i głębiej spojrzeć na procesy informacyjne, dostrzec i ujawnić elementy dotychczas pomijane lub uznane za mało znaczące. Otwiera dla nauki o informacji nową dotychczas niezauważoną perspektywę badawczą a przez to umożliwia dalszy postęp w refleksji informatologicznej.

Strukturalistyczna koncepcja architektury informacji, Stanisław Skórka

Architektura informacji (AI) jest dziedziną zarówno praktyczną, profesją zajmująca się projektowaniem przestrzeni informacyjnych, jak i subdyscypliną badawczą informatologii posiadającą własne pole badawcze, które obejmuje strategie i systemy organizacji informacji, metody projektowania i oceny użyteczności środowisk informacji, zagadnienia interakcji człowieka z systemem informacyjnym. W polu zainteresowań znajdują się również relacje pomiędzy trzema elementami ekosystemu informacyjnego: treścią, użytkownikiem i kontekstem. Jednym z podstawowych zagadnień interesujących architekturę informacji jako obszaru interdyscyplinarnego, wokół którego powstało już wiele teorii, jest struktura w rozumieniu J. Mukařovský’ego – „całość, która określa sobą charakter swoich elementów”. Strukturę tę tworzyć mogą: treść (to co jest przekazywane), kod (język, znaki, którymi przekazuje się treść), forma (zewnętrzna postać, jaką przybiera). Podejście strukturalistyczne wyraża się również poprzez zastosowanie analizy strukturalnej, której celem jest poszukiwanie układu relacji pomiędzy składnikami i funkcjami danego zjawiska. W przypadku AI składnikami tymi są wspomniane wcześniej obszary: treść, użytkownik oraz kontekst. Relacje pomiędzy elementami struktury uwzględnia się również w praktycznej odmianie architektury informacji serwisów internetowych. W tym przypadku kształt strukturze nadają systemy: organizacji informacji, nawigacji, etykietowania i wyszukiwania. Koncepcja strukturalistyczna zakłada, że informacja wykreowana np. przez architekta informacji jest konstrukcją, zbudowaną z warstw pozostających ze sobą w stałych relacjach, a jednocześnie tworzących funkcjonalny dla użytkownika system informacyjny

Sesja polska równoległa 10: Innowacje w organizacji wiedzy
Polish parallel session 10: Innovations in Knowledge Organization
(Prowadzący: Wiesław Babik)

O optymalizacji systemów organizacji wiedzy, Barbara Sosińska-Kalata

Migracja usług informacyjnych do środowiska cyfrowego, upowszechnienie dostępu do tych usług oraz rozwój ich różnorodnych form i obszarów implementacji wymuszają rewizję wymagań, które powinny spełniać wykorzystywane w tych usługach systemy organizacji wiedzy. Za interpretacją szeroko przyjętą we współczesnym piśmiennictwie nauki o informacji i organizacji wiedzy, przez systemy organizacji wiedzy rozumiane są tu wszelkie systemy metadanych przeznaczone do indeksowania różnego rodzaju dokumentów i innych obiektów informacyjnych (informacji o przedmiotach, osobach, zdarzeniach itp.), organizowania ich kolekcji w sposób ułatwiający zarządzanie nimi oraz przeszukiwanie i przeglądanie tych kolekcji w różnych środowiskach technicznych i dla różnych celów. W kontekście specyfiki i możliwości technicznych współczesnego cyfrowego środowiska informacyjnego, różnorodności udostępnianych treści oraz różnorodności obsługiwanych społeczności odbiorców w referacie podjęta zostanie próba zdefiniowania pojęcia optymalnego systemu organizacji wiedzy. Punktem wyjścia dla tych rozważań są założenia optymalizacji celowego działania i wykorzystywanych w nim środków i narzędzi w filozofii praktyczności Tadeusza Kotarbińskiego, nauce o ludzkim działaniu Ludwiga von Misesa oraz w prakseologicznej nauce o znaku i komunikowaniu Tadeusza Wójcika. W powiązaniu z funkcjami realizowanymi przez współczesne systemy organizacji wiedzy przedstawione zostaną ogólne warunki ich optymalizacji.

Semantyczne adnotacje w kolekcjach cyfrowych, Marcin Roszkowski

Przedmiotem referatu jest koncepcja semantycznych adnotacji jako nowego rodzaju metadanych tworzonych i współdzielonych przez użytkowników kolekcji cyfrowych w środowisku sieciowym. Tworzenie adnotacji dla dokumentów jest integralnym elementem w procesie ich interpretacji, który to ma kluczowe znaczenie dla działalności naukowej i uczestnictwa w dyskursie naukowym. Przeniesienie tego procesu do środowiska sieciowego pozwala na stworzenie dodatkowej warstwy reprezentacji informacji w kolekcjach cyfrowych. Oznacza to możliwość dostępu do zawartości obiektu cyfrowego oraz metadanych go opisujących za pośrednictwem interfejsu graficznego w bibliotece cyfrowej, ale również możliwość tworzenia przez użytkowników adnotacji i ich współdzielenia, jako pewnej formy aktów komunikacyjnych. Celem referatu jest próba zdefiniowania adnotacji z punktu widzenia procesu reprezentacji informacji (a więc jako metadanych) oraz z punktu widzenia modelowania konceptualnego (dociekania związane z ich strukturą). Kontekstem rozważań jest tutaj możliwość zastosowania adnotacji w sieciowych kolekcjach cyfrowych. W referacie przedstawiony zostanie Model Danych dla Adnotacji Sieciowych (Web Annotation Data Model) zarówno z punktu widzenia konceptualizacji idei adnotowania w środowisku sieciowym jak i formalnej reprezentacji tego rodzaju metadanych. Sam termin semantyczna adnotacja definiowany jest jako struktura danych, w której adnotacja A jest krotką (as, ap, ao, ac), gdzie as jest przedmiotem adnotacji (ang. annotation subject), czyli obiektem poddawanym adnotowaniu, ao jest obiektem adnotacji (ang. annotation object), czyli reprezentuje treść adnotacji, ap pełni rolę predykatu (ang. annotation predicate), czyli reprezentuje typ relacji zachodzącej między obiektem adnotowanym a treścią adnotacji, zaś ac wskazuje na kontekst aktu adnotowania (ang. annotation context). W tak przyjętej perspektywie zostaną scharakteryzowane trzy podstawowe typy adnotacji wyodrębnione na podstawie stopnia formalnej reprezentacji elementów je tworzących: adnotacje nieformalne, adnotacje formalne, adnotacje ontologiczne. Semantyczny charakter adnotacji oznacza tutaj możliwość ich automatycznego przetwarzania a więc zastosowanie sieciowych standardów reprezentacji wiedzy (np. Resource Desription Framework) do opisu ich struktury oraz schematów metadanych i ontologii do reprezentacji ich zawartości. W referacie zostanie również przedstawiona koncepcja semantycznych adnotacji z praktycznego punktu widzenia, tzn. istniejących rozwiązań technologicznych oraz ich wdrożeń w kolekcjach cyfrowych z obszaru humanistyki cyfrowej.

W stronę lepszej komunikacji – wykorzystanie języka UML do eliminowania wieloznaczności, Anna Kamińska, Jadwiga Woźniak-Kasperek

Przedstawiony zostanie potencjał języka UML (ang. Unified Modeling Language) w zakresie eliminowania wieloznaczności komunikatów ze szczególnym uwzględnieniem komunikatów naukowych. Generalną tezą wystąpienia jest weryfikowane empirycznie przekonanie, że w wielu przypadkach komunikacji naukowej posiłkowanie się formalnym językiem UML daje korzyści niewspółmiernie duże w stosunku do nakładów potrzebnych na jego poznanie.

Po krótkim wprowadzeniu opisującym czynniki oddziałujące na rozwój języków graficznych, cele, dla których zostały stworzone, i sposoby wykorzystania, przedstawione zostaną próby powołania języków nadążających za potrzebami precyzyjnej komunikacji, próby, które doprowadziły ostatecznie do powstania języka UML – obiektowego, uniwersalnego i rozszerzalnego języka modelowania pojęć, zachowań i systemów. Przybliżona zostanie jedna z wielu technik opisu, skupiona na modelowaniu perspektywy strukturalnej – diagram klas. Zostaną omówione jego elementy i własności takie jak klasy, atrybuty, abstrakcje, powiązania, dziedziczenie i zasady ich użycia, innymi słowy gramatyka UML. Zwracając uwagę na problemy z precyzją przekazu treści (również naukowych) formułowanych w językach naturalnych, na konkretnych przykładach zaczerpniętych z literatury z zakresu informatologii zostaną przedstawione możliwości wynikające z użycia tego języka do opisu obszarów pojęciowych wyrażanych pierwotnie nieformalnymi opisami tekstowymi i graficznymi oraz wynikające stąd korzyści.

Sesja polska równoległa 11: Usługi informacyjne w gospodarce, ochronie zdrowia i kulturze
Polish parallel session 11: Information Services in Economy, Healthcare, and Culture
(Prowadzący: Mariusz Luterek)

Zastosowanie technologii informacyjnych w wybranych sektorach gospodarki narodowej, Agnieszka Młodzka-Stybel

(…) Celem referatu jest przedstawienie wybranych wyników badania ankietowego, dotyczącego zastosowań technologii informacyjnych, w podziale według sektorów gospodarki i rodzaju działalności. Ankieta skierowana była do osób bezpośrednio reprezentujących przedsiębiorstwa oraz inne podmioty gospodarcze: kadry zarządzającej lub właścicieli. Kierunki opracowania wyników ankiet obejmowały analizę wykorzystywania technologii informacyjnych w powiązaniu z obszarami funkcjonowania przedsiębiorstwa, cechami przedsiębiorstwa oraz cechami otoczenia krajowego. Wyniki analizy wskazują na wyraźne wyróżnianie się dwóch sektorów: informacji i komunikacji oraz nauki i techniki w porównaniu z pozostałymi sektorami gospodarki. Dla sektorów tych uzyskano znaczącą przewagę odpowiedzi potwierdzających zastosowania technologii informacyjnych. Dostrzegana dominacja wymienionych sektorów zaznacza się szczególnie wyraźnie w przypadku technologii zaawansowanych i relatywnie nowych, takich jak zaawansowane technologie multimedialne, zaawansowane inteligentne narzędzia przetwarzania i analizy danych, technologie rzeczywistości wirtualnej. Także zastosowanie technologii związanych z bezpieczeństwem danych potwierdzane jest relatywnie często przez wymienione sektory, oraz przez inne, związane np. z administracją, opieką zdrowotną, działalnością finansową. Analiza danych w podziale według rodzaju działalności wskazuje na znaczącą przewagę zastosowań technologii w obszarze usług, często w powiązaniu z innymi rodzajami działalności. Uzyskane wyniki potwierdzają znaczący potencjał podmiotów gospodarczych funkcjonujących w obszarze informacji i wiedzy, przede wszystkim w zakresie usług. Dalsze interpretacje ukierunkowane na pewne rozwarstwianie się gospodarki, w której podmioty powiązane z usługami informacyjnymi, w szczególności o charakterze innowacyjnym z zastosowaniem nowoczesnych technik informacyjnych, znacząco wyprzedzają pozostałe podmioty gospodarcze, wymagają porównań o zasięgu międzynarodowym.

Jak informować o zdrowiu publicznym? Porównanie polskich i światowych serwisów informacyjnych tworzonych przez narodowe instytuty zdrowia publicznego, Jan Kozakowski

W ostatnich latach nastąpił dynamiczny rozwój badań w zakresie informacji zdrowotnej. Cieszy się ona dużym zainteresowaniem badaczy oraz jest jednym z ważnych czynników, które powinny być uwzględniane przy planowaniu polityki zdrowotnej państw zarówno na poziomie władz centralnych, jak i samorządowych. Jednym z obszarów informacji zdrowotnej jest informacja o zdrowiu publicznym, czyli, zgodnie z definicją przyjętą przez Światową Organizację Zdrowia (WHO), zorganizowanym wysiłku społecznym, realizowanym głównie przez wspólne działania instytucji publicznych, mającym na celu polepszenie, promocję, ochronę i przywracanie zdrowia ludności. W większości państw świata istnieją publiczne instytucje prowadzące badania w zakresie zdrowia publicznego (narodowe instytuty zdrowia publicznego). Jako przykłady warto wymienić choćby holenderski Netherlands National Institute for Public Health and the Environment (RIVM), norweski Norwegian Institute of Public Health (FHI), fiński National Public Health Institute of Finland (KTL), czy amerykańskie National Institutes of Health (NIH). Instytucje te wypracowały różne sposoby udostępniania informacji i wiedzy za pomocą serwisów internetowych. Także polski Narodowy Instytut Zdrowia Publicznego – Państwowy Zakład Higieny (NIZP–PZH) prowadzi działania w tym zakresie. Do tej pory udostępniane są baza danych statystycznych dotyczących sytuacji epidemiologicznej i szczepień ochronnych w Polsce czy atlasy umieralności.Obecnie w NIZP–PZH trwają prace nad budową bazy wiedzy o zdrowiu publicznym w zakresie nierówności w zdrowiu. Zgodnie z przyjętymi założeniami ma ona stanowić istotne i łatwo dostępne źródło dla wszelkich instytucji i osób zainteresowanych pozyskaniem informacji na ten temat. Portal informacyjny (tytuł roboczy: „Baza wiedzy w zakresie nierówności w zdrowiu”), tworzony przez NIZP–PZH w ramach Programu PL 13 „Ograniczanie społecznych nierówności w zdrowiu” współfinansowanego ze środków Norweskiego Mechanizmu Finansowego na lata 2009–2014, składa się z sześciu modułów. Spośród nich wymienić warto: „Zdrowie w powiatach” prezentujący na interaktywnych mapach dane statystyczne zebrane w trakcie realizacji projektu (szczegółowość do poziomu powiatów), wyszukiwarkę bibliograficzną publikacji poświęconych nierównościom w zdrowiu, punkt dostępu do pełnych tekstów publikacji wydanych przez NIZP–PZH w ramach programu norweskiego. W referacie przedstawione i porównane zostaną wybrane przykłady działań instytucji publicznych na rzecz udostępniania informacji o zdrowiu publicznym w Internecie. Na tle tego zestawienia wskazane zostaną mocne i słabe punkty projektu serwisu informacyjnego realizowanego przez NIZP–PZH.

Dostęp to za mało… Usługi cyfrowe w instytucjach kultury: oferta Narodowego Instytutu Audiowizualnego a oczekiwania i kompetencje użytkowników, Małgorzata Kisilowska, Justyna Jasiewicz, Anna Mierzecka

Zasoby cyfrowe polskich instytucji kultury, mimo ich niezaprzeczalnej wartości, spotykają się z relatywnie niewielkim zainteresowaniem potencjalnych użytkowników. W 2016 roku zespół Narodowego Instytut Audiowizualnego zwrócił uwagę na problem słabego odbioru oferty informacyjnej i kulturalnej wśród uczniów i nauczycieli szkół ponadpodstawowych. W konsekwencji przeprowadzono badania, których celem było wskazanie przyczyn niskiego zainteresowania materiałami cyfrowymi oraz zaproponowanie działań, które mogłyby spowodować pozytywne zmiany w tym zakresie. Badania miały charakter jakościowy: obejmowały przegląd i analizę porównawczą materiałów źródłowych, przegląd dobrych praktyk w zakresie udostępniania zasobów cyfrowych wybranych instytucji kultury oraz zogniskowane wywiady grupowe, połączone z realizacją zadań wyszukiwawczych przez respondentów – uczniów szkół ponadpodstawowych. W referacie przedstawiony zostanie kontekst teoretyczny dla zachowań informacyjnych w obszarze kultury, z uwzględnieniem teorii relacyjności oraz relacyjnego uczestnictwa w kulturze. Omówione zostaną (na podstawie przeglądu dobrych praktyk) aktualne trendy w sposobach udostępniania cyfrowych zasobów kultury i szerzej: komunikacji z użytkownikiem, a także wyniki badań jakościowych. Badania te pozwoliły na określenie poziomu kompetencji informacyjnych, jak również znajomości oferty NInA w grupie docelowej. Wyodrębniono na poziomie szczegółowym trudności i bariery negatywnie wpływające na zakres i intensywność korzystania z cyfrowych zasobów kultury. Sprecyzowano oczekiwania, jakie ma młodzież względem internetowych usług informacyjnych oraz przyczyny, jakie za nimi stoją. Zaproponowano działania wspierające popularyzację oferty Instytutu w badanych grupach, zwłaszcza w odniesieniu do kontekstu edukacyjnego oraz roli nauczycieli przedmiotowych w kształceniu kompetencji informacyjnych i kulturalnych.

Badanie wskazało na znaczny potencjał usług NInA w edukacji kulturalnej na poziomie kształcenia ponadpodstawowego, pod warunkiem personalizacji komunikacji z młodymi odbiorcami, rozbudowania narzędzi wyszukiwawczych i komunikacyjnych oraz wzmocnienia i zróżnicowania form współpracy z nauczycielami. Potwierdziło również (po raz kolejny) istnienie silnego stereotypu dotyczącego wysokich kompetencji informacyjnych osób z pokolenia digital born, który jednak nie znajduje odzwierciedlenia w rzeczywistym poziomie umiejętności młodzieży w tym zakresie. To z kolei tworzy kolejny argument za wzmocnieniem kształcenia informacyjnego i medialnego w systemie oświaty.

Sesja polska równoległa 12: Nowe media w biznesie i kulturze
Polish parallel session 12: New Media in Business and Culture
(Prowadzący: Teresa Święćkowska)

Utowarowienie informacji medialnej publikowanej w Internecie. Społeczne aspekty problem, Łukasz Iwasiński

Teza o utowarowieniu informacji medialnej jest doskonale znana – to jeden z wątków rozwijanej od dekad narracji o zawężaniu sfery publicznej i kolonizowaniu jej przez rynek (ujmując problem w kategoriach J. Habermasa). Nowy wymiar temu procesowi nadała jednak digitalizacja i, co za tym idzie, kwantyfikacja informacji, a dodatkowo – jej rozproszenie w Sieci. Warto zastanowić się jak ów fakt przekłada się na kształt usług informacyjnych oferowanych w Internecie, a także jakie niesie społeczne skutki. Zarabianie na publikowanych treściach nie jest niczym nagannym. W ramach kapitalistycznego systemu medialnego jest rzeczą naturalną i w pełni usprawiedliwioną – o ile idzie w parze z rzetelnym informowaniem i przyczynia się do rozwoju debaty publicznej. Jednak informacja w serwisach internetowych – zdigitaizowana, a więc policzalna oraz łatwo poddająca się monitorowaniu i analizie – często staje się narzędziem zysku, absolutnie nie wywiązując się z wspomnianych wyżej zadań. Leszek Olszański w książce „Media i dziennikarstwo internetowe” formułuje ów problem dosadnie „w zasilanym pieniędzmi z reklamy Internecie (…) chodzi o możliwie jak najtaniej produkowaną zawartość strony, która ściągnie jak najwięcej odwiedzających, którzy wygenerują jak najwięcej emisji reklam”. Innymi słowy, chodzi o jak najskuteczniejszą monetyzację kontentu. Symbolem takiej strategii stał się serwis AOL, który w 2011 roku opublikował instrukcję dla swych autorów. Obejmowała ona wymóg wzrostu produkcji publikowanych treści (ujętych liczbowo, jako „jednostki treści” („pieces of content”)), redukcji kosztu ich wytworzenia i zwiększenia odsłon reklam generowanych przez każdą taką jednostkę.

Wiele współczesnych internetowych serwisów informacyjnych zdaje się pojmować innowacyjność przede wszystkim jako szukanie nowych form monetyzacji kontentu. Tak oto redakcyjne CMSy bywają wyposażane w narzędzia podpowiadające najbardziej nośne w danym momencie tematy, a także szacujące klikalność materiału i przewidywany zysk z reklam. Te czynniki mają decydować o publikacji danych treści. Kolejne narzędzie to tzw. farmy treści, czyli serwisy, które generują treść zorientowaną na wymagania algorytmów wyszukiwarek internetowych – jakkolwiek przyznać trzeba, że modyfikacje algorytmu Google’a z ostatnich lat ograniczyły nieco ich zasięg. Coraz lepiej natomiast radzą sobie automatyczne kreatory kontentu (dzięki rozwojowi tzw. robo-journalism software). Przedstawiciele specjalizującej się w tej technologii firmy Narrative Science twierdzą, że za ok. piętnaście lat automaty będą autorami dziewięćdziesięciu procent informacji prasowych. Nie brak głosów, że opisane zjawiska są społecznie bardzo groźne: zaniżają jakość debaty i tym samym niszczą sferę publiczną, a w konsekwencji – demokrację, tworzą grunt dla rozwoju populizmu, pozbawiają dziennikarstwo funkcji krytycznej i kontrolnej, podkupują zaufanie do tego zawodu. W referacie chciałbym odnieść się do tych obaw, a także postawić pytanie o związek kwantyfikacji i utowarowienia informacji medialnej publikowanej w Internecie z intensywnie eksploatowaną w ostatnich miesiącach koncepcją post-prawdy.

Badania audytorium mediowego jako źródło informacji pozwalającej podejmować lepsze decyzje biznesowe w dynamicznie zmieniającym się środowisku internetowym, Anna Miotk

Istnieje wiele różnych narzędzi badań audytorium internetowego: analityka mediów społecznościowych, analityka webowa, pomiar widowni internetowej. Pozwalają one na poznanie parametrów socjodemograficznych widowni, a także uzyskanie informacji związanych z zasięgiem czy zaangażowaniem w przekaz mediowy. Badania te są źródłem informacji dla rynku mediowego, pozwalając podejmować lepsze decyzje biznesowe w zakresie rozmieszczenia i treści przekazów. Badania audytoriów mediowych mogą być również przydatnym źródłem wiedzy dla środowiska naukowego.

Analiza funkcjonalności polskich muzealnych aplikacji mobilnych, Grzegorz Gmiterek

(…) Referat ma na celu przedstawienie wyników analizy i badań porównawczych mobilnych aplikacji wspierających działalność polskich muzeów. Zostaną zaprezentowane programy przygotowane z myślą o użytkownikach urządzeń przenośnych z systemem Android. Celem referatu jest także przegląd i analiza najbardziej popularnych mobilnych rozwiązań w kontekście zapoznawania się przez użytkownika z działalnością muzeów oraz prezentowanych przez nie eksponatów. Pod uwagę wzięto aplikacje obecne w rankingach udostępnionych przez sklep internetowy Google Play oraz internetowy serwis statystyczny Prezentowane w referacie aplikacje zostały przy tym wyłonione z dwóch rankingów Google Play dotyczących kategorii tematycznych: Edukacja oraz Podróże i informacje lokalne. Wzięto pod uwagę zarówno możliwości urządzeń przenośnych, mechanizmy, w które są one aktualnie wyposażone (np. moduł gps, żyroskop, kamera), ale także interaktywność, multimedialność samych programów oraz udostępnianych za ich pośrednictwem treści. Popularność poszczególnych aplikacji została ustalona między innymi na podstawie dostępnych w sieci aktualnych danych statystycznych, w tym zwłaszcza informacji o liczbie pobrań danej aplikacji, komentarzach i ocenach wystawianych przez samych użytkowników.