|
1.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Ilya T. Kasavin
Илья Теодорович Касавин
Эпистемология Добродетелей
abstract |
view |
rights & permissions
| cited by
The article summarizes the main developments in virtue epistemology and reacts to the challenges faced by the discipline. This new trend in analytic epistemology emerges as a synthesis of a number of directions (metaethics, social epistemology, metaphilosophy and experimental philosophy). On the one hand, it attempts to overcome some weaknesses of classical epistemology and, on the other hand, it performs this on the same basis, retaining the classical understanding of knowledge as justified true belief. It was dubbed “virtue epistemology” since it focuses on restoration of the normative approach and on the opposition to Quine’s naturalism. It explores intellectual virtues like epistemology explores knowledge claims though emphasizing their subject-dependent nature. It is the cognitive agent who provides a foundation for intellectual virtues no matter whether they are understood as cognitive ability or mental traits. However, the most researchers take epistemic virtues as individual mental states available through introspection, and the entire analysis in fact boils down to the articulation of virtue intuitions in the cognitive process. For those intuitions, thought experiments serve as a test simulating everyday cognitive situations. Still, in the context of virtue epistemology some alternative approaches arise, contributing significant revisions to the subject matter and the methods of analytical epistemology. A collective agent replaces an individual one, and knowledge engages in an integral subject-object and subject-subject context. Normativism mitigates its opposition to naturalism, enabling the utilization of the empirical data from the social sciences and humanities. As a result, a dialogue of virtue epistemology with the philosophy and ethics of science gets the chance.
Новое направление развития аналитической эпистемологии возникает как синтез ряда трендов – метаэтики, социальной эпистемологии, метафилософии и экспериментальной философии, – начинающийся с 70-х гг. XX в. Оно призвано, с одной стороны, преодолеть некоторые слабости классической эпистемологии, а с другой, сделать это на прежней классической основе, исходя из понимания знания как обоснованного истинного убеждения. Самоназвание направления в качестве ≪эпистемологии добродетелей≫ (virtue epistemology) обозначает ориентацию на восстановление в правах нормативного подхода и противостояние куайновскому натурализму. Субстанцией интеллектуальных добродетелей, будь то когнитивные способности или моральные черты характера, провозглашается субъект познания. Методом анализа выступает артикуляция ценностных интуиций в процессе познания, которые понимаются большинством исследователей как индивидуальные ментальные состояния, доступные благодаря интроспекции. Способом тестирования таких интуиций служат мысленные эксперименты, моделирующие повседневные познавательные ситуации. Параллельно в рамках эпистемологии добродетелей возникают и альтернативные подходы, вносящие существенные коррективы в предмет и методы аналитической эпистемологии.
|
|
|
|
2.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Alexander L. Nikiforov
Александр Леонидович Никифоров
Трансформация науки в ХХ в.
abstract |
view |
rights & permissions
| cited by
The first part of the article examines the views on the nature of science and the activities of the scientists, on a role of science in the life of society, expressed in the works of the greatest scientists of the late-early 20th centuries – E. Mach, A. Poincare and M. Weber. It is shown that certain differences in the understanding of science and its development between these thinkers were due to their professional orientation. While Mach and Poincare, speaking of science, had in mind, above all, a mathematized natural science, Weber focused on the social sciences, which were only at the beginning of their development. The second part of the article shows that during the twentieth century science experienced a significant transformation, which was due to three interrelated factors. First, research has become widely funded by business and government. Secondly, large scientific teams come to take the place of single scientists, whose members perform only narrow-specific functions in solving a scientific task. Finally, business and the state orient science toward solving applied problems, i.e. to develop new technical devices. As a result, the main goal of scientific activity is not the search for truth, but the improvement of technology, new knowledge is only a by-product of technical progress.
В первой части статьи рассматриваются взгляды на природу науки и деятельность ученого, на роль науки в жизни общества, выраженные в трудах крупнейших ученых конца XIX – начала ХХ в. – Э. Маха, А. Пуанкаре и М. Вебера. Показано, что определенные расхождения в понимании науки и ее развития между этими мыслителями были обусловлены их профессиональными ориентациями. В то время как Мах и Пуанкаре, говоря о науке, имели в виду, прежде всего, математизированное естествознание, Вебер ориентировался на общественные науки, которые в то время находились лишь в начале своего развития. Во второй части статьи показано, что в течение ХХ в. наука испытала существенное преобразование, которое было обусловлено тремя взаимосвязанными факторами. Во-первых, научные исследования широко стали финансироваться бизнесом и государством. Во-вторых, на место ученого-одиночки приходят крупные научные коллективы, члены которых выполняют лишь узкоспециализированные функции в решении научной задачи. Наконец, бизнес и государство ориентируют науку на решение прикладных задач, т. е. на разработку новых технических устройств. Вследствие этого основной целью научной деятельности становится не поиск истины, а совершенствование техники, новое знание оказывается лишь побочным продуктом технического прогресса.
|
|
|
3.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Alexander Yu. Antonovski
Александр Юрьевич Антоновский
Мах, Пуанкаре и Вебер
abstract |
view |
rights & permissions
| cited by
The article disproves the panel thesis of A.L. Nikiforov. The fallacy of his assertion that the ideas of Max Weber represent a marginal direction of the development of science, connected with the purely social interest of this thinker, is revealed. In turn, it is proved that the attribution of the idea of realism and the correspondent theory of truth to E. Mach and H. Poincare is incorrect or restrictedly possible.
В статье опровергается панельный тезис А.Л. Никифорова. Обосновывается неверность его утверждения о том, что идеи Макса Вебера представляют собой маргинальное направление развития науки, связанное с сугубо обществоведческим интересом этого мыслителя. В свою очередь, доказывается, что приписывание Э. Маху и А. Пуанкаре идеи реализма и корреспондетской теории истины является неверным или ограниченно-возможным.
|
|
|
4.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Nadezhda A. Kasavina
Надежда Александровна Касавина
О бремени техники и миссии ученого
abstract |
view |
rights & permissions
| cited by
The whole problem under our collective investigation, as I view it, is about understanding the human situation in terms of the impact of technology. The union of science and technology still resides within the limits of a “practical anthropocentrism” (Marsel G.), that is increasing satisfaction of human needs. An advancement in science and technology is accompanied by the desacralization of culture and the crisis of humanism. An awareness of the growing environmental, cultural, existential problems leads to the necessity to shift the vectors of scientific inquiry and technological development. In this process, the role and mission of the humanities is an articulation and promotion of human perspectives of science and technological progress. The humanities’ mission consists in attracting attention of scientists and society to humanizing technology and its aiming not only towards the growth of power over nature, but also to the making of a new relationship to the humans, to solving global problems.
В данной дискуссии, на мой взгляд, главная тема – это понимание человеческой ситуации под влиянием техники. Союз науки и техники пока не выходит за пределы ≪практического антропоцентризма≫ (Г. Марсель), т. е. все более полного удовлетворения потребностей человека. Успехи в области науки и техники сопровождаются десакрализацией культуры и кризисом гуманизма. Осознание экологических, культурных, экзистенциальных проблем приводит к необходимости сдвига векторов научного поиска и технического развития. В этом процессе роль и миссия гуманитарных наук состоит в обозначении и сохранении человеческой перспективы науки и технического прогресса. Они привлекают внимание общества и ученых к гуманизации техники и ее включенности не только в процесс наращивания власти над природой, но и в формирование иного отношения к человеку, в решение глобальных проблем современности.
|
|
|
5.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Evgeny V. Maslanov,
Anton V. Dolmatov
Евгений Валерьевич Масланов
Гражданская наука – наука как призвание
abstract |
view |
rights & permissions
| cited by
The author analyzes contemporary technoscience. He claims that for the functioning of technoscience it is necessary to train a large number of specialists with higher education. Not all of them are employed in scientific and research organizations. Some of the people who have a higher education but are not professionally engaged in science, participate in the implementation of various citizen science projects. As a result, two groups of scientists can be distinguished: professional scientists and amateur scientists. For the former, scientific activity is a profession, whereas for the citizen scientists it can rather be described in terms of satisfying their curiosity.
В статье анализируется современная технонаука. Для функционирования технонауки необходима подготовка большого количества обладающих высшим образованием специалистов. Не все из них работают в системе научных и научно-исследовательских организаций. Часть людей, обладающих высшим образованием, но по долгу службы не связанных с наукой, участвуют в реализации различных проектов гражданской науки. В результате можно выделить две группы ученых: ученые-профессионалы и ученые-дилетанты. Для первых научная деятельность выступает как профессия, тогда как для вторых она скорее может быть описана в терминах удовлетворения их любопытства.
|
|
|
6.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Olga E. Stoliarova
Ольга Евгеньевна Столярова
Можно ли говорить о грехопадении науки?
abstract |
view |
rights & permissions
| cited by
The article analyzes the pessimistic scenario in relation to science, which characterizes contemporary science as regressing. It is shown that pessimism in relation to contemporary science is largely based on the formal-logical positivist image of science, which does not correspond to real scientific practice. It is shown, that postpositivist studies of science testifies in favor of the fact that science has never been “pure”. This approach allows us to rehabilitate technoscience and revise the pessimistic scenario.
В статье анализируется пессимистическая позиция в отношении науки, которая заключается в том, что сегодняшняя наука регрессирует, будучи вовлеченной в прикладные исследования. Показывается, что пессимизм в отношении сегодняшней науки питается формально-логическим позитивистским образом науки, который не соответствует реальной научной практике. Показывается, что постпозитивистские социально-исторические исследования науки свидетельствуют в пользу того, что наука никогда не была ≪чистой≫. Эта точка зрения позволяет реабилитировать технику и связанную с ней науку и пересмотреть пессимистические прогнозы.
|
|
|
7.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Liana A. Tukhvatulina
Лиана Анваровна Тухватулина
О мнимом противоречии в научной рациональности
abstract |
view |
rights & permissions
| cited by
The paper discusses value dimension of scientific research. The author claims that the most promising way here is to analyze scientific rationality as a set of interrelated attitudes within the institutional framework of the big science. She shows that there is no contradiction between the search for truth and the technological enhancement in science.
В статье рассматривается проблема ценностных установок в научном поиске. Автор утверждает, что выявить один доминирующий мотив деятельности ученых в современной сложноорганизованной науки не представляется возможным. Автор приводит ряд аргументов в поддержку тезиса о том, что социальные ориентиры современных научных исследований соотносятся с поиском истины.
|
|
|
8.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Alexander L. Nikiforov
Александр Леонидович Никифоров
Будем думать вместе!
abstract |
view |
rights & permissions
| cited by
The article provides answers to the critical remarks of my colleagues expressed about the ideas I presented in the first article. In general, it seems to me, we all agree that the image of science, created in the philosophy of science of the twentieth century, needs substantial change due to the rapid convergence of science and technology during the twentieth century.
В статье даны ответы на критические замечания моих коллег, высказанные по поводу идей, представленных мной в первой статье. В целом, как мне кажется, все мы согласны с тем, что образ науки, созданный в философии науки ХХ в., нуждается в существенном изменении вследствие стремительного сближения науки и технологии на протяжении ХХ в.
|
|
|
|
9.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Timofey S. Demin
Тимофей Сергеевич Демин
Проблема Геттиера
abstract |
view |
rights & permissions
| cited by
Theories, that answering the question “What is knowledge?” in analytic epistemology appears under the influence of Gettier cases – a way of refutation such theories of knowledge, that have truth and belief as constituent elements. In the paper were analyzed basic strategies of solving the Gettier problem. One way is to save the analysis of knowledge by changing the elements in order to avoid the Gettier problem. There are three possible ways of doing so: adding new elements to the justification, changing the justification on the other criteria or strengthen the justification in such a way, that it would resolve any possible Gettier cases. For each strategy analysis of the theories of knowledge is given. In the paper idea of the inescapability of Gettier cases for analysis of knowledge was supported by the argumentation of Linda Zagzebski. In that ground, the analysis of knowledge was refuted. From that perspective, two of the most influenced ways of answering the question “what is knowledge” was proposed. First, the irreducible theory of knowledge, where knowledge is a mere state of the mind. Second, rejection existence of the universal invariant of the knowledge in every case. There are multiple senses of what the knowledge is and none of them is prior to other. The author lives as the open question the right way to think about the knowledge. In the closing part of the paper, the author presents a perspective critique of the knowledge problem as the project of overrated significance, and argues for a need to create new arguments that supporting that problem.
Теории, отвечающие на вопрос ≪Что такое знание?≫, возникли в аналитической эпистемологии под влиянием проблемы Геттиера – способа опровержения таких теорий знания, составными элементами которых являются истина и убеждение. В работе рассмотрены основные стратегии решения проблемы Геттиера: введение дополнительных элементов к обоснованию, усиление самого обоснования, замена обоснования другим критерием, отказ от выведения теории знания через необходимые и достаточные условия, отказ от признания существования единого понятия знания. В рамках каждой стратегии дается анализ избранных теорий знания. В заключение приведена критика проблемы знания как проекта с переоцененной значимостью, которая демонстрирует необходимость создания новых аргументов для постановки вопроса ≪Что такое знание?≫.
|
|
|
|
10.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Roman A. Yuriev
Роман Александрович Юрьев
А. Айер и Дж. Остин: от «этических суждений» к «перформативу»
abstract |
view |
rights & permissions
| cited by
The article considers the thesis about A. Ayer’s radical empiricism as one of the possible conceptual sources for the development of the theory of J. Austin’s speech acts. In contemporary research literature more attention is devoted to the inquiry of the discussion between A. Ayer and J. Austin on the matter of “sense-data”. At the same time it can be stated that few attention is devoted to the historical and philosophical reconstruction of their mutual influence. The importance of this kind of reconstruction is caused by the fact that contention between A. Ayer and J. Austin in Oxford during 1930s and 1940s can be viewed as preliminary work of reception of the idea of L. Wittgenstein’s “language-games”. By comparing A. Ayer’s “empirical / ethical” and J. Austin’s “conservative / performative” oppositions one could show that A. Ayer’s earlier views on ethics expressed in his work “Language, Truth and Logic “cannot be unconditionally attributed to the logical positivism. Ayer’s following statements were considered: 1) ethical judgements state as judgments of arousal of feelings and stimulation to action; 2) ethical judgements state as expression of ethical feelings; 3) ethical judgements add nothing in terms of factual meaning; 4) feelings are not a necessary condition for their expression. In conclusion one can say that in a certain sense Ayer’s approach to the ethical judgment is open to understanding that the meaning of a word is its use in the language. The results of its ethical analysis can be viewed as an important impulse to the development of ordinary language philosophy. Therefore, it is possible to consider logical positivism as including the inevitable premises for creation the ordinary language philosophy.
В статье рассматривается тезис о радикальном эмпиризме А. Айера в качестве одного из возможных идейных источников для развития теории речевых актов Дж. Остина. Современная исследовательская литература больше внимания посвящает дискуссии А. Айера и Дж. Остина по вопросу ≪чувственных данных≫, но в то же время можно утверждать, что историко-философской реконструкции их взаимного влияния посвящено достаточно мало внимания. Важность такого рода реконструкции обусловлена тем, что соперничество А. Айера и Дж. Остина в Оксфорде в 30–40-е гг. ХХ в. можно рассматривать как подготовительную работу по рецепции идеи ≪языковых игр≫ Л. Витгенштейна. Сравнивая оппозиции ≪эмпирическое/этическое≫ у А. Айера и ≪констативное/перформативное≫ у Дж. Остина, утверждается, что даже ранние взгляды А. Айера на этику, высказанные им в работе ≪Язык, истина и логика≫, нельзя безоговорочно отнести к логическому позитивизму, поскольку следствия его этического анализа можно рассматривать как важный импульс развития философии обыденного языка.
|
|
|
11.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Andrei V. Nekhaev
Андрей Викторович Нехаев
Парадокс Ябло: лжет ли нам бесконечный лжец?
abstract |
view |
rights & permissions
| cited by
In 1993, the American logic S. Yablo was proposed an original infinitive formulation of the classical ≪Liar≫ paradox. It questioned the traditional notion of self-reference as the basic structure for semantic paradoxes. The article considers the arguments underlying two different approaches to analysis of proposals of the ≪Infinite Liar≫ and understanding of the genuine sources for semantic paradoxes. The first approach (V. Valpola, G.-H. von Wright, T. Bolander, etc.) imposes responsibility for the emergence of semantic paradoxes on the negation of the truth predicate. It deprives the ≪Infinite Liar≫ sentences of consistent truth values. The second approach is based on a modified version of anaphoric prosententialism (D. Grover, R. Brandom, etc.). The concepts of truth and falsehood are treated as special anaphoric operators. Logical constructs similar to the ≪Infinite Liar≫ do not attribute any definite truth values to sentences from which they are composed, but only state certain types of relations between the semantic content of such sentences.
В 1993 году американским логиком С. Ябло была предложена оригинальная инфинитная формулировка классического ≪Лжеца≫, которая поставила под сомнение традиционное представление о самореференции как базовой структуре любых семантических парадоксов. В статье рассматриваются аргументы, лежащие в основаниях двух разных подходов к анализу предложений ≪Бесконечного Лжеца≫ и пониманию подлинных источников семантических парадоксов. Первый подход (В. Вальпола, Г.-Х. фон Вригт, Т. Боландер и др.) возлагает ответственность за возникновение семантических парадоксов на отрицание предиката истинности. Это лишает предложения ≪Бесконечного Лжеца≫ консистентных истинностных значений. Второй подход основан на модифицированной версии анафорического просентенциализма (Д. Гровер, Р. Брэндом и др.). Понятия истина и ложь трактуются здесь как особые анафорические операторы. Подобные ≪Бесконечному Лжецу≫ логические конструкции не приписывают какие-либо конкретные истинностные значения предложениям, из которых они составлены, а лишь устанавливают определенные виды отношений между семантическим содержанием таких предложений.
|
|
|
12.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Vladimir I. Shalak
Владимир Иванович Шалак
О статье А.В. Нехаева «Парадокс Ябло: лжет ли нам бесконечный лжец?»
abstract |
view |
rights & permissions
| cited by
It is believed that the paradoxes emerge due to self-reference. The interest to the Yablo’s paradox is caused by the fact that it does not contain direct or indirect self-reference. The analysis of this paradox has the following disadvantages: 1) incorrect retelling of cited sources, including the Yablo’s paradox; 2) attribution to the cited authors of provisions that they did not approve; 3) carelessness in the use of logical symbolism; 4) confusion in terminology related to the concepts of Truth and False; 5) insufficiently substantiated conclusions.
Принято считать, что причиной парадоксов является самореференция. Интерес к парадоксу Ябло вызван тем, что он не содержит прямой или косвенной самореференции. Проведенный анализ данного парадокса имеет следующие недостатки: 1) некорректный пересказ цитируемых источников, в том числе и самого парадокса Ябло; 2) приписывание цитируемым авторам того, что они не утверждали; 3) небрежность в использовании логической символики; 4) путаница в терминологии, связанной с понятиями Истины и Лжи; 5) недостаточно аргументированные выводы.
|
|
|
|
13.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Vitaly V. Ogleznev
Виталий Васильевич Оглезнев
«Открытая текстура» эмпирических понятий и лингвистический антиредукционизм Фридриха Вайсмана
abstract |
view |
rights & permissions
| cited by
The article presents a careful analysis of the idea of the “open texture” of empirical concepts and the problems of verification in the way that they were formulated by Friedrich Waismann. The idea of the “open texture” means for Waismann a certain type of a linguistic indeterminacy or a sort of lack of definition, which must be distinguished from, and linked to, another types like vagueness or ambiguity. It is shown that empirical statements are not conclusively verifiable for two different reasons: the incompleteness of description of the material object and the open texture of the terms involved. We cannot conclusively verify statements in which the empirical concepts are used, because we cannot define these concepts in an exhaustive way because of their open texture. Thus, the definition of the concept will be incomplete. Waismann’s approach to definition plays here a key role, and it is directly related to the open texture of concepts. The author proposes interpreting the open texture as an immanent property of the concept, as something that is embedded in it a priori, and which can cause a vagueness. Nevertheless, an open texture must be distinguished form a vagueness. This leads to the conclusion that an open texture is a possibility of vagueness; vagueness can be remedied by giving more accurate rules, open texture cannot. In this sense, the “open texture” of a language allows for a more precise definition of concepts (by adjusting the definition) if appropriate circumstances arise. This justifies the thesis that the argument of the open texture is the ontological basis of the linguistic anti-reductionism of Friedrich Waismann.
В статье подробно рассматриваются идея ≪открытой текстуры≫ эмпирических понятий и проблемы верификационизма в том виде, в котором они были сформулированы в работах Фридриха Вайсмана. Показано, что эмпирические высказывания невозможно окончательно верифицировать по двум причинам: из-за неполноты описания материального объекта и из-за открытой текстуры используемых в них понятий. Мы не можем окончательно верифицировать высказывания, в которых содержатся эмпирические понятия, потому что не можем определить эти понятия исчерпывающим образом из-за их открытой текстуры. В этом смысле определение понятия будет неполным и незавершенным. Предложена интерпретация открытой текстуры как имманентного свойства понятия, как нечто такого, что в нем заложено a priori, и которое может порождать смутность. Это позволяет сделать вывод, что открытая текстура является возможностью смутности, поэтому смутность в отличие от открытой текстуры устранить можно. Проведенный анализ позволяет обосновывать тезис, что аргумент об ≪открытой текстуре≫ является онтологическим основанием лингвистического антиредукционизма Вайсмана.
|
|
|
14.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Trevor Pinch
Тревор Пинч
От исследования технологий к звуковым исследованиям
abstract |
view |
rights & permissions
| cited by
In this paper I put in dialogue two areas of scholarship: Technology Studies and Sound Studies. Within Technology Studies I discuss the influential social construction of technology approach and illustrate it with the history of the moog electronic music synthesizer, the first commercial music synthesizer. I stress the role of standardization of keyboards and the key role played by users in the development of this technology. I examine certain iconic sounds that the moog synthesizer produces and discuss the stabilization of sound. It is argued that just as technologies can be traced as stabilizing over time, sounds also can be traced with certain sounds stabilizing and being taken up by users whilst other sounds fail to stabilize. The technology required to produce a sound, performance practice, and wider cultural concerns such as the naming of sounds are crucial ingredients in the stabilization of sound.
В статье устанавливается взаимосвязь между двумя предметными областями: исследованием технологий и звуковыми исследованиями. В контексте исследования технологий автор анализирует влиятельный подход к социальному конструированию технологий и иллюстрирует его примерами из истории создания первого коммерческого электронного музыкального синтезатора. Автор уделяет особое внимание значению стандартизации клавиатуры, а также роли пользователей в развитии данной технологии. Автор полагает, что звук, равно как и технологии, утверждаются во времени. Технологии создания звука, практики исполнения и более широкие культурные аспекты (такие как присвоение названий звукам) являются важнейшими составляющими стандартизации звучания.
|
|
|
|
15.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Igor F. Mikhailov
Игорь Феликсович Михайлов
Вычислительная репрезентация знаний в когнитивной науке
abstract |
view |
rights & permissions
| cited by
Cognitive research can contribute to the formal epistemological study of knowledge representation inasmuch as, firstly, it may be regarded as a descriptive science of the very same subject as that, of which formal epistemology is a normative one. And, secondly, the notion of representation plays a constitutive role in both disciplines, though differing therein in shades of its meaning. Representation, in my view, makes sense only being paired with computation. A process may be viewed as computational if it adheres to some algorithm and is substrate-independent. Traditionally, psychology is not directly determined by neuroscience, sticking to functional or dynamical analyses in the what-level and skipping mechanistic explanations in the how-level. Therefore, any version of computational approach in psychology is a very promising move in connecting the two scientific realms. On the other hand, the digital and linear computational approach of the classical cognitive science is of little help in this way, as it is not biologically realistic. Thus, what is needed there on the methodological level, is a shift from classical Turing-style computationalism to a generic computational theory that would comprehend the complicated architecture of neuronal computations. To this end, the cutting-edge cognitive neuroscience is in need of а satisfactory mathematical theory applicable to natural, particularly neuronal, computations. Computational systems may be construed as natural or artificial devices that use some physical processes on their lower levels as atomic operations for algorithmic processes on their higher levels. A cognitive system is a multi-level mechanism, in which linguistic, visual and other processors are built on numerous levels of more elementary operations, which ultimately boil down to atomic neural spikes. The hypothesis defended in this paper is that knowledge derives not only from an individual computational device, such as a brain, but also from the social communication system that, in its turn, may be presented as a kind of supercomputer of the parallel network architecture. Therefore, a plausible account of knowledge production and exchange must base on some mathematical theory of social computations, along with that of natural, particularly neuronal, ones.
Когнитивные исследования могут внести вклад в формальноэпистемологическое исследование репрезентации знаний, поскольку, во-первых, они могут рассматриваться как описательная наука, имеющая тот же предмет, для которого формальная эпистемология является наукой нормативной. И, во-вторых, понятие репрезентации играет определяющую роль в обеих дисциплинах, хотя и различается в оттенках своего значения. Репрезентация, на мой взгляд, имеет смысл только в сочетании с вычислениями. Процесс может рассматриваться как вычислительный, если он придерживается некоторого алгоритма и не зависит от материального субстрата. Традиционно психология не определяется непосредственно нейробиологией, оставаясь на уровне функционального или динамического анализа на уровне ≪что≫ и пропуская механистические объяснения на уровне ≪как≫. Поэтому любая версия вычислительного подхода в психологии является весьма перспективным шагом в интеграции двух научных сфер. С другой стороны, цифровой и линейный вычислительный подход классической когнитивной науки мало чем может помочь в этом, поскольку ему не достает биологической реалистичности. Таким образом, на методологическом уровне необходим переход от классического вычислительного подхода в стиле Тьюринга к общей вычислительной теории, которая смогла бы охватить сложную архитектуру нейронных вычислений. Для достижения этой цели передовая когнитивная нейробиология нуждается в удовлетворительной математической теории, применимой к естественным, особенно нейронным, вычислениям. Вычислительные системы могут быть истолкованы как естественные или искусственные устройства, которые используют некоторые физические процессы на своих более низких уровнях в качестве атомарных операций для алгоритмических процессов на своих более высоких уровнях. Когнитивная система – это многоуровневый механизм, в котором лингвистические, визуальные и другие процессоры надстраиваются над многочисленными уровнями более элементарных операций, которые в конечном итоге сводятся к элементарным нейронным спайкам. Гипотеза, отстаиваемая в этой статье, состоит в том, что знания порождаются не только отдельным вычислительным устройством, например мозгом, но также и системой социальной коммуникации, которая, в свою очередь, может быть представлена в качестве своего рода суперкомпьютера, имеющего архитектуру параллельной сети. Следовательно, правдоподобное описание производства и обмена знаниями должно опираться на некоторую математическую теорию социальных вычислений, а также теорию естественных, особенно нейронных, вычислений.
|
|
|
16.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Olga V. Popova
Ольга Владимировна Попова
Человек и его смерть как проблема этики нейронаук
abstract |
view |
rights & permissions
| cited by
The article deals with the philosophical problem field of modern neuroethics. The general idea of the state of modern neuroethics is given and it is shown that research in this area encompasses both fundamental problems that classically belonged to the field of philosophy research (for example, such as the problem of psychophysical dualism, the physical bases of consciousness, freedom of will and its interrelation with brain activity) and problems with applied orientation, explicating the ethical-social and legal dimension of innovation development in the field of neuroscience and actualizing the analysis of their social risks. It is shown that the development of neuro-ethics in the modern world became possible thanks to a special way of functioning of modern science, which was called the technology of science and to the development of the phenomenon of technological development ethification, which in practical terms was expressed in the study of the problem of the correspondence of the results of innovative scientific and technical projects to the interests of various social groups, their expectations and values, and also helped to determine the status of new technologies in relation to social reality. The article gives an idea of the existing normative field necessary for the development of neuro-ethics. On the basis of using the resource of discourse analysis of R. Harre, who singled out personal grammar (P-grammar), organism grammar (O-grammars) and molecular grammar (M-grammar), a philosophical analysis of such a problem of modern neuroethics as brain death was carried out. Also was given a structural description of new biotechnogenic identities of human being. The conclusion is drawn that the concept of brain death is an example of the conventional nature of scientific truth, the formation of which is influenced by various socio-cultural and economic factors. In the context of the development of neuroscience and the emergence of new methods of brain regeneration, it can be rethought.
В статье исследуется проблемное поле современной этики нейронаук (нейроэтики) и представлен философский анализ ряда проблем этой междисциплинарной области знания, имеющих прикладной характер.Дано общее представление о состоянии этической проблематики современных нейронаук и показано, что исследования в данной области охватывают как фундаментальные проблемы, которые классически относились к области исследования философии (например, такие как проблема психофизического дуализма, физических оснований сознания, свободы воли и ее взаимосвязи с деятельностью мозга), так и проблемы с прикладной направленностью, эксплицирующие этико-социальное и правовое измерение развития инноваций в области нейронаук и актуализирующие анализ их социальных рисков. В статье отмечается, что развитие нейроэтики в современном мире стало возможно благодаря особому способу функционирования современной науки, который получил название технонауки, и развитию феномена этизации технологического развития, который в практическом плане выразился в исследовании проблемы соответствия результатов инновационных научно-технических проектов интересам различных социальных групп, их ожиданиям и ценностям, а также способствовал определению статуса новых технологий в отношении социальной реальности. На основе использования ресурса дискурс-анализа Р. Харре, выделившего персональные грамматики (П–грамматики), организмические грамматики (О–грамматики) и молекулярные грамматики (М–грамматики), был представлен этико-философский анализ такой проблемы современного дискурса о нейронауках, как ≪смерть мозга≫, и дано структурное описание новых биотехногенных идентичностей человека. Сделан вывод о том, что концепция смерти мозга представляет пример конвенционального характера научной истины, на формирование которой оказывают влияние различные социокультурные и экономические факторы. В контексте развития нейронаук и появления новых методов регенерации мозга она может быть подвергнута переосмыслению.
|
|
|
17.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Vladislav A. Shaposhnikov
Владислав Алексеевич Шапошников
Преодолеть Куна: о некоторых предпосылках рассмотрения компьютерной революции как революции в математике
abstract |
view |
rights & permissions
| cited by
The paper deals with some conceptual trends in the philosophy of science of the 1980‒90s, which being evolved simultaneously with the computer revolution, make room for treating it as a revolution in mathematics. The immense and widespread popularity of Thomas Kuhn’s theory of scientific revolutions had made a demand for overcoming this theory, at least in some aspects, just inevitable. Two of such aspects are brought into focus in this paper. Firstly, it is the shift from theoretical to instrumental revolutions which are sometimes called “Galisonian revolutions” after Peter Galison. Secondly, it is the shift from local (“little”) to global (“big”) scientific revolutions now connected with the name of Ian Hacking; such global, transdisciplinary revolutions are at times called “Hacking-type revolutions”. The computer revolution provides a typical example of both global and instrumental revolutions. That change of accents in the post-Kuhnian perspective on scientific revolutions was closely correlated with the general tendency to treat science as far more pluralistic and transdisciplinary. That tendency is primarily associated with the so-called Stanford School; Peter Galison and Ian Hacking are often seen as its representatives. In particular, that new image of science gave no support to a clear-cut separation of mathematics from other sciences. Moreover, it has formed prerequisites for the recognition of material and technical revolutions in the history of mathematics. Especially, the computer revolution can be considered in the new framework as a revolution in mathematics par excellence.
Статья посвящена новой исследовательской оптике в философии науки, развитие которой в 1980‒90-е гг. позволяет посмотреть на параллельно происходившую компьютерную революцию как на революцию в математике. Огромная популярность концепции научных революций Т. Куна сделала неизбежной потребность в преодолении ее во многих отношениях. В статье выделено два таких направления: смещение внимания с теоретических на инструментальные и с локальных (≪малых≫) на глобальные (≪большие≫) революции. Компьютерная революция рассматривается как характерный пример глобальной инструментальной научной революции. Эти изменения ракурса в посткуновской трактовке научных революций коррелятивны общей тенденции, состоящей в переходе к более плюралистическому и трансдисциплинарному образу науки, в частности, не поощряющему отрыв математики от других наук. Этот новый образ создает подходящие условия для распознавания материально-технических революций в истории математики. В частности, компьютерная революция может быть увидена как революция в математике par excellence.
|
|
|
|
18.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Sergei Yu. Shevchenko
Сергей Юрьевич Шевченко
Иерархия оценок технонауки
abstract |
view |
rights & permissions
| cited by
Semantic framework of the discussion about the equivalence and interchangeability of the original drugs and generics is considered in the article. Generics are identical to the original drugs in terms of chemical structure, nevertheless some patients and doctors consider that generics are less effective and have more severe side effects than original drugs. These discussions are considered as an example of a public deliberation concerning the achievements of technoscience. The conflicting parties determined the identity either from the chemical structure of the drug (according to D. Chalmers – secondary intensional) or from the phenomenal characteristics of the situation of its application (primary intensional). In this regard, the method of resolving the conflict is the alignment of the hierarchy of methods for determining equivalence in biomedicine. The methodology of evidence-based medicine already has such a hierarchy, which makes it possible to determine the validity of outcomes of clinical trial. According to this hierarchy, the phenomenal characteristics of the outcome of treatment (quality and life expectancy of patients) are more important than instrumentally established indicators. Thus, new clinical data on the efficacy and safety of a generic should give the opportunity to cancel the recognition of drug equivalence. More generally, this means that technoscience achievement which directly affects a person can only be assessed by him/her. The recognition of such priority is the basis of the ‘division of linguistic labor’ during public deliberation concerning the achievements of technoscience.
Статья посвящена рассмотрению семантического измерения дискуссий об эквивалентности и взаимозаменяемости оригинальных лекарственных препаратов и их более дешевых ≪копий≫ (дженериков). Регистрация препарата в качестве дженерика обычно требует подтверждения его идентичности оригинальному препарату в плане химической структуры действующего вещества. Однако, по мнению многих врачей и пациентов, первые значительно уступают вторым в плане эффективности и безопасности. Эти дискуссии рассматриваются как пример публичного обсуждения достижений технонауки. Стороны конфликта определяли тождество, исходя либо из химической структуры препарата (вторичный интенсионал, по Д. Чалмерсу), либо из феноменальных характеристик ситуации его применения (первичный интенсионал, по Чалмерсу). В этой связи способом разрешения конфликта выглядит выстраивание иерархии способов определения эквивалентности в биомедицине. Методология доказательной медицины уже располагает такой иерархией, позволяющей определить валидность результатов исследования для клинической практики. Согласно этой иерархии ≪феноменальные≫ характеристики итогов лечения (качество и продолжительность жизни пациентов) важнее инструментально установленных показателей. Соответственно должна существовать возможность аннулировать признание эквивалентности препаратов на основании новых клинических данных об эффективности и безопасности дженерика. В более общем плане это означает, что воздействующие непосредственно на человека достижения технонауки могут быть оценены только им самим. Признание приоритета такой оценки является основанием ≪разделения лингвистического труда≫ при обсуждении технонаучного развития.
|
|
|
|
19.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Alexander A. Pechenkin
Александр Александрович Печенкин
Понятие вероятности в математике и физике (дискуссии 20–30-х гг. в СССР)
abstract |
view |
rights & permissions
| cited by
In the Soviet scientific literature of 1920‒30 the concept of probability was holly debated. The frequency concept which was proposed by R. von Mises became popular among Soviet physicists belonging to the L.I. Mandelstam community. Landau and Lifshitz were also close to this concept in their famous course of theoretical physics. A.Khinchin, a mathematician who cooperated with Kolmogorov, opposed to the frequency conception. In this paper we try to demonstrate that the frequency position was connected with the anthropomorphous approach to physics, whereas Khinchin’s positions implied the criticism of anthropomorphism and put forward the ideal of objective knowledge.
В статье рассматриваются дискуссии о понятии вероятности, которые развернулись в отечественной науке в конце 1920-х гг. и в 1930-е гг.: аксиоматическому понятию вероятности, сформулированному А.Н. Колмогоровым (1929‒1934 гг.), противостояло эмпирическое (частотное) понятие вероятности, выдвинутое австрийским математиком и философом Р. фон Мизесом (1919 г.). При этом физики-теоретики поддерживали (с рядом оговорок) точку зрения фон Мизеса, а математики и специалисты по математической физике аксиоматический подход Колмогорова. В статье отмечено, что эмпирический (частотный) подход поддерживался операционалистской позицией, популярной среди физиков конца 1920-х – 1930-х гг., а аксиоматический подход ‒ идеологией объективизма, свойственной математической физике.
|
|
|
|
20.
|
Epistemology & Philosophy of Science:
Volume >
56 >
Issue: 3
Evgeny N. Ivakhnenko
Евгений Николаевич Ивахненко
Аннмари Мол на пути к множественным онтологиям
abstract |
view |
rights & permissions
| cited by
The article critically examines the ideas of the Dutch philosopher and ethnologist Annemarie Mol. Her main work, “The Body Multiple: Ontology in Medical Practice”, is mainly subjected to analysis. According to the author of the article, A. Mol managed to offer his own version of the “ontological turn” and, perhaps, change the accents in the entire theoretical repertoire of actor-network theory (ANT). She, carrying out a “police investigation” in hospital Z, was able to show the multiplicity of ontologies of the body and its disease / illness. What is called the illness is represented by a large number of actors – people, their relationships, tools, diagnostic methods, etc. – which together can be represented as an assembly or assemblage. The “choreography of the ontology” of such an assembly is contingent, since it may be different.
В статье критически рассматриваются идеи нидерландского философа и антрополога Аннмари Мол. Анализу подвергается, главным образом, ее основной труд ≪Множественное тело: Онтология в медицинской практике≫. По мнению автора статьи, А. Мол удалось предложить свой вариант ≪онтологического поворота≫ и, возможно, поменять акценты во всем теоретическом репертуаре акторно-сетевой теории (ANT). Она, осуществляя ≪полицейское расследование≫ в больнице Z, сумела показать множественность онтологий тела и его заболевания / недуга. То, что называют недугом, представляется большим числом акторов – людей, их отношений, инструментов, методик диагностики и т. д., – которые в совокупности могут быть представлены как сборка, ассамбляж (assemblage). ≪Хореография онтологии≫ такой сборки имеет контингентный характер, так как может быть иной.
|
|
|