Specyfiką wiedzy naukowej jest weryfikacja i fałszowanie. Raport z filozofii nauki i techniki na temat: „Zasada weryfikacji i falsyfikacji Karla Poppera”

Efektem jest fenomen wiedzy naukowej różnego rodzaju procedury uzasadniające. Uzasadnianie idei oznacza pod wieloma względami przeniesienie ich do kategorii wiedzy, nadanie im statusu naukowego, wyniesienie ich ponad arbitralność opinii i podmiotowość. Nauka posługuje się różnorodnymi procedurami uzasadniania – indukcja i dedukcja, definicja, interpretacja, wyjaśnienie, uzasadnienie genetyczne i systemowe, sprawdzanie spójności i kompletności teorii, tłumaczenie języka jednej teorii na język innej, już potwierdzonej teorii, redukcjonistyczna (redukcja do elementów) i holistyczne (redukcja do pozycji w całości) uzasadnienia itp.

W rozwoju zachodniej myśli racjonalnej minął etap tak zwanego „fundamentalizmu”, kiedy strukturę procedur uzasadniających pomyślano jako podporządkowanie idei pewnym niewzruszonym, raz na zawsze pewnym „początkom” wiedzy, które pełnią rolę podstawy wiedzy naukowej. Po ujawnieniu prawdziwych zasad poznania trzeba pokazać, jak z nich wywodzi się cały majestatyczny gmach nauki. Jego zabudowę pomyślano jako nadbudowę coraz to nowych podłóg, a tego, co powstało wcześniej, nie należy zmieniać.

Od połowy XX wieku fundamentalizm został zastąpiony krytycznym podejściem do wszelkich procedur usprawiedliwiania we współczesnej zachodniej filozofii nauki – „antyfundamentalizmem”. Pierwszym ciosem dla fundamentalizmu była rewolucja w fizyce przełomu XIX i XX wieku, ale dopiero kryzys pozytywizmu logicznego doprowadził do tego, że fundamenty fundamentalizmu naprawdę się zachwiały.

Fundamentalizm istniejący od dawna w problemie uzasadniania wiedzy naukowej zostaje w drugiej połowie XX wieku zastąpiony instalacją antyfundamentalizmu. Ten ostatni odkrywa, że ​​wszelkie podstawy mogą być krytykowane, tj. mogą z kolei podlegać procedurom uzasadniającym. Ale stąd antyfundamentalizm wnioskuje, że procedury usprawiedliwiania są generalnie porzucane, tym samym implicite utożsamiając się z fundamentalizmem, przyjmując fundamentalistyczny obraz hierarchicznej racjonalności jako ideału usprawiedliwienia. Zarówno fundamentalizm, jak i antyfundamentalizm są oddani temu samemu ideałowi uzasadniania wiedzy naukowej, ale ten ostatni ujawnia jedynie niemożność zrealizowania tego ideału w rzeczywistości wiedzy naukowej. Bardziej radykalne – a więc nie tak antypatyczne – jest podejście Laudana, który zmienia sam ideał racjonalności naukowej, proponując rozważenie „sieciowego” modelu racjonalności zamiast hierarchicznego. W modelu „sieciowym” wszystkie przesłanki tracą bezwarunkowy status podstaw jedynych, wszystkie początki działają zarówno jako uzasadnienie, jak i uzasadnienie, powstaje zjawisko „wzajemnego uzasadnienia”. Zamiast obrazu antyfundamentalizmu, tak żywo i beznadziejnie przedstawionego przez K. Poppera w postaci budynku na palach wbitych w bagno, jest raczej obraz gromady żywej masy, która podtrzymuje się w nieważkości i jest zdolna rozwoju w dowolnym kierunku.

C. Pierce'owi zarzucono mieszanie logicznych i psychologicznych aspektów pozytywizmu jako metodologii myślenie naukowe. Według Peirce'a wiedza pozwala przezwyciężyć „niespokojny i nieprzyjemny stan zwątpienia”, skutkujący osiągnięciem wiary, na podstawie której człowiek może działać bez zwątpienia i wahania. Wprowadza również pojęcie, że wiedza naukowa można zacząć od dowolnych hipotez, także błędnych. Podkreślenie hipotetycznego charakteru wiedzy naukowej skłoniło C. Pierce do uzasadnienia fallibilizm.

Fallibilizm jest stanowiskiem metodologicznym, zgodnie z którym wszelka wiedza jest jedynie przybliżona i probabilistyczna. Badania naukowe to „proces życiowy”, który odbywa się w krytycznej debacie i testowaniu założeń jako hipotez naukowych. Pozytywnym skutkiem takiego procesu jest korekta wiedzy hipotetycznej i zwiększenie jej prawdopodobieństwa jako wiedzy prawdziwej. W realizmie krytycznym K. Poppera idea fallibilizmu ukształtowała się z uwzględnieniem orientacji na rolę refleksji krytycznej w konstruowaniu wiedzy obiektywnej oraz możliwości oceny prawdopodobieństwa hipotez naukowych.

Najgłębiej i najdokładniej problem uzasadniania wiedzy zaczął się rozwijać wraz z pojawieniem się nauk przyrodniczych, gdyż deklarowanym celem działań naukowców było początkowo poszukiwanie obiektywnej prawdy o otaczającym ich świecie. Problem wiedzy naukowej obejmuje dwa aspekty: ustalenie źródła wiedzy oraz ustalenie prawdy wiedzy.

Wszelkie próby ustalenia źródeł ludzkiej wiedzy można podzielić na dwa kierunki. Pierwsze można określić jako podejście „od wewnątrz”, gdyż zakłada się, że wszystkie początkowe przesłanki prawdziwej wiedzy znajdują się wewnątrz osoby. Jednocześnie nie ma znaczenia, czy manifestują się one w postaci boskiego wglądu, komunikacji ze „światem idei”, czy są wrodzone, najważniejsze jest to, że do ich otrzymania nie potrzeba zewnętrznej aktywności, jedynie wewnętrzna praca duchowa (racjonalna refleksja, introspekcja, medytacja lub modlitwa). W ramach tej koncepcji istnieje wiele wariantów systemów filozoficznych. Dla problemu poznania naukowego ważne jest stanowisko racjonalizmu sformułowane przez Kartezjusza i nazwane kartezjanizmem. Kartezjusz stara się zbudować całościowy obraz wszechświata, w którym wszechświat jawi się jako oddzielne ciała materialne, oddzielone pustką i oddziałujące na siebie za pomocą pchnięcia, jak części raz nawiniętego mechanizmu zegarowego. W odniesieniu do wiedzy Kartezjusz uważa, że ​​poprzez krytyczną analizę treści własnych przekonań i posługując się intuicją intelektualną, jednostka może zbliżyć się do jakiegoś niezniszczalnego fundamentu wiedzy, wrodzonego pomysłu. Rodzi to jednak pytanie o źródło samych wrodzonych idei. Dla Kartezjusza tym źródłem jest Bóg. Aby taki system działał, wrodzone idee muszą być takie same dla wszystkich i takie, aby dokładnie odzwierciedlały świat zewnętrzny. To jest słaby punkt podejścia „od wewnątrz” jako całości – nierozwiązany problem wyboru między teoriami. Jeśli przeciwnicy nie dojdą do konsensusu za pomocą intelektualnej intuicji, wybór stanowiska okaże się wyłącznie kwestią gustu.

Drugi kierunek poszukiwań źródła wiedzy to „zewnętrzny”. Ludzkie poznanie rzeczywistości odbywa się wyłącznie poprzez uczucia, doświadczenia. Wraz z pojawieniem się nauk przyrodniczych podejście to nabiera nowego znaczenia. W rozwoju tych poglądów w Anglii kształtuje się pojęcie empiryzmu, którego znaczenie dla rozwoju wiedzy naukowej jest nie do przecenienia. W rzeczywistości podejście empiryczne leży u podstaw wszelkiej praktyki naukowej. Jego podstawę dobrze sformułował Francis Bacon: wiedzę zdobywa się poprzez stopniowe wchodzenie od faktów do prawa, poprzez indukcję. Klasyczny empiryzm charakteryzuje się traktowaniem umysłu naukowca jako tabula rasa, pustej tablicy wolnej od uprzedzeń i oczekiwań.

Weryfikacja(z łac. verus – true i facere – to do) jest procedurą ustalania prawdziwości niektórych sądów, potwierdzającą wiedzę teoretyczną poprzez wyliczanie całej klasy empirycznych referentów lub obiektów, które obejmuje to pojęcie lub ta hipoteza. Aby ustalić prawdziwość jakiegokolwiek stwierdzenia - na przykład, że wszystkie kruki są czarne - trzeba przeprowadzić obserwację, badanie, eksperyment. W naszym przypadku będziemy musieli podróżować po całej Afryce, Azji, Europie i Australii. Wyjątkiem będą Arktyka i Antarktyda, gdzie nie występują wrony. Jeśli po zbadaniu wszystkich wron okażą się czarne i nie ma ani jednej białej, to twoje oświadczenie zostanie zweryfikowane, tj. jego prawdziwość zostanie potwierdzona metodami naukowymi.

Możesz iść na łatwiznę - obejdź dostępne dla ciebie miejsca i upewnij się, że w pobliżu są tylko czarne wrony. W tym przypadku nie można twierdzić, że wszystkie kruki są czarne. Będziemy musieli zadowolić się skromniejszym osądem – na przykład „niektóre wrony są czarne”. Wartość takiego osądu jest prawie zerowa, bo nawet bez żadnego badania jest jasne, że niektóre wrony są czarne. Tylko sądy ze słowem (w logice nazywa się je kwantyfikatorami) „wszystkie” mają wartość naukową i poznawczą.

Tak i za Życie codzienne takie twierdzenia to prawdziwy skarb. Pomagają poruszać się po środowisku i zabierają właściwe decyzje. Ludzie starają się je zdobyć za wszelką cenę, nawet zaniedbując metody naukowe. Zasada weryfikowalności sugeruje, że pojęcie lub zdanie ma znaczenie (znaczenie) tylko wtedy, gdy jest weryfikowalne empirycznie.

Weryfikacja jest bardzo uciążliwą, niewdzięczną i pracochłonną metodą: znacznie bardziej ekonomiczną metodą jest badanie reprezentacyjne, z którego korzystają głównie socjologowie: wystarczy przeprowadzić ankietę nie całą, a tylko część populacji, aby się dowiedzieć na kogo ludzie będą głosować w nadchodzących wyborach.

W metodologii taką skróconą wersją potwierdzania prawdy jest fałszerstwo. W zwykłym życiu jest to rozumiane jako wypaczenie prawdy. Podrabiany produkt oznacza słabą jakość. Towary podrabiane nazywane są również produktami podrobionymi, tj. niezgodne z zadeklarowanym faktem, wbrew temu, co jest powiedziane w tytule, w reklamie, na znaku, w jego nazwie. W polityce głosy wyborcze są fałszowane; fałszują je, dodają do listy osób nieistniejących, skreślają osoby, które głosowały na przedstawicieli wrogiej partii, fałszują karty do głosowania itp.

Jeśli weryfikacja jest potwierdzeniem prawdy, to fałszowanie jest jej zniekształceniem. Chociaż procedury weryfikacji i falsyfikacji wyrosły w ramach nauk przyrodniczych, powstały z myślą o rozwiązywaniu problemów przyrodniczych i przeznaczone są dla aparatu matematycznego nauk przyrodniczych, są one z powodzeniem stosowane również w socjologii. Jesteśmy to winni socjologom amerykańskim - przedstawicielom metodologii ilościowej, szkoła naukowa który istniał w latach 20-30. XX wiek (P. Lazarsfeld, J. Landberg i inni).

Zasadyweryfikacjai fałszowanie

Jak oddzielić prawdziwą naukę od podróbek? W tym celu metodologowie nauki sformułowali kilka ważnych zasad. Pierwszym z nich jest zasada weryfikacji, twierdzenie, że jeśli pojęcie lub osąd można sprowadzić do bezpośredniego doświadczenia, to ma to sens. Jeśli to się nie powiedzie, stwierdzenie to uważane jest za tautologię lub bezsensowne. Ale ponieważ koncepcje rozwiniętej teorii naukowej z reguły trudno sprowadzić do danych eksperymentalnych, stosuje się dla nich weryfikację pośrednią. Twierdzi, że jeśli nie da się eksperymentalnie potwierdzić jakiejś koncepcji lub propozycji teorii, można ograniczyć się do eksperymentalnego potwierdzenia zawartych w nich wniosków. Tak więc, chociaż pojęcie „kwarka” zostało wprowadzone do fizyki już w latach 30. XX wieku, eksperymentalne wykrycie takiej cząstki nie było możliwe. Ale teoria kwarków przewidziała szereg zjawisk, które umożliwiły przeprowadzenie eksperymentalnej weryfikacji. W jej trakcie uzyskano oczekiwane rezultaty. To pośrednio potwierdziło istnienie kwarków.

Ale zasada weryfikacji tylko w pierwszym przybliżeniu oddziela wiedzę naukową od nienaukowej. Działa dokładniej zasada fałszowania, sformułowany przez największego filozofa i metodologa nauki XX wieku. K. Poppera. Zgodnie z tą zasadą tylko fundamentalnie obalona (falsyfikowalna) wiedza może domagać się statusu wiedzy naukowej. Od dawna wiadomo, że żadna ilość dowodów eksperymentalnych nie wystarczy do udowodnienia teorii. Możemy więc obserwować tyle przykładów, ile nam się podoba, co minutę potwierdzających prawo powszechnego ciążenia. Ale tylko jeden przykład (na przykład kamień, który nie spadł na ziemię, ale odleciał od ziemi) wystarczy, aby uznać to prawo za fałszywe. Dlatego też naukowiec powinien wszystkie swoje wysiłki skierować nie na poszukiwanie innego eksperymentalnego dowodu sformułowanej przez siebie hipotezy lub teorii, ale na próbę obalenia jego twierdzenia. To próby fałszowania, obalania teorii najskuteczniej potwierdzającej jej naukowy charakter i prawdziwość.

Tylko prawdziwa nauka nie boi się popełniać błędów, nie waha się uznać jej wcześniejszych wniosków za fałszywe. Na tym polega siła nauki, jej odmienność od pseudonauki pozbawionej tej najważniejszej właściwości. Jeśli więc jakaś koncepcja, mimo całego swojego scjentyzmu, twierdzi, że nie można jej obalić, i zaprzecza samej możliwości innej interpretacji jakichkolwiek faktów, to oznacza to, że mamy do czynienia nie z nauką, ale z pseudonauką.

1.3. Struktura i funkcje nauki

nowoczesna nauka obejmuje ogromny obszar zróżnicowanej wiedzy, składający się z prawie 15 000 dyscyplin, które są w różnym stopniu od siebie odległe. W XX wieku. informacja naukowa podwaja się w ciągu 10-15 lat. Jeśli w 1900 było ich około 10 tys czasopisma naukowe, w chwili obecnej - kilkaset tysięcy. Ponad 90% wszystkich najważniejszych osiągnięć nauki i techniki przypada na wiek XX. Liczba naukowców na świecie pod koniec drugiego tysiąclecia sięgnęła 5 milionów ludzi (jedna na tysiąc osób żyjących na Ziemi). Dlatego dzisiejsza nauka ma bardzo złożona struktura i organizacji, które można rozpatrywać w kilku aspektach.

Nauki przyrodnicze i kultura humanitarna

Najważniejszym aspektem nauki jest znaczący. Na jej podstawie opisana jest struktura nauki z punktu widzenia jedności podmiotu. Podając definicję nauki podkreśliliśmy, że jest to zbiór obiektywnej wiedzy o bycie, który tradycyjnie rozumiany jest jako przyroda, społeczeństwo i człowiek. W związku z tym, zgodnie z tymi trzema elementami bytu obiektywnego, w nauce wyraźnie wyróżnia się trzy obszary wiedzy o nich: wiedza o przyrodzie – przyrodoznawstwo; wiedza o różnych typach i formach życia społecznego - nauki społeczne; wiedza o człowieku jako bycie myślącym io przejawach jego istoty jest wiedzą humanitarną. Oczywiście te trzy sfery nie są i nie powinny być traktowane jako trzy części jednej całości, które sąsiadują ze sobą tylko obok siebie. Granica między tymi sferami jest względna, ale łączą je bardzo złożone relacje. Przez długi czas istniała tradycja przeciwstawiania nauk przyrodniczych naukom społecznym i humanistycznym. Ta dychotomia stała się podstawą podziału nauk przyrodniczych i kultury humanitarnej.

Oczywiście taki podział jest bardzo arbitralny, gdyż struktura kultury jest znacznie bardziej skomplikowana niż podział na naukę i nienaukę, a sposobów poznania świata, rodzajów wiedzy o nim jest tyle, ile jest sfer kultura. Dlatego kiedy ludzie mówią o dwóch kulturach, mają na myśli, że obie kultury opierają się na wiedzy naukowej.

Niewątpliwie istnieją obiektywne podstawy takiego podziału. Wiążą się one z tymi metodami poznawania świata, którymi posługują się przyrodnicy i nauki humanistyczne.

Począwszy od New Age (czasu pojawienia się nauki klasycznej i… nowoczesne nauki przyrodnicze), najważniejszą właściwością nauki była obiektywność poznania naukowego w przeciwieństwie do podmiotowości nauk humanistycznych. Założono, że osobowość badacza nie powinna wpływać na wyniki badań, gdyż badając przyrodę, przyrodnik zajmował się wyłącznie zjawiskami materialnymi spowodowanymi przyczynami naturalnymi i obiektywnymi prawami. Wiedza humanitarna jest niemożliwa bez uwzględnienia subiektywnych motywów osób, których działania podlegają badaniu. Skoro cudze myśli i czyny nie są bezpośrednio dane badaczowi, musi on je zrekonstruować z tekstów, dzieł sztuki, życia codziennego itp. Taka wiedza o świecie jest zasadniczo niemożliwa bez uwzględnienia osobowości badacza, ponieważ różni ludzie mogą postrzegać te same przedmioty na różne sposoby. Dlatego przyrodoznawstwo polega na wyjaśnianiu i poszukiwaniu przyczyn wszelkich zdarzeń, a wiedza humanitarna na zrozumieniu i interpretacji znaczenia zjawisk i zdarzeń indywidualnego życia duchowego i działalności człowieka.

Jeśli stanu społeczeństwa i kultury, tradycyjnego przedmiotu wiedzy humanitarnej, nie można zrozumieć bez odwoływania się do historii tego stanu, to dla nauk przyrodniczych przez długi czas prehistoria badanych systemów materialnych wydawała się nie mieć naukowego znaczenia.

Przyrodnik, znając regularne, powtarzające się zjawiska przyrody, dąży do uzyskania czystej wiedzy o tych obiektach i procesach. Humanista, badając świat, nie może nie oceniać go zgodnie z pewną skalą wartości etycznych, estetycznych i innych. Same zjawiska natury nie są ani dobre, ani złe i nie mają wartości. Tak więc reakcja łańcuchowa rozszczepienia jąder atomowych jest naturalnym zjawiskiem, które leży poza oceną moralną. ALE bomba atomowa, dokonany na podstawie badania tego procesu, jest tworem ludzkich rąk i może być oceniany z różnych punktów widzenia, także w aspekcie etycznym.

Wymieniliśmy tylko niektóre z najbardziej oczywistych różnic między tymi dwiema kulturami. Ale teraz, na początku nowego stulecia i nowego tysiąclecia, stało się oczywiste, że różnice te zaczynają się wygładzać, trwają procesy humanizacji nauk przyrodniczych i nauki sfery humanitarnej i artystycznej. Oczywiście możemy mówić o początku integracji nauk przyrodniczych i kultur humanitarnych. Opiera się na tych ogólnych zasadach metodologicznych, które są nieodłączne zarówno w naukach przyrodniczych, jak i wiedzy humanitarnej, pozwalają mówić o jednej nauce związanej z twórczymi możliwościami człowieka. Zarówno ta, jak i inna wiedza powinna być logicznie uzasadniona, spójna, mieć możliwość weryfikacji eksperymentalnej (empirycznej). Wiele faktów mówi o zbieżności tych dwóch rodzajów wiedzy. Tak więc w ostatnim czasie najciekawsze i aktywnie badane obiekty i zjawiska w naukach przyrodniczych stały się unikalnymi obiektami i zjawiskami, które istnieją w pojedynczy obiekty (przykładem jest biosfera, którą bada wiele działów biologii, geologii, geografii itp.).

Wyjątkowość obiektu nieuchronnie wymaga historycznego, ewolucyjnego podejścia do jego badania: im bardziej złożony jest badany obiekt, tym ważniejsze jest poznanie historii jego powstawania i rozwoju. To nie przypadek, że synergetyka i termodynamika nierównowagi, nauki zajmujące się samorozwojem i samoorganizacją złożonych systemów, nabrały dziś takiego znaczenia, które wprowadziły do ​​współczesnej nauki zasada uniwersalnego ewolucjonizmu.

Coraz częściej sami naukowcy mówią, że odkrycie naukowe, sformułowanie rygorystycznej teorii naukowej jest niemożliwe bez zrozumienia opartego na figuratywnej, metaforycznej wizji sytuacji, a także bez intuicji, która jest wynikiem interakcji w ludzkiej świadomości i podświadomości abstrakcyjne koncepcje i zmysłowe obrazy.

Nieosiągalny okazał się także ideał klasycznej przyrodoznawstwa, który zmuszał do dążenia do pełnej obiektywności badań, ich niezależności od obserwatora. To nie przypadek, że współczesna nauka sformułowała tzw zasada antropiczna, według którego obecność człowieka nie tylko zmienia cały przebieg eksperymentu, ale samo istnienie naszego wszechświata zależy od człowieka(świat jest tym, czym jest, tylko dlatego, że jest w nim osoba). Dlatego coraz głośniejsze są głosy wołające o moralną odpowiedzialność naukowca wobec społeczeństwa.

Wraz z tym wiedza humanitarna w coraz większym stopniu wykorzystuje metody i wyniki nauk przyrodniczych (np. psychologia, antropologia są niemożliwe bez danych nauk biologicznych), coraz aktywniejsza staje się matematyzacja wiedzy humanitarnej (od dłuższego czasu matematyka kojarzyła się tylko z naukami przyrodniczymi).

Ponadto nauki przyrodnicze i wiedzę humanitarną łączy wspólność zasad metodologicznych. Zarówno te, jak i inne nauki w równym stopniu podlegają ogólnym kryteriom o charakterze naukowym - systemowym, racjonalnym, teoretycznym, obecności sprawdzonej metodologii poznania nowego. I oczywiście u podstaw wszystkich rodzajów wiedzy leży jedna zasada - kreatywność.

Struktura nauki

Rozważając kwestię struktury nauki, nie wystarczy wyróżnić tylko nauki przyrodnicze, społeczne i humanistyczne. Każda z nich jest złożonym zbiorem wielu niezależnych, oddziałujących ze sobą nauk.

Tak więc nauki przyrodnicze, których przedmiotem jest przyroda jako całość, obejmują fizykę, chemię, biologię, nauki o Ziemi, astronomię, kosmologię itp., nauki społeczne obejmują nauki ekonomiczne, prawo, socjologię, nauki polityczne itp. nauki społeczne to zjawiska i systemy społeczne, struktury, stany, procesy. Daje wiedzę na temat poszczególnych odmian oraz całokształtu więzi i relacji społecznych. Społeczeństwo jako całość jest badane przez socjologię; aktywność zawodowa ludzie, stosunki majątkowe, produkcja, wymiana i dystrybucja - nauki ekonomiczne; struktury i stosunki państwowo-prawne w systemach społecznych – nauki o państwie i nauki polityczne; człowieka, liczne przejawy jego istoty - humanistyki, dla której człowiek jest miarą wszechrzeczy (wśród nich wymienić należy psychologię, logikę, kulturoznawstwo, językoznawstwo, historię sztuki, pedagogikę itp.).

Szczególne miejsce w strukturze nauki zajmuje matematyka, która wbrew powszechnemu nieporozumieniu nie należy do nauk przyrodniczych. Jest to nauka interdyscyplinarna, z której korzystają zarówno nauki przyrodnicze, społeczne, jak i humanistyczne. Bardzo często matematykę nazywa się uniwersalnym językiem nauki, spoiwem, które spaja jej budowanie. Szczególne miejsce matematyki wyznacza przedmiot jej studiów. Jest to nauka o ilościowych relacjach rzeczywistości (wszystkie inne nauki mają za przedmiot jakąś jakościową stronę rzeczywistości), jest bardziej abstrakcyjna niż wszystkie inne nauki, nie dba o to, co liczyć - atomy, żywe komórki, ludzie itd. .

Wraz ze wskazanymi głównymi kierunkami naukowymi wiedzę nauki o sobie należy zaliczyć do odrębnej grupy wiedzy. Powstanie tej gałęzi wiedzy - nauki o nauce - sięga lat 20-tych XX wieku i oznacza, że ​​nauka w swoim rozwoju wzniosła się do poziomu zrozumienia swojej roli i znaczenia w życiu ludzi. Dziś nauka o nauce jest samodzielną, prężnie rozwijającą się dyscypliną naukową.

Nie da się wytyczyć wyraźnej granicy między naukami przyrodniczymi, społecznymi i humanistycznymi. Jest cała linia dyscypliny złożone, zajmujące pozycję pośrednią. Tak więc na styku nauk przyrodniczych i społecznych jest geografia ekonomiczna, na styku nauk przyrodniczych i technicznych - bionika. Ekologia społeczna powstała na przecięciu nauk przyrodniczych, społecznych i technicznych.

Zgodnie z orientacją na praktyczne zastosowanie wszystkie nauki można podzielić na podstawowe i stosowane.

Fundamentalny nauki ścisłe - fizyka, chemia, astronomia, kosmologia itp. - badaj obiektywne prawa otaczającego nas świata w imię czystego zainteresowania prawdą, bez praktycznego zastosowania zdobytej wiedzy.

Stosowany Nauki ścisłe zajmują się zastosowaniem wyników badań podstawowych do rozwiązywania problemów poznawczych i społeczno-praktycznych. Jednocześnie należy pamiętać, że chociaż wszystkie nauki techniczne są stosowane, to nie wszystkie nauki stosowane są techniczne. Dlatego wyróżnia się teoretyczne nauki stosowane (na przykład fizyka metali, fizyka półprzewodników, inżynieria genetyczna itp.) oraz praktyczne nauki stosowane (nauki o metalach, technologia półprzewodników itp.).

Tradycyjnie uważa się, że nauki stosowane koncentrują się na bezpośredniej poprawie życia ludzi, podczas gdy nauki podstawowe mają na celu zdobywanie nowej wiedzy o otaczającym ich świecie. Jednak w praktyce często trudno jest odróżnić badania stosowane od badań podstawowych. Dlatego we współczesnej nauce naukowej ustalono następujące kryterium rozdziału badań podstawowych i stosowanych. Nauki stosowane zajmują się rozwiązywaniem problemów, które stawiane są naukowcom z zewnątrz. Decyzja problemy wewnętrzne sama nauka zajmuje się naukami podstawowymi. Podział ten nie ma nic wspólnego z oceną ważności zadań do rozwiązania. Naukowcy bardzo często rozwiązują najważniejsze problemy aplikacyjne lub stawiają czoła nieistotnym, fundamentalnym pytaniom.

Kolejnym aspektem, w którym należy rozważyć strukturę nauki, jest: strukturalny. W nauce ten aspekt oznacza podział wiedzy naukowej na grupy w zależności od ich przedmiotu, charakteru, stopnia wyjaśnienia rzeczywistości i praktycznego znaczenia.

W tym przypadku wyróżniamy:

    faktyczna wiedza - zbiór usystematyzowanych faktów obiektywnej rzeczywistości;

    teoretyczny, lub podstawowa wiedza - teorie wyjaśniające procesy zachodzące w obiektywnej rzeczywistości;

    wiedza techniczna i stosowana, lub technologia - wiedza o praktycznym zastosowaniu wiedzy faktograficznej lub podstawowej, w wyniku której osiągany jest określony efekt techniczny;

    praktyczne-stosowane, lub wiedza prakseologiczna - informacje o efekcie ekonomicznym, jaki można uzyskać stosując powyższe rodzaje wiedzy.

Technologia i prakseologia znacznie się od siebie różnią. Nie wystarczy tworzyć nowe technologie, choć o bardzo wysokiej wydajności, wciąż muszą być poszukiwane przez społeczeństwo. W związku z tym co roku odnotowuje się tysiące wynalazków, ale jeszcze przed etapem ich rozwój przemysłowy tylko nieliczni sięgają. Społeczeństwo stymuluje rozwój nieefektywnych technologii i odrzuca nowe, bardziej produktywne, z różnych powodów. Wiadomo więc, że wiek XIX nazywany jest epoką „pary i żelaza”, co odzwierciedla dominację maszyn parowych we wszystkich gałęziach przemysłu. Ale wiadomo też, że sprawność silnika parowego jest bardzo niska, to znaczy rozwiązanie technologiczne nie jest zbyt udane. Jednak prakseologiczny efekt tego wynalazku był bardzo wysoki.

W aspekt logiczny wiedza naukowa jest czynnością umysłową, najwyższą formą wiedzy logicznej, wytworem ludzkiej kreatywności. Jej punktem wyjścia jest wiedza sensoryczna, która zaczyna się od wrażenia i percepcji, a kończy na reprezentacji. Następnym krokiem jest racjonalne poznanie, które rozwija się od pojęcia do sądu i wniosku. Dwa poziomy wiedzy odpowiadają poziomowi wiedzy empirycznej i teoretycznej.

I w końcu aspekt społeczny wiedza naukowa przedstawia to jako zjawisko społeczne, zbiorowy proces badawczy i zastosowanie wyników tych badań. W tym aspekcie interesujące są instytucje naukowe, kolektywy, instytucje edukacyjne, organizacje naukowców itp., bez których nie jest możliwa działalność naukowa. Współczesna nauka nie może więc obejść się bez instytutów badawczych i laboratoriów wyposażonych w niezbędny sprzęt oraz Praca naukowa potrzebuje stałego wsparcia informacyjnego, co wymaga rozbudowanej sieci bibliotek naukowych i sprawnie działającej działalności wydawniczej. Dla naukowców bardzo ważna jest osobista komunikacja między sobą, która odbywa się na konferencjach i sympozjach. różne poziomy. Szczególnym obszarem nauki jest kształcenie nowej kadry naukowej, która przewiduje rozbudowany system kształcenia uniwersyteckiego i podyplomowego (podyplomowego, doktoranckiego). Ta praca wymaga dużej liczby osób, które zajmą się finansowaniem. projekty naukowe, ich przygotowanie materiałowe i zaopatrzenie. Wszystko to razem czyni naukę bardzo złożoną instytucją społeczną.

Funkcje nauki

W ścisłym związku ze strukturą wiedzy naukowej są funkcje nauki:

    opisowy - ujawnianie istotnych właściwości i relacji rzeczywistości z całej różnorodności przedmiotów i zjawisk otaczającego świata. Tak zaczyna się formułowanie praw przyrody, co jest najważniejszym zadaniem nauki;

    systematyzowanie - przypisanie opisanych przez zajęcia i sekcje. Stanowi to jedno z kryteriów nauki - jej spójność;

    objaśniające - systematyczne przedstawienie istoty badanego obiektu, przyczyn jego powstania i rozwoju;

    przemysłowe i praktyczne - możliwość zastosowania zdobytej wiedzy w produkcji, do regulacji życia społecznego, w zarządzanie społeczne. Funkcja ta pojawiła się dopiero w czasach nowożytnych, kiedy nauka była ściśle związana z produkcją, a badania stosowane zaczęły zajmować coraz większe miejsce w nauce;

    proroczy– przewidywanie nowych odkryć w ramach istniejących teorii, a także rekomendacje na przyszłość. Funkcja ta opiera się na znajomości naturalnych wzorców, co pozwala czuć się pewnie w świecie, a także skupia uwagę na wciąż nieznanych fragmentach rzeczywistości, uzasadniając tym samym program dalszych badań;

    ideologiczny- wprowadzenie zdobytej wiedzy do istniejącego obrazu świata. Jest to najważniejsza funkcja nauki, która umożliwia kształtowanie naukowego obrazu świata - integralnego systemu wyobrażeń o właściwości ogólne i prawa, które istnieją w przyrodzie.

1.4. Przedmiot i struktura nauk przyrodniczych

Pojęcie „nauki przyrodnicze” pojawiło się w czasach nowożytnych w Zachodnia Europa i zaczął określać całość nauk przyrodniczych. Idea ta ma swoje korzenie w starożytnej Grecji, w czasach Arystotelesa, który jako pierwszy usystematyzował ówczesną wiedzę o przyrodzie w swojej „Fizyce”. Ale idee te były dość amorficzne i dlatego dzisiaj przyrodoznawstwo rozumiane jest jako tzw. przyrodoznawstwo ścisłe – wiedza odpowiadająca nie tylko czterem pierwszym, ale także ostatniemu, piątemu kryterium charakteru naukowego. Najważniejszą cechą nauk ścisłych jest metoda eksperymentalna, która umożliwia empiryczne testowanie hipotez i teorii oraz sformalizowanie zdobytej wiedzy we wzorach matematycznych.

Przedmiot nauk przyrodniczych

Istnieją dwa szeroko rozpowszechnione poglądy na temat nauk przyrodniczych. Pierwsza głosi, że nauki przyrodnicze to nauka o Naturze jako jednej jednostce. Drugi to całokształt nauk o przyrodzie, rozpatrywany jako całość. Na pierwszy rzut oka definicje te różnią się od siebie. Jedna mówi o jednej nauce o przyrodzie, druga – o całości poszczególnych nauk. Ale w rzeczywistości różnice nie są tak duże, ponieważ całość nauk o Naturze oznacza nie tylko sumę odrębnych nauk, ale jeden kompleks ściśle powiązanych i uzupełniających się nauk przyrodniczych.

Będąc samodzielną nauką, nauki przyrodnicze mają własny przedmiot badań, inny niż przedmiot specjalnych (prywatnych) nauk przyrodniczych. Specyfika nauk przyrodniczych polega na tym, że bada ona te same zjawiska przyrodnicze z pozycji kilku nauk jednocześnie, ujawniając najbardziej ogólne wzorce i trendy. Tylko w ten sposób można przedstawić Naturę jako integralny system, odsłonić fundamenty, na których zbudowana jest cała różnorodność obiektów i zjawisk otaczającego świata. Efektem takich badań jest sformułowanie podstawowych praw łączących mikro-, makro- i mega-światy, Ziemię i Kosmos, zjawiska fizyczne i chemiczne z życiem i umysłem we Wszechświecie.

Struktura nauk przyrodniczych

W szkole zwykle uczy się odrębnych nauk przyrodniczych: fizyki, chemii, biologii, geografii, astronomii. Jest to pierwszy krok w poznaniu Natury, bez którego nie można przejść do realizacji jej jako pojedynczej całości, do poszukiwania głębszych związków między zjawiskami fizycznymi, chemicznymi i biologicznymi. Taki jest cel naszego kursu. Z jej pomocą musimy głębiej i dokładniej poznać poszczególne zjawiska fizyczne, chemiczne i biologiczne, które zajmują ważne miejsce w przyrodniczo-naukowym obrazie świata; a także ujawnienie tych ukrytych powiązań, które tworzą organiczną jedność tych zjawisk, co jest niemożliwe w ramach specjalnych nauk przyrodniczych.

Jak już wspomniano, nauka strukturalnie jest złożonym, rozgałęzionym systemem wiedzy. W tej strukturze nauki przyrodnicze są nie mniej złożonym systemem, którego wszystkie części są ze sobą powiązane podporządkowanie hierarchiczne. Oznacza to, że system nauk przyrodniczych można przedstawić jako rodzaj drabiny, której każdy stopień stanowi podstawę dla następującej po nim nauki, która z kolei opiera się na danych poprzedniej nauki.

Podstawą, fundamentem wszystkich nauk przyrodniczych, jest niewątpliwie fizyka, których przedmiotem są ciała, ich ruchy, przemiany i formy manifestacji na różne poziomy. Dziś nie można zajmować się naukami przyrodniczymi bez znajomości fizyki. W fizyce wyróżniamy dużą liczbę podrozdziałów różniących się tematem i metodami badawczymi. Najważniejszym z nich jest Mechanika - doktryna równowagi i ruchu ciał (lub ich części) w przestrzeni i czasie. Ruch mechaniczny jest najprostszą i zarazem najczęstszą formą ruchu materii. Mechanika stała się historycznie pierwszą nauką fizyczną, przez długi czas była wzorem dla wszystkich nauk przyrodniczych. Gałęziami mechaniki są statyka, która bada warunki równowagi ciał; kinematyka, zajmująca się ruchem ciał z geometrycznego punktu widzenia; dynamika uwzględniająca ruch ciał pod działaniem przyłożonych sił. Mechanika obejmuje również hydrostatykę, pneumatykę i hydrodynamikę. Mechanika to fizyka makrokosmosu. W czasach współczesnych narodziła się fizyka mikrokosmosu. Opiera się na mechanice statystycznej lub teorii kinetyki molekularnej, która bada ruch cząsteczek cieczy i gazu. Później przyszła fizyka atomowa i fizyka cząstek elementarnych. Działy fizyki to termodynamika, która bada procesy cieplne; fizyka drgań (fal), ściśle związana z optyką, elektryką, akustyką. Fizyka nie ogranicza się do tych działów, stale pojawiają się w niej nowe dyscypliny fizyczne.

Następnym krokiem jest chemia, badanie pierwiastków chemicznych, ich właściwości, przemian i związków. Fakt, że opiera się na fizyce, można bardzo łatwo udowodnić. Aby to zrobić, wystarczy przypomnieć szkolne lekcje chemii, które mówiły o budowie pierwiastków chemicznych, ich powłokach elektronowych. To przykład wykorzystania wiedzy fizycznej w chemii. W chemii, nieorganicznej i Chemia organiczna, chemia materiałów i inne sekcje.

Z kolei chemia leży u podstaw biologia - nauka żywych, która bada komórkę i wszystko, co z niej pochodzi. Wiedza biologiczna opiera się na wiedzy o materii, pierwiastki chemiczne. Wśród nauk biologicznych należy wyróżnić botanikę (studiuje świat roślin), zoologię (temat to świat zwierząt). Anatomia, fizjologia i embriologia badają strukturę, funkcje i rozwój organizmu. Badania cytologiczne żywa komórka, histologia - właściwości tkanek. Paleontologia zajmuje się badaniem skamieniałych szczątków życia, genetyka - problemy dziedziczności i zmienności.

Nauka o zieminastępny element struktury nauk przyrodniczych. Ta grupa obejmuje geologię, geografię, ekologię itp. Wszystkie z nich uwzględniają strukturę i rozwój naszej planety, która jest złożoną kombinacją zjawisk i procesów fizycznych, chemicznych i biologicznych.

Uzupełnia tę wspaniałą piramidę wiedzy o naturze kosmologia, badanie wszechświata jako całości. Częścią tej wiedzy jest astronomia i kosmogonia, które badają budowę i pochodzenie planet, gwiazd, galaktyk itp. Na tym poziomie następuje nowy powrót do fizyki. Pozwala to mówić o cyklicznym, zamkniętym charakterze nauk przyrodniczych, co w oczywisty sposób odzwierciedla jedną z najważniejsze właściwości Sama natura.

Struktura nauk przyrodniczych nie ogranicza się do wyżej wymienionych nauk. Faktem jest, że w nauce zachodzą złożone procesy różnicowania i integracji wiedzy naukowej. Zróżnicowanie nauki polega na alokacji w ramach dowolnej nauki węższych, poszczególnych obszarów badawczych, przekształcając je w niezależne nauki. Tak więc w fizyce wyróżniały się fizyka ciała stałego i fizyka plazmy.

Integracja nauki to powstawanie nowych nauk na styku starych, proces łączenia wiedzy naukowej. Przykładami integracji nauk są: chemia fizyczna, fizyka chemiczna, biofizyka, biochemia, geochemia, biogeochemia, astrobiologia itp.

Tak więc nauki przyrodnicze jawią się nam nie tylko jako zbiór nauk o Naturze, ale przede wszystkim jako jeden system Wiedza, której elementy (prywatne nauki przyrodnicze) są tak ściśle ze sobą powiązane i współzależne, że wywodzą się od siebie, stanowią cyklicznie zamknięty system, prawdziwie organiczną jedność. I to jest odzwierciedlenie jedności istniejącej w realnym świecie.

Zagadnienia do dyskusji

    Czy we współczesnym świecie można obejść się bez nauki? Jaki byłby ten świat?

    Czy sztuka może dać coś nauce? Co wiesz o roli sztuki w życiu wielkich naukowców?

    Streszczenie rozprawy

    2000. 166 s. Koncepcjewspółczesnynaturalna nauka Koncepcjewspółczesnynaturalna nauka/ Ed...

  1. Koncepcje współczesnych nauk przyrodniczych (28)

    Streszczenie rozprawy

    2000. 166 s. Koncepcjewspółczesnynaturalna nauka/ Wyd. V.N. Lavrinenko i V.P. Ratnikowa. M.: UNITI, 2000. Koncepcjewspółczesnynaturalna nauka/ Ed...

Weryfikacja i fałszowanie. specjalna uwaga wymaga problemu krytyki stawianych hipotez i teorii. Jeżeli krytyka skierowana na ich odrzucenie opiera się na danych empirycznych, to można powiedzieć, że wiąże się bezpośrednio z tematem ich empirycznego uzasadnienia.

Fałszowanie, czyli empiryczne obalanie, przejawia się w procedurze ustalania fałszu lub logicznej weryfikacji.

Zainteresowanie problemem falsyfikacji zainteresował się K. Popper, który przeciwstawił falsyfikację weryfikacją, empiryczną obalenie z empirycznym potwierdzeniem.

Popper odmówił uznania ważności lub empirycznej ważności twierdzeń nauki za jej wyróżnik. Wszystko może być potwierdzone doświadczeniem. W szczególności astrologia jest poparta wieloma dowodami empirycznymi. Ale potwierdzenie teorii nie mówi jeszcze o jej naukowym charakterze. Test hipotezy nie powinien polegać na znalezieniu dowodów na jej poparcie, ale na uporczywych próbach jej obalenia.

Popperowski kontrast między falsyfikacją a weryfikacją związku, że hipotezy stawiane w nauce powinny być jak najbardziej śmiałe. Ale to oznacza, że ​​muszą być oczywiście nieprawdopodobne, a zatem próby ich weryfikacji są oczywiście skazane na niepowodzenie.

Zasada falsyfikacji i falsyfikacjonizmu.Punktem wyjścia stanowiska Poppera jest pozorna asymetria między weryfikacją a falsyfikacją.

Zgodnie ze współczesną logiką, dwie powiązane ze sobą operacje – potwierdzenie i odrzucenie – są zasadniczo nierówne. Wystarczy jeden sprzeczny fakt, aby definitywnie zaprzeczyć ogólnemu stwierdzeniu, a jednocześnie arbitralnie duża liczba potwierdzających przykładów nie jest w stanie raz na zawsze takiego stwierdzenia potwierdzić, aby zamienić je w prawdę.

Na przykład nawet patrzenie na miliard drzew nie sprawia, że ​​ogólne stwierdzenie „Wszystkie drzewa tracą liście zimą” jest prawdziwe. Widzenie drzew, które zimą straciły liście, bez względu na ich liczbę, tylko zwiększa prawdopodobieństwo lub wiarygodność tego stwierdzenia. Ale tylko jeden przykład drzewa, które zachowało liście w środku zimy, obala to stwierdzenie.

Asymetria potwierdzenia i odrzucenia opiera się na popularnym schemacie rozumowania, który można nazwać zasadą falsyfikacji.

Zasada falsyfikacji jest prawem logiki klasycznej, uformowanym w późny XIX- początek XX wieku. był zupełnie nietknięty krytyką logiki, która rozpoczęła się w latach dwudziestych, a szczególnie aktywna w latach pięćdziesiątych. XX wiek To prawo jest akceptowane we wszystkich znanych nieklasycznych systemach logicznych, które twierdzą, że są bardziej adekwatnym opisem relacji logicznej konsekwencji.


Krytyka falsyfikacjonizmu.Falsyfikacjonizm Poppera jest poddawany bardzo ostrej i dobrze uzasadnionej krytyce. W gruncie rzeczy niewiele pozostało z tej koncepcji w jej ortodoksyjnej formie nawet za życia autora, który nadal aktywnie ją bronił.

Nie będziemy tu powtarzać uwag krytycznych, ale zwróćmy uwagę na jeden punkt: krytyka falsyfikacjonizmu, przy całej jego skuteczności, nie została doprowadzona, by tak rzec, do „logicznego końca”. Zawsze ograniczała się do czysto epistemologicznych rozważań (związanych przede wszystkim z historią nauki i prawdziwymi teoriami naukowymi) i nie dostrzegała popperowskiego uzasadnienia falsyfikacjonizmu. Nie ryzykował zakwestionowania asymetrii potwierdzenia i odrzucenia oraz leżącej u jej podstaw zasady falsyfikacji.

Logiczne fałszowanie i obalanie.Krytyka falsyfikacjonizmu nie może być całkowicie spójna, jeśli nie jest połączona z krytyką tradycyjnego pojęcia obalania i leżącej u jego podstaw logicznej zasady falsyfikacji. Jeśli w interpretacji tego pojęcia logika i epistemologia znajdują się w konflikcie, tak jak są teraz, to nieuchronnie się rozwidla. Z logicznego punktu widzenia stanowisko ogólne jest uważana za odrzuconą, gdy tylko zostanie stwierdzona co najmniej jedna (ważna lub trzeciorzędna) błędna konsekwencja. Z epistemologicznego punktu widzenia procedura obalania jest nie mniej skomplikowana niż procedura konfirmacji i uwzględnia wagę błędnych konsekwencji, ich liczbę, ich związek z „rdzeniem” teorii, stan konkurencyjnych teorii oraz wiele innych czynników. Istnienie dwóch koncepcji obalania wyjaśnia konkluzje tego typu: teoria jest obalona (w sensie logicznym), ale zostaje zachowana, ponieważ nie jest obalona (w sensie epistemologicznym).

Nazwijmy logiczną falsyfikacją ideę, że niespójność jakiejkolwiek konsekwencji pewnego zdania automatycznie oznacza fałszywość tego zdania. Właśnie tę ideę wyraża zasada falsyfikacji. Fałszowanie logiczne jest operacją dedukcyjną. Bierzmowanie opiera się, jak się powszechnie uważa, na pewnych procedurach indukcyjnych.

Posługujemy się pojęciem obalania w jego zwykłym znaczeniu, które jest stosunkowo dobrze ugruntowane w epistemologii.

Chociaż pojęcie obalania nie jest ani sensowne, ani przestrzennie dokładne, istnieje dość wyraźny rdzeń jego treści, który wyraźnie nie pokrywa się z treścią pojęcia logicznego falsyfikacji.

„Zwykłe 'fałszowanie' (w sensie Poppera) nie pociąga za sobą odrzucenia odpowiedniego twierdzenia”, pisze Lakatos. - Proste „fałszerstwa” (tj. anomalie) powinny być rejestrowane, ale nie ma potrzeby na nie odpowiadać” 3 .

Pojęcie falsyfikacji zakłada, według Poppera, istnienie (negatywnych) decydujących eksperymentów. Lakatos, ironicznie nazywając te eksperymenty „wielkimi”, zauważa, że ​​„eksperyment kluczowy” to tylko tytuł honorowy, którym oczywiście można nadać pewną anomalię, ale dopiero długo po tym, jak jeden program zostanie zastąpiony przez inny.

Falsyfikacja nie uwzględnia również faktu, że teorię, która napotkała trudności, można przekształcić za pomocą hipotez i środków pomocniczych, takich jak zamiana definicji rzeczywistych na nominalne. „... Żadne przyjęte podstawowe stwierdzenie samo w sobie nie daje naukowcowi prawa do odrzucenia teorii. Taki konflikt może rodzić problem (mniej lub bardziej istotny), ale w żadnym wypadku nie może prowadzić do „zwycięstwa”.

Można powiedzieć, że stosowalność zasady falsyfikacji do różnych części programu badawczego jest różna. Zależy to również od etapu rozwoju takiego programu: dotychczas ostatni; z powodzeniem wytrzymuje atak anomalii, naukowiec może je generalnie ignorować i kierować się nie anomaliami, ale pozytywną heurystyką swojego programu.

Niepowodzenie fałszerstwa.Myśl Poppera, uzasadnienie teorie naukowe nie można osiągnąć poprzez obserwację i eksperyment. Teorie zawsze pozostają nieuzasadnionymi założeniami. Nauka potrzebuje faktów i obserwacji nie po to, by uzasadniać, ale tylko po to, by testować i obalać teorie, by je fałszować. Metodą nauki nie jest obserwacja i stwierdzenie faktów w celu ich późniejszego indukcyjnego uogólnienia, lecz metoda prób i błędów. „Nie ma bardziej racjonalnej procedury”, pisze Popper, „niż metoda prób i błędów — twierdzenia i obalania: śmiały rozwój teorii; próbuje w najlepszy sposób pokazać błędność tych teorii i ich tymczasowe uznanie w przypadku niepowodzenia krytyki.” Metoda prób i błędów jest uniwersalna: jest stosowana nie tylko w nauce, ale w całej wiedzy, jest używana zarówno przez ameby i Einsteina.

Ostry kontrast Poppera między weryfikacją a falsyfikacją, metodą indukcyjną i metodą prób i błędów nie jest jednak uzasadniony. Krytyka teorii naukowej, która nie osiągnęła swojego celu, nieudana próba falsyfikacja jest osłabioną wersją pośredniej weryfikacji empirycznej.

Fałszowanie jako procedura obejmuje dwa etapy:

ustalenie prawdziwości zależności warunkowej „jeśli A, to B”, gdzie B jest empirycznie weryfikowalną konsekwencją;

ustalenie prawdy „źle B”, czyli falsyfikacja B. Brak falsyfikacji oznacza niestwierdzenie fałszywości B. Skutkiem tego niepowodzenia jest sąd probabilistyczny „Możliwe, że A jest prawdziwe, tj. W". Zatem niepowodzenie falsyfikacji jest rozumowaniem indukcyjnym, które ma schemat:

„jeśli prawdą jest, że jeśli A, to B, a nie-B jest fałszywe, to A” („jeśli prawdą jest, że jeśli A, to B, a B, to A”)

Ten schemat pokrywa się z pośrednim schematem weryfikacji. Niepowodzenie fałszerstwa jest jednak osłabioną weryfikacją: w przypadku zwykła weryfikacja pośrednia zakłada, że ​​przesłanka B jest stwierdzeniem prawdziwym; w przypadku nieudanego fałszerstwa przesłanka ta jest jedynie wiarygodnym stwierdzeniem 2 . Stąd decydująca, ale nieskuteczna krytyka, którą Popper wysoko ceni i której się sprzeciwia jako niezależna metoda weryfikacja jest w rzeczywistości tylko osłabioną wersją weryfikacji.

Pozytywne uzasadnienie jest zwykłą pośrednią weryfikacją empiryczną, która jest rodzajem uzasadnienia absolutnego. Jej wynikiem jest: „Stwierdzenie A, którego konsekwencja została potwierdzona, jest uzasadnione”. Usprawiedliwienie krytyczne to usprawiedliwienie przez krytykę; jego wynik: „Propozycja A jest bardziej akceptowalna niż jej kontrpropozycja B, ponieważ A wytrzymała ostrzejszą krytykę niż B”. Uzasadnienie krytyczne jest uzasadnieniem porównawczym: tylko dlatego, że zdanie A jest bardziej odporne na krytykę, a zatem bardziej uzasadnione niż zdanie B, nie oznacza, że ​​A jest prawdziwe czy nawet prawdopodobne.

W ten sposób Popper osłabia program indukcjonistyczny na dwa sposoby:

zamiast pojęcia uzasadnienia absolutnego wprowadza się pojęcie uzasadnienia porównawczego;

zamiast pojęcia weryfikacji (uzasadnienia empirycznego) wprowadza słabsze pojęcie falsyfikacji.

Agregat kryteria naukowe definiuje bardzo specyficzny model nauki, który określany jest terminem nauka klasyczna. System wybranych kryteriów można przedstawić w następujący sposób. Po pierwsze, naukowy zidentyfikowany z obiektywność. Obiektywizm rozumiany jest jako skupienie się na przedmiocie, jako obiektywność. Dla nauki wszystko jest przedmiotem pojmowanym przez doświadczenie.

Druga cecha nauki - doświadczony natura wiedzy. Obserwacja, eksperyment, pomiar to główne metody zdobywania i potwierdzania wiedzy. W związku z tym wymagany jest eksperyment naukowy odtwarzalność oraz powtarzalność. Doświadczenie w dowolnym czasie i miejscu można powtórzyć, a jego wynik nie ulegnie zmianie. Wynik naukowy nie zależy od tego, kto go otrzymał.

Wreszcie wiedza naukowa jest wiedza mająca na celu znalezienie prawdy. Głęboki związek między klasyczną naukowością a prawdą wyraża się w powszechnym stwierdzeniu: być naukowym to znaczy być prawdziwym. Prawda jest papierkiem lakmusowym dla nauki. Żadna inna wiedza nie jest oceniana pod kątem prawdy: ani poezja, ani utwór muzyczny, ani traktat religijny ... To prawda wiedzy naukowej czyni je uniwersalnymi i uniwersalnymi, pozwala na ich wdrożenie i zastosowanie w technologii, pod kontrolą systemy.

Kryteria naukowe - klasyczny model nauki charakteryzuje obiektywizm, prawda, intersubiektywność, uniwersalizm, odtwarzalność, rzetelność i doświadczenie wiedzy. Jest to rodzaj idealnego modelu, który w prawdziwej historii nauki raczej nie odpowiada w pełni żadnej konstrukcji teoretycznej. Z reguły nie wszystkie wymienione tu kryteria o charakterze naukowym są podawane w podręcznikach, a tylko niektóre z nich, np. eksperymentalny charakter i wiarygodność wypowiedzi naukowych czy uniwersalizm i fundamentalizm. Faktem jest, że kryteria te są systemem restrykcji, które są ze sobą niezwykle ściśle powiązane, w pewnym sensie tautologiczne. Z jednego warto zrezygnować, bo wszystkie inne okażą się niemożliwe. System wymagań dla wiedzy testowanej pod kątem naukowości nie jest przypadkowy, ale uwarunkowany tą sytuacją społeczno-kulturową.


Kilka kryteria demarkacje idee naukowe i pseudonaukowe- to jest:

Zasada jest stosowana w logice i metodologii nauki do ustalenia prawdziwości twierdzeń naukowych w wyniku ich empirycznej weryfikacji.

Wyróżnić:

Weryfikacja bezpośrednia – jako bezpośrednia weryfikacja twierdzeń formułujących dane z obserwacji i eksperymentu;

Weryfikacja pośrednia - jako ustalenie zależności logicznych między twierdzeniami weryfikowanymi pośrednio.

Zasada weryfikacji pozwala w pierwszym przybliżeniu ograniczyć wiedzę naukową od wiedzy wyraźnie pozanaukowej. Nie może jednak pomóc, gdy system idei jest uszyty w taki sposób, aby absolutnie wszystkie możliwe fakty empiryczne można było zinterpretować na jego korzyść - ideologię, religię, astrologię itp.

2. Zasada fałszowania.

Jego esencja: kryterium naukowego statusu teorii jest jej falsyfikowalność lub obalanie, to znaczy tylko ta wiedza może rościć sobie tytuł „naukowej”, co jest w zasadzie obalalne. Zasada falsyfikacji czyni wiedzę relatywną, pozbawiając ją niezmienności, absolutności, kompletności.

falsyfikowalność (obalalność, Kryterium Poppera) - kryterium naukowe teoria empiryczna sformułowana przez K. Poppera. Teoria spełnia kryterium Poppera (jest falsyfikowalna), jeśli istnieje metodologiczna możliwość jej obalenia przez założenie takiego lub innego eksperymentu, nawet jeśli takiego eksperymentu nie założono. Doktryna filozoficzna, zgodnie z którą falsyfikowalność teorii jest warunkiem koniecznym jej naukowego charakteru, nazywa się falsyfikacjonizm .

Istota kryterium.

Kryterium falsyfikowalności wymaga, aby teoria lub hipoteza nie były: zasadniczo niepodważalne. Według Poppera teoria nie może być uważana za naukową tylko na podstawie tego, że istnieje jeden, kilka lub nieograniczona liczba eksperymentów, które ją potwierdzają. Ponieważ niemal każda teoria utworzona na podstawie przynajmniej niektórych danych eksperymentalnych pozwala na założenie dużej liczby eksperymentów konfirmacyjnych, obecność potwierdzeń nie może być uważana za oznakę naukowego charakteru teorii.

Według Poppera teorie różnią się pod względem możliwości zorganizowania eksperymentu, który może, przynajmniej w zasadzie, dać wynik, który obali daną teorię. Teoria, dla której istnieje taka możliwość, nazywa się falsyfikowalny. Teoria, dla której nie ma takiej możliwości, to znaczy w ramach, które mogą wyjaśnić dowolny wynik dowolnego wyobrażalnego eksperymentu (w obszarze, który opisuje teoria), nazywa się niefalsyfikowalne.

Kryterium Poppera to jest tylko kryterium klasyfikacji teorii jako naukowej, ale nie jest kryterium jej prawdziwości ani możliwości jej pomyślnego zastosowania. Stosunek falsyfikowalności teorii do jej prawdziwości może być różny. Jeśli eksperyment, który kwestionuje falsyfikowalną teorię, po skonfigurowaniu, rzeczywiście daje wynik sprzeczny z tą teorią, wówczas teoria staje się sfałszowany, czyli fałszywe, ale to nie przestanie być falsyfikowalny, to jest naukowe.

„W tym czasie nie interesowało mnie pytanie „kiedy teoria jest prawdziwa?”, A nie pytanie „kiedy teoria jest akceptowalna?”. Postawiłem sobie kolejny problem. Chciałem dokonać rozróżnienia między nauką a pseudonauką, wiedząc doskonale, że nauka często się myli i że pseudonauka może przypadkowo natknąć się na prawdę”.

Uzasadniając właśnie takie kryterium naukowości, Popper przytoczył jako przykład różnicę między takimi teoriami, jak: Ogólna teoria względności Einsteina, historyczna materializm Marksa oraz teorie psychoanalizy Freuda i Adlera. Zwrócił uwagę, że teorie te bardzo różnią się pod względem możliwości ich eksperymentalnej weryfikacji i obalenia. Teorie psychoanalizy taka weryfikacja jest w zasadzie niemożliwa. Bez względu na to, jak człowiek się zachowuje, jego zachowanie można wytłumaczyć z punktu widzenia teorii psychoanalitycznych, nie ma takiego zachowania, które obaliłoby te teorie.

W przeciwieństwie do psychoanalizy, ogólna teoria względności umożliwia weryfikację. Tak więc, zgodnie z ogólną teorią względności, ciała o dużej masie (na przykład gwiazdy) uginają przebieg promieni świetlnych swoim przyciąganiem. W rezultacie światło odległej gwiazdy widocznej w pobliżu Słońca zmienia kierunek, a gwiazda wydaje się być przesunięta z miejsca, w którym się znajduje, patrząc z dala od dysku słonecznego. Efekt ten można zaobserwować podczas całkowitego zaćmienia Słońca, kiedy światło Słońca nie zakłóca widzenia gwiazd w jego pobliżu. Jeżeli w wyniku weryfikacji okaże się, że efekt nie jest obserwowany, jego brak stanie się dowodem niezgodności ogólnej teorii względności, tj. taki eksperyment teoretycznie mógłby sfalsyfikować ogólną teorię względności. Ta przepowiednia została przetestowana przez Eddingtona podczas zaćmienia 29 maja 1919 r., z wcześniej przewidzianym efektem.

„W rozważanym przykładzie ryzyko związane z taką prognozą jest imponujące. Jeśli obserwacja wykaże, że przewidywanego efektu zdecydowanie nie ma, to teoria jest po prostu odrzucana. Ta teoria jest niespójna z pewnymi możliwymi wynikami obserwacji - wynikami, których spodziewałby się każdy przed Einsteinem. Ta sytuacja jest zupełnie inna niż ta opisana wcześniej, gdzie odpowiednie teorie [psychologiczne] okazały się kompatybilne z jakimkolwiek ludzkim zachowaniem i praktycznie niemożliwe było opisanie jakiejkolwiek formy ludzkiego zachowania, która nie byłaby potwierdzeniem tych teorii.

Trudniejsza jest sprawa Z Teoria marksistowska . W swojej pierwotnej formie był całkowicie falsyfikowalny, a więc naukowy. Dała prognozy, które można przetestować: przewidziała przyszłe rewolucje społeczne, ich czas i stany, w których będą miały miejsce. Jednak wszystkie te przewidywania się nie sprawdziły. Tak więc marksizm został sfalsyfikowany, ale jego zwolennicy, zamiast zaakceptować obalenie i uznać teorię za fałszywą, poszli inną drogą: dokonali reinterpretacji teorii i jej przewidywań tak, aby wnioski z teorii były zgodne z praktyką. W rezultacie „uratowali” teorię, ale zrobili to kosztem utraty falsyfikowalności – marksizm z teorii naukowej przekształcił się w pseudonaukę. Następnie, jak zauważył K. Yeskov, „w ZSRR marksizm przekształcił się w czystą teologię, czyli interpretację świętych tekstów”.

Kryterium falsyfikowalności nie wymaga, aby już w momencie wysuwania teorii można było faktycznie założyć eksperyment testujący teorię. Wymaga jedynie, aby w zasadzie istniała możliwość przeprowadzenia takiego eksperymentu.

„Teoria grawitacji Einsteina oczywiście spełnia kryterium falsyfikowalności. Nawet jeśli w momencie jej rozwoju nasze przyrządy pomiarowe nie pozwalały nam jeszcze z całkowitą pewnością mówić o wynikach jej badań, możliwość obalenia tej teorii niewątpliwie istniała już wtedy.

Astrologia nie jest testowana. Astrologowie mają takie urojenia co do tego, co uważają za dowody potwierdzające, że nie zwracają uwagi na przykłady, które są dla nich niekorzystne. Co więcej, czyniąc swoje interpretacje i proroctwa wystarczająco niejasnymi, są w stanie wyjaśnić wszystko, co mogłoby okazać się obaleniem ich teorii, gdyby ta i proroctwa z niej wynikające były bardziej trafne. Aby uniknąć fałszowania, niszczą sprawdzalność swoich teorii. To zwykła sztuczka wszystkich wróżbitów: przewidywać wydarzenia tak w nieskończoność, że przepowiednie zawsze się sprawdzają, to znaczy są niepodważalne.

Dwa wcześniej wspomniane teorie psychoanalityczne należą do innej klasy. Są to po prostu teorie nie do przetestowania i nie do obalenia... To nie znaczy, że Freud i Adler w ogóle nie powiedzieli nic poprawnego... Ale to znaczy, że te „obserwacje kliniczne”, w które naiwnie wierzą psychoanalitycy, potwierdzają ich teorię, nie robią tego więcej niż codzienne potwierdzenia znajdowane przez astrologów w ich praktyce. Jeśli chodzi o opis Ja (Ja), Super-Ja (Super-Ego) i To (Id) przez Freuda, jest on zasadniczo nie bardziej naukowy niż historia. Homera o Olympusie. Rozważane teorie opisują pewne fakty, ale czynią to w formie mitu. Zawierają bardzo ciekawe założenia psychologiczne, ale wyrażają je w nieweryfikowalnej formie.

Ciekawy wynik zastosowania kryterium Poppera: niektóre twierdzenia można uznać za naukowe, ale ich negacje nie i odwrotnie. Na przykład założenie o istnieniu Boga (nie jakiegoś konkretnego boga, ale Boga w ogóle) nie jest falsyfikowalne, a zatem nie może być przyjęte jako hipoteza naukowa (niefalsyfikowalność wynika z faktu, że jest niemożliwe do obalenia istnienia Boga - każde obalenie można odrzucić, stwierdzając, że Bóg jest poza światem fizycznym, prawami fizycznymi, poza logiką itd.). Jednocześnie założenie o nieistnieniu Boga jest falsyfikowalne (aby je obalić wystarczy przedstawić Boga i wykazać jego nadprzyrodzone cechy), dlatego można je przyjąć jako hipotezę naukową.

Falsyfikowalność twierdzeń o istnieniu czegokolwiek.

Jeśli mamy wewnętrznie spójną ideę jakiegoś fizycznego obiektu, to możemy zakwestionować, czy istnieje on gdziekolwiek we wszechświecie.

Istnieją dwie teorie:

1) gdzieś istnieje;

2) nie istnieje nigdzie we wszechświecie.

Te dwie teorie różnią się zasadniczo z punktu widzenia zasady falsyfikowalności.

Teoria nieistnienia jest naturalnie falsyfikowalna: aby ją obalić, wystarczy przedstawić coś, czego istnieniu się zaprzecza. Tak więc teoria nieistnienia czegokolwiek zawsze będzie naukowa, niezależnie od tego, której istnieniu zaprzecza.

Z falsyfikowalną teorią istnienie jest znacznie trudniejsze. Musimy wymyślić eksperyment, aby to obalić. Ale wszystkie nasze eksperymenty są zawsze ograniczone zarówno w przestrzeni, jak i w czasie. Co do przestrzeni: w zasadzie wszechświat może mieć nieskończony zasięg (jeśli jego średnia gęstość jest mniejsza niż jakaś krytyczna). W tym przypadku w dowolnym wieku ziemskiej cywilizacji będziemy mieli tylko skończoną liczbę ludzi (którzy żyli lub żyją w tym momencie) i oczywiście skończoną liczbę wszystkich możliwych eksperymentów przeprowadzonych przez dany punkt w samą porę. A ponieważ każdy eksperyment obejmuje ograniczoną przestrzeń, to wszystkie będą obejmować ograniczoną przestrzeń. Otóż ​​w przestrzeni nie objętej naszymi eksperymentami teoretycznie może być wszystko, łącznie z tym, którego istnienie jest obalane.

Gdy więc średnia gęstość materii we wszechświecie jest mniejsza od krytycznej, żadna teoria istnienia nie może być obalona na żadnym etapie rozwoju cywilizacji (tj. nigdy), a zatem nie może być uznana za naukową, za niefalsyfikowalną.

3. racjonalna zasada jest głównym sposobem walidacji wiedzy. Pełni rolę przewodnika po pewnych normach, ideałach o charakterze naukowym, standardach wyników naukowych.

W ramach racjonalnego stylu myślenia wiedza naukowa charakteryzuje się następującymi cechami: kryteria metodologiczne:

Uniwersalność, czyli wykluczenie jakichkolwiek konkretów – miejsca, czasu, tematu itp.;

Spójność lub konsekwencja zapewniana przez dedukcyjny sposób wdrażania systemu wiedzy;

Prostota; za dobrą uważa się teorię, która wyjaśnia możliwie najszerszy zakres zjawisk w oparciu o minimalną liczbę zasad;

potencjał wyjaśniający;

Kryteria naukowe

Istnieje 6 kryteriów wiedzy naukowej:

1. wiedza systematyczna – wiedza naukowa ma zawsze charakter systematyczny, uporządkowany;

2. cel – każda wiedza naukowa jest wynikiem celu naukowego;
3. aktywność – wiedza naukowa jest zawsze wynikiem działań naukowców dla osiągnięcia wyznaczonego celu naukowego;

4. racjonalistyczna – wiedza naukowa zawsze opiera się na rozumie (w tradycjach Wschodu ustalono priorytet intuicji jako nadzmysłowego postrzegania rzeczywistości);

5. eksperymentalne - wiedza naukowa musi być potwierdzona eksperymentalnie;

6. Aparat matematyczno - matematyczny powinien mieć zastosowanie do danych naukowych.

Wiedza gromadzona przez ludzi ma trzy poziomy: zwykła, empiryczna (eksperymentalna) i teoretyczna (poziom wiedzy naukowej).

wynik działalność naukowa to wiedza naukowa, która w zależności od treści i zastosowania dzieli się na:

1. faktyczne – są zbiorem usystematyzowanych faktów obiektywnej rzeczywistości;

2. teoretyczne (podstawowe) - teorie wyjaśniające procesy zachodzące w obiektywnej rzeczywistości;

3. techniczne i stosowane (technologia) – wiedza na temat praktyczne zastosowanie zdobyta wiedza;

4. praktycznie stosowana (prakseologiczna) – wiedza o efekcie ekonomicznym uzyskanym w wyniku zastosowania osiągnięć naukowych.

Formy wiedzy naukowej to: koncepcje naukowe, programy, typologie, klasyfikacje, hipotezy, teorie.

Rozwiązanie każdego problemu naukowego obejmuje promocję różnych przypuszczeń, założeń. Założenie naukowe postawione w celu wyeliminowania sytuacji niepewności nazywa się hipotezą. Nie jest to wiedza pewna, ale prawdopodobna. Trzeba sprawdzić prawdziwość lub fałsz takiej wiedzy. Proces ustalania prawdziwości hipotezy nazywa się weryfikacją. Hipoteza potwierdzona eksperymentalnie nazywana jest teorią.

1. Ideały i normy n. badania - schemat rozwoju obiektów, których charakterystykę przedstawiono w formie teoretyczno-empirycznej. Ideały i normy wyrażają wartości i cele nauki, odpowiadając na pytania: dlaczego potrzebne są określone działania poznawcze, jaki rodzaj produktu (wiedzy) należy uzyskać w wyniku ich wdrożenia oraz jak ten produkt otrzymać.

Przeznaczyć:

1) ideały i normy wyjaśnienia i opisy;

2) dowody i uzasadnienie wiedzy;

3) budowanie organizacji wiedzy.

Konieczne jest odróżnienie wiedzy naukowej od wiedzy pozanaukowej. Należy również odróżnić wiedzę naukową od wiedzy przednaukowej.

Problem demarkacji. Demarkacja - rysowanie linii podziału. Problem demarkacji nauki to problem linii rozróżnienia oddzielających naukę od nienauki. Problem demarkacji prowadzi nas do problemu kryteria naukowe ; różnica między prawdziwą wiedzą a fałszywą wiedzą.

Główne cechy wiedzy naukowej

Wymienione funkcje działają również jako ideały i normy nauki i razem tworzą kryteria naukowe . Kryterium to sposób na określenie, co jest naukowe, a co nie.

Normy naukowe- to są wymagania, które spełnia nauka, wiedza naukowa, wymagania mają imperatyw, imperatywność.

Ponieważ jest wiele nauk, różne nauki w różnym stopniu spełniają tę lub inną normę o charakterze naukowym.

Normy o charakterze naukowym to aktualność wiedzy, potwierdzenie empiryczne, kolejność logiczna.

Ideały nie są w pełni osiągalne. Idealny - to stan wiedzy naukowej, do którego nauka powinna dążyć, rodzaj doskonałości nauki, w rzeczywistości stan właściwy.

Prawda jest ideałem.

Obiektywizm – wiedza naukowa jest obiektywna. Znaki wiedzy naukowej działają jako normy i ideały. Normy mogą działać jako ideały i odwrotnie.

Kryteria naukowe (oznaki)

1. Obecność w naukowej wiedzy o prawach nauki.

Prawa są niezbędnymi, powtarzającymi się, stabilnymi powiązaniami między właściwościami, procesami itp.

Prawa nauki ustalają efektywne połączenia w specjalnej formie za pomocą języka nauki. Nauka dąży do poznania istoty badanych procesów zjawisk. Istota jest wyrażona przez prawo. Prawa są podstawowym składnikiem wiedzy naukowej. Nie wszystkie nauki formułują prawa. Nomotetyczny - stanowienie prawa. Istnieją nauki nomotetyczne. Przez długi czas uważano, że prawdziwymi dojrzałymi naukami są nauki nomotetyczne. W niektórych naukach zamiast praw formułuje się obecność stabilnych tendencji - trend rozwojowy.

2. wiedza naukowa.

To jest systemowo zorganizowana wiedza zbudowana. Systemowa organizacja wiedzy naukowej przejawia się na różnych poziomach. Systemy to indywidualne teorie i koncepcje naukowe, indywidualne nauki, dyscypliny naukowe dążą do systemowości, nauka jako całość dąży do systemowości. Wymóg spójności bywa wyjaśniany przez wymóg spójności wiedzy naukowej. Spójność - spójność. Wiedza naukowa musi być spójna, wyklucza sprzeczności wewnętrzne.

3. Empiryczna ważność wiedzy naukowej.

Wiedza naukowa musi być potwierdzona doświadczeniem, czyli wynikami obserwacji i eksperymentów.

Weryfikacja(weryfikacja z łac. prawda i do) Weryfikacja - czynienie prawdy; Weryfikacja jest potwierdzeniem empirycznym. Neopozytywiści XX - 50. XX wieku sformułowali zasadę weryfikacji, za pomocą której, ich zdaniem, odróżnia się wiedzę naukową od nienaukowej. Wiedza naukowa to wiedza, która może być zweryfikowana – empirycznie potwierdzona. W ten sposób próbowali rozwiązać problem demarkacji. Rzeczywiście, podejście neopozytywistyczne pokazało swoje ograniczenia. Ostrze krytyki skierowane było przeciwko filozofii metafizyki.

Okazało się, że najważniejsze, fundamentalne elementy samej wiedzy naukowej nie w pełni spełniają tę zasadę. Prawa nauki, z logicznego punktu widzenia, są uniwersalnymi sądami koniecznymi. Brzmienie przepisów zawiera zwroty.

Innymi słowy, neopozytywiści nie doceniali niezależności (autonomii) wiedzy teoretycznej, absolutyzowali znaczenie wiedzy empirycznej, jest to dla nich jedynie wygodna forma prezentacji wiedzy empirycznej.

fałszowanie jest przeciwieństwem weryfikacji. Fałszowanie - fałszować. Gdy ograniczenia weryfikowalności stały się oczywiste, zaczęto szukać innego podejścia do rozwiązania problemu demarkacji wiedzy naukowej. Takie podejście zaproponował K. Popper.

Popper sformułował zasadę falsyfikowalności – wiedza naukowa musi być falsyfikowalna – obalalna, jeśli jakiś system wiedzy nie jest falsyfikowalny, to nie jest naukowy.

Popper zwrócił uwagę do fundamentalnej asymetrii ogromna liczba potwierdzeń pewnego elementu wiedzy nie gwarantuje jego prawdziwości, jednocześnie samo sfalsyfikowanie tego elementu wystarcza do stwierdzenia jego fałszywości. Krytyka K. Popper skierowane przeciwko marksizmowi i freudyzmowi. Popper starał się wykazać, że marksizm i freudyzm nie są naukowe, ponieważ nie mają zasady falsyfikowalności. Istota podejścia Poppera – zaprzecza istnieniu uniwersalnych teorii i koncepcji mających zastosowanie wszędzie, każda teoria i koncepcja ma ograniczony obszar zastosowania. W pewnym sensie każde stwierdzenie, każda koncepcja może być empirycznie potwierdzona, rzeczywistość jest nieskończenie bogata. Fakty są teoretycznie naładowane.

4. Kolejność logiczna, ważność, dowody wiedzy naukowej.

Teksty naukowe powinny być opracowywane z uwzględnieniem wymagań, reguł, praw logicznego myślenia, logiki. Cecha ta jest szczególnie wyraźnie przedstawiona w naukach logicznych i matematycznych, ogólnie myślenie powinno być logicznie spójne w każdej nauce. Rzeczywistości nie można przedstawić jako systemu liniowego. Alberta Schweitzera. Trafność wiedzy naukowej. Uzasadnienie — podaj odpowiednie uzasadnienie. Aby uzasadnić pewne stwierdzenie, które uważamy za uzasadnione.

Najbardziej rygorystycznym rodzajem uzasadnienia jest dowód, a mniej lub bardziej rygorystyczny dowód znajduje się w dyscyplinach logiki lub matematyki. Niektóre osądy są dowodami empirycznymi z drugiej strony mniej lub bardziej teoretyzowanymi stwierdzeniami. Ten znak racjonalnej wiedzy koncentruje się

5. Specjalizacja, obiektywizm, dyscyplina wiedzy naukowej.

Wiedza naukowa to wiedza o określonym temacie, o określonej dziedzinie, dyscyplinowo zorganizowana wiedza naukowa. Nauka istnieje jako zbiór agregatów nauk lub dyscyplin naukowych. Rozwojowi nauki towarzyszy zróżnicowanie poznania i wiedzy naukowej, czyli powstawanie coraz to nowych, wysoko wyspecjalizowanych dyscyplin naukowych. Zidentyfikowanie przedmiotu nauki lub dyscypliny naukowej jest często trudnym zadaniem. Historia tej nauki, w tym historia przedmiotowego samookreślenia się nauki: rozwojowi nauki towarzyszy wyrafinowanie przedmiotu. Temat nauki często tworzą ludzie, badacze.

6. Obiektywizm, adekwatność, prawda, wiedza naukowa.

Prawda jest zarówno największą wartością, jak i największym problemem zarówno filozofii, jak i nauki. Złożoność tego problemu powołała do życia stanowisko zarówno filozofii, jak i nauki, których przedstawiciele nawołują do odejścia od koncepcji prawdy.

Na pewien etap jego kreatywny sposób Popper również bronił tego stanowiska. Porzuć koncepcję prawdziwej teorii, nawet jeśli w jakiś sposób zbudujemy prawdziwą teorię, nie możemy udowodnić, że jest prawdziwa. Prawdziwa wiedza to wiedza odpowiadająca jej przedmiotowi. W miejsce pojęcia prawdziwej wiedzy zaproponował pojęcie wiarygodnej wiedzy.

Później, gdy Popper zapoznał się z dziełami, A Tarski stworzył semantyczną koncepcję prawdy. Problem znaczenia i znaczenia. Semiotyka to nauka systemy znakowania. Semantyka to gałąź semiotyki. Uprzedmiotowienie – przejście od myśli, pomysłów, planów, poprzez aktywność do tematu. Deobiektywizacja to przejście od logiki przedmiotów do logiki pojęć. W realnej, aktualnej wiedzy naukowej przeplatają się elementy obiektywne i subiektywne. Konwencja. Konwencjonalizm - znaczenie konwencji w nauce.

7. Konieczność metod i środków poznania naukowego.

Dywersyfikacja - wzrost, ilość i wzrost kosztów metod i środków wiedzy.

8. Określony język.

Wiedza naukowa jest wyrażona w określonym języku. Wąska specjalizacja wytwarzalności, język nauki dąży do rygoru i jednoznaczności. Język nauki jest niezbędny do wyrażenia głębokich właściwości odpowiedniego obszaru tematycznego. Aby opanować naukę, trzeba opanować jej język. Nie tylko każda nauka ma swój własny język, ale także każda koncepcja naukowa. Zrozumienie tego terminu zależy od kontekstu.

9. Ekonomia wiedzy naukowej.

Oszczędność - chęć przeżycia przy minimalnych środkach (teoretycznych i językowych) „ostrze lub brzytwa” Ockhama: nie wymyślaj esencji poza to, co jest konieczne. Ta zasada odcina wszystko, co zbędne - dlatego ostrze lub brzytwa. Minimax - wykorzystując minimum teoretycznych środków do opisania, wyjaśnienia, najszerszego możliwego obszaru myślenia, to jest piękno teorii naukowych.

Nauka stara się wprowadzić jedność w różnorodność.

10. Otwartość wiedzy naukowej na krytykę i samokrytykę.

Ma charakter dogmatyczny. W nauce każdy element wiedzy musi być skrytykowany. Odnosi się to do tych elementów wiedzy, które przedmiot wnosi. Każdy element wiedzy jest częścią wiedzy naukowej, jeśli spełnia normy i ideały o charakterze naukowym, jakie zachodzą w nauce na danym etapie jej rozwoju. Jakikolwiek element wiedzy prędzej czy później zostanie wyparty ze składu nauki. Kategorie bytu i należności. Nauka musi być prawdziwa i niedogmatyczna. W prawdziwej nauce są zarówno dogmaci, jak i konserwatyści, krytyka i samokrytyka nauki odbywa się w sporach naukowych.

erystyczna- sztuka argumentacji. Rozróżnij dyskusję od polemiki. Kontrowersja pochodzi z innego Greka. wojna. Spory w nauce muszą mieć określony cel, cel naukowy, postęp w kierunku adekwatnej, obiektywnej, prawdziwej wiedzy. Spory naukowe nie powinny mieć fałszywych celów. Zwycięstwo za wszelką cenę ochrona interesów naukowych tej grupy. Spory w nauce muszą odpowiadać wymogom etyki nauki. Integralną częścią jest krytyka i samokrytyka. Dogmatycy są przeciwni relatywistom. Dogmatycy absolutyzują pewne prawdy, relatywiści udowadniają, że wszystko jest względne.

11. Kumulatywny charakter wiedzy naukowej

Kumulatywność - pochodzi od słowa akumulacja, w nauce następuje niewątpliwy postęp, poszerzenie kręgu znanego, od mniej szczegółowego do bardziej szczegółowego. Rozwój nauki to wzrost ilości wiedzy naukowej. To prawda, że ​​w XX wieku, w drugiej połowie XX wieku, ukształtował się nurt zwany antykumulatywizmem, kwestionujący ruch nauki. Antykumulatywizm, Karl Popper, T. Kuhn, postawiono tezę o niewspółmierności kolejnych paradygmatów naukowych (teorii, koncepcji) wzorcowej teorii. Te znaki mogą działać jako ideały i normy nauki . Połączenie lub system tych cech może działać jako: kryteria naukowe.

KRYTERIA I NORMY NAUKI

Teoria jest najwyższą formą organizacji wiedzy naukowej, która daje holistyczny pogląd na istotne powiązania i relacje w dowolnym obszarze rzeczywistości. Rozwojowi teorii towarzyszy z reguły wprowadzanie pojęć, które utrwalają bezpośrednio nieobserwowalne aspekty obiektywnej rzeczywistości. Dlatego weryfikacja prawdziwości teorii nie może być przeprowadzona bezpośrednio przez bezpośrednią obserwację i eksperyment.

Takie „oddzielenie” teorii od bezpośrednio obserwowanej rzeczywistości dało początek XX wieku. toczy się wiele dyskusji na temat tego, jaki rodzaj wiedzy można i należy uznać za naukową, a jakiego statusu tego odmawiać. Problem polegał na tym, że względna niezależność wiedzy teoretycznej od jej podstaw empirycznych, swoboda konstruowania różnych konstrukcji teoretycznych mimowolnie stwarza iluzję niewyobrażalnej łatwości wymyślania uniwersalnych schematów wyjaśniających i całkowitej bezkarności naukowej autorów za ich oszałamiające idee.

Honorowy autorytet nauka jest często wykorzystywana do nadania większej wagi objawieniom wszelkiego rodzaju proroków, uzdrowicieli, badaczy „bytów astralnych”, śladów pozaziemskich kosmitów itp. Zewnętrzna forma naukowa i użycie półnaukowej terminologii stwarzają jednocześnie wrażenie zaangażowania w osiągnięcia wielkiej nauki i jednocześnie nieznane tajemnice Wszechświata.

Krytyczne uwagi na temat „nietradycyjnych” poglądów są odrzucane w prosty, ale rzetelny sposób: tradycyjna nauka ma charakter konserwatywny i ma tendencję do prześladowania wszystkiego, co nowe i niezwykłe – w końcu Giordano Bruno został spalony, a Mendla nie zrozumiany itd. Powstaje pytanie: „Możliwe, czy da się wyraźnie odróżnić idee pseudonaukowe od idei samej nauki? Zasada weryfikacji. W tym celu kilka zasad zostało sformułowanych przez różne obszary metodologii nauki. Jedna z nich nazywana jest zasadą weryfikacji: każde pojęcie lub sąd ma wartość, jeśli daje się sprowadzić do bezpośredniego doświadczenia lub wypowiedzi na jego temat, tj. empirycznie weryfikowalne.

Jeśli coś znajdziesz empirycznie ustalony dla takiego osądu zawodzi, to jest albo tautologią, albo bezsensem. Ponieważ koncepcje rozwiniętej teorii z reguły nie dają się sprowadzić do danych eksperymentalnych, dokonano dla nich złagodzenia: możliwa jest również weryfikacja pośrednia. Na przykład nie można wskazać eksperymentalnego odpowiednika pojęcia „kwark”. Ale teoria kwarków przewiduje szereg zjawisk, które można już ustalić empirycznie, eksperymentalnie. A tym samym pośrednio zweryfikuj samą teorię. Jednak w tym przypadku taka weryfikacja w odniesieniu do kwarków jest złudzeniem. Istnieje następująca forma dualizmu cząstek elementarnych i kwarków: Aby zrozumieć istotę tej tożsamości, rozważmy związek między geocentrycznym i geocentrycznym układem ruchu planet Układu Słonecznego

Model teoretyczny do opisu ruchu planet można tutaj przedstawić adekwatnie do obserwacji, ale znaczenie fizyczne jest diametralnie przeciwne. Zasada weryfikacji pozwala, w pierwszym przybliżeniu, oddzielić wiedzę naukową od wiedzy wyraźnie pozanaukowej. Nie może jednak pomóc, gdy system idei jest uszyty w taki sposób, że absolutnie wszystkie możliwe fakty empiryczne są w stanie zinterpretować na swoją korzyść - ideologię, religię, astrologię itp.

W takich sprawach warto odwołać się do innej zasady rozróżnienia między nauką a nienauką, zaproponowaną przez największego filozofa XX wieku. K. Popper, - zasada falsyfikacji. Zasada falsyfikacji głosi, że kryterium naukowego statusu teorii jest jej falsyfikowalność lub falsyfikacja. Innymi słowy, tylko ta wiedza może rościć sobie tytuł „naukowy”, co w zasadzie jest obalające. Mimo pozornie paradoksalnej formy, a może właśnie dlatego, zasada ta ma proste i głębokie znaczenie. K. Popper zwrócił uwagę na znaczną asymetrię procedur potwierdzania i obalania w poznaniu.

Żadna ilość spadających jabłek nie wystarczy, aby ostatecznie potwierdzić prawdziwość prawa powszechnego ciążenia. Jednak wystarczy jedno jabłko odlatujące z Ziemi, aby uznać to prawo za fałszywe. Dlatego jest to próba fałszowania, tj. obalenie teorii powinno być najskuteczniejsze pod względem potwierdzania jej prawdziwości i naukowego charakteru. Teoria, która jest w zasadzie niepodważalna, nie może być naukowa. Idea boskiego stworzenia świata jest w zasadzie niepodważalna. Jakakolwiek próba obalenia może być przedstawiona jako wynik działania tego samego boskiego planu, którego złożoność i nieprzewidywalność jest dla nas po prostu zbyt trudna.

Ale ponieważ ten pomysł jest niepodważalny dlatego jest poza nauką. Należy jednak zauważyć, że konsekwentna zasada falsyfikacji czyni każdą wiedzę hipotetyczną, tj. pozbawia go kompletności, absolutności, niezmienności. Dlatego ciągłe zagrożenie fałszerstwem utrzymuje naukę „w dobrej kondycji”, nie pozwala jej popaść w stagnację, spocząć na laurach. Krytyka jest najważniejszym źródłem rozwoju nauki i integralną cechą jej wizerunku. Ale krytyka jest dobra, gdy nie dotyczy fundamentalnej zmiany istniejącego paradygmatu naukowego. Dlatego krytyka w stosunku do jakościowo nowej wiedzy zawsze generowała (i nadal generuje) odrzucenie nowej. Naukowcy zajmujący się nauką uważają, że kwestia rozróżnienia między nauką a nienauką nie jest zbyt trudna.

Fakt,że intuicyjnie odczuwają prawdziwy i pseudonaukowy charakter wiedzy, kierując się pewnymi normami i ideałami o charakterze naukowym, pewnymi standardami pracy badawczej. Te ideały i normy nauki wyrażają idee dotyczące celów działalności naukowej i sposobów ich osiągania. I te ideały i normy noszą piętno istniejącego paradygmatu naukowego. Wystarczy przypomnieć odrzucenie cybernetyki i genetyki, a stanie się dla nas jasne, że zaklasyfikowanie cybernetyki i genetyki jako pseudonauki nie jest wynikiem subiektywnej decyzji tej czy innej instytucji naukowej. Przyjęte decyzje naukowe mają co do zasady charakter obiektywny, ale odzwierciedlają istotę istniejącego paradygmatu naukowego.

Naukowcy doskonale zdają sobie sprawę, że te ideały i normy o charakterze naukowym są historycznie zmienne, niemniej jednak we wszystkich epokach pewien niezmiennik tych norm pozostaje ze względu na jedność stylu myślenia ukształtowanego w Starożytna Grecja. Nazywa się to racjonalnym.

Ten styl myślenia opiera się zasadniczo na dwóch podstawowych ideach:

Porządek naturalny, czyli uznanie istnienia uniwersalnych, regularnych i dostępnych dla rozumu związków przyczynowych;

Dowód formalny jako główny środek uzasadnienia wiedzy.

Wszechstronność, czyli wykluczenie jakichkolwiek konkretów – miejsca, czasu, tematu itp.;

potencjał wyjaśniający;

Obecność mocy predykcyjnej.

Te ogólne kryteria

Zasada globalnego dedukcjonizmu. Zasada globalnego dedukcjonizmu to zupełnie inny sposób myślenia. Odzwierciedla istotę nowego myślenia naukowego. Ta zasada jest konsekwencją konsekwentnego wielopoziomowego stosowania proste zasady wyciąganie konsekwencji z przyczyn, na obraz i podobieństwo, odzwierciedlające wzajemne powiązanie i komplementarność dwoistych relacji.

W ten sposób powstaje podwójny łańcuch kodu genetycznego systemów dowolnej natury. Łańcuch ten ma pełne zastosowanie do metod poznania, jeśli zastąpimy w nim abstrakcyjną relację podwójną następującą tożsamością: Ta tożsamość odzwierciedla jedność metod dedukcji i indukcji na wszystkich poziomach hierarchii poznania naukowego. Współczesna nauka wykorzystuje podwójny łańcuch

Tutaj wiedza naukowa zaczyna się od indukcji (licznik lewej strony) i kończy na dedukcji (mianownik prawej strony tożsamości). Jednocześnie dedukcja pełni rolę uogólniania otrzymanej Wiedzy Prywatnej i wyprowadzania z niej nowej wiedzy, w ramach tej Zunifikowanej, ale Prywatnej wiedzy. Należy zwrócić uwagę na następującą cechę wag z dwoma „ramionami belkowymi”. Jeden z nich odzwierciedla manifestowaną stronę związku. Oto, co widzi zewnętrzny obserwator: „Indukcja” – „Dedukcja”. Drugi odzwierciedla wewnętrzną istotę formy zewnętrznej: „dedukcja” - „indukcja”.

W ten sposób, wewnętrzna esencja kategoria „Indukcja” po lewej stronie tożsamości to „dedukcja”, podczas gdy nieodłączną istotą kategorii „Dedukcja” jest „indukcja”. Taka interpretacja istoty „zewnętrznego” i „wewnętrznego” dotyczy w ogólności każdej tożsamości, która odzwierciedla stosunek praw zachowania symetrii relacji w układach dowolnej natury. Ale prawa ewolucji podwójnej relacji dają początek następującej tożsamości:

Z czego wynika paradygmat nowego myślenia Dlatego taki podwójny łańcuch będzie w stanie w najbardziej naturalny sposób zweryfikować istniejącą wiedzę naukową w dowolnej dziedzinie działalności naukowej, odcinając wszelkie naukowe domysły i wymysły od Wiedzy Jednego, oddzielając prawdziwą wiedzę naukową od wiedzy fałszywej.

Kryteria i normy o charakterze naukowym

Teoria jest najwyższą formą organizacji wiedzy naukowej, która daje holistyczny pogląd na istotne powiązania i relacje w dowolnym obszarze rzeczywistości. Rozwojowi teorii towarzyszy z reguły wprowadzanie pojęć, które ustalają bezpośrednio nieobserwowalne aspekty obiektywnej rzeczywistości. Dlatego weryfikacja prawdziwości teorii nie może być przeprowadzona bezpośrednio przez bezpośrednią obserwację i eksperyment. Takie „oddzielenie” teorii od bezpośrednio obserwowanej rzeczywistości dało początek XX wieku. toczy się wiele dyskusji na temat tego, jaki rodzaj wiedzy można i należy uznać za naukową. Problem polegał na tym, że względna niezależność wiedzy teoretycznej od jej podstaw empirycznych, swoboda konstruowania różnych konstrukcji teoretycznych mimowolnie stwarza iluzję łatwości wymyślania uniwersalnych schematów wyjaśniających i naukowej bezkarności autorów za ich oszałamiające idee.

Zasłużony autorytet nauki jest często używany do nadania większej wagi objawieniom wszelkiego rodzaju proroków, uzdrowicieli, badaczy „bytów astralnych”, śladów pozaziemskich kosmitów itp. W tym przypadku używana jest również terminologia półnaukowa . Krytyczne uwagi na temat „nietradycyjnych” poglądów są odrzucane w prosty, ale rzetelny sposób: tradycyjna nauka ma charakter konserwatywny i dąży do prześladowania wszystkiego, co nowe i niezwykłe - D. Bruno został spalony, Mendel nie został zrozumiany itp.

Pojawia się pytanie: Czy można wyraźnie odróżnić idee pseudonaukowe od właściwej nauki? W tym celu kilka zasad zostało sformułowanych przez różne obszary metodologii nauki. Jeden z nich został nazwany zasada weryfikacji: każde pojęcie lub osąd ma znaczenie, jeśli można je sprowadzić do bezpośredniego doświadczenia lub stwierdzeń na jego temat, tj. empirycznie weryfikowalne. Jeżeli nie można znaleźć czegoś, co dałoby się empirycznie naprawić dla takiego osądu, to uważa się, że albo reprezentuje on tautologię, albo jest bez znaczenia.

Ponieważ koncepcje opracowanej teorii, z reguły nie dają się sprowadzić do danych eksperymentalnych, dokonano dla nich złagodzenia: możliwa jest również weryfikacja pośrednia. Na przykład nie można wskazać eksperymentalnego odpowiednika pojęcia „kwark” (hipotetyczna cząstka). Ale teoria kwarków przewiduje szereg zjawisk, które można już ustalić empirycznie, eksperymentalnie. A tym samym pośrednio zweryfikuj samą teorię. Zasada weryfikacji pozwala, w pierwszym przybliżeniu, oddzielić wiedzę naukową od wiedzy wyraźnie pozanaukowej. Nie pomoże jednak, gdy system idei jest uszyty w taki sposób, aby absolutnie wszystkie możliwe fakty empiryczne można było zinterpretować na jego korzyść - ideologię, religię, astrologię itp.

W takich przypadkach warto użyć do innej zasady rozróżniania nauki i nie-nauki, zaproponowanej przez największego filozofa XX wieku. K. Poppera, - zasada fałszowania. Stwierdza, że ​​kryterium naukowego statusu teorii jest jej falsyfikowalność lub obalenie. Innymi słowy, tylko ta wiedza może rościć sobie tytuł „naukowy”, co w zasadzie jest obalające. Mimo pozornie paradoksalnej formy, a może właśnie dlatego, zasada ta ma proste i głębokie znaczenie. K. Popper zwrócił uwagę na znaczną asymetrię procedur potwierdzania i obalania w poznaniu.

Żadna ilość spadających jabłek nie wystarczy, aby ostatecznie potwierdzić prawdziwość prawa powszechnego ciążenia. Jednak wystarczy jedno jabłko, aby odlecieć od Ziemi, aby uznać to prawo za fałszywe. Dlatego jest to próba fałszowania, tj. obalenie teorii powinno być najskuteczniejsze pod względem potwierdzania jej prawdziwości i naukowego charakteru. Można jednak zauważyć, że konsekwentna zasada falsyfikacji czyni każdą wiedzę hipotetyczną, tj. pozbawia go kompletności, absolutności, niezmienności. Ale to chyba nie jest złe: to ciągła groźba fałszerstw utrzymuje naukę „w dobrej kondycji”, nie pozwala jej popaść w stagnację, jak mówią, spocząć na laurach.

Krytyka jest niezbędnaźródłem rozwoju nauki i integralną cechą jej wizerunku. Jednocześnie można zauważyć, że naukowcy zajmujący się nauką uważają, że kwestia rozróżnienia między nauką a nienauką nie jest zbyt skomplikowana. Intuicyjnie odczuwają prawdziwy i pseudonaukowy charakter wiedzy, kierując się pewnymi normami i ideałami o charakterze naukowym, pewnymi standardami pracy badawczej. Te ideały i normy nauki wyrażają idee dotyczące celów działalności naukowej i sposobów ich osiągania. Chociaż są one historycznie zmienne, pewien niezmiennik takich norm pozostaje we wszystkich epokach, ze względu na jedność stylu myślenia ukształtowanego jeszcze w Starożytna Grecja. Nazywa się to racjonalnym. Ten styl myślenia opiera się w istocie na dwóch fundamentalnych ideach: - naturalny porządek, czyli uznanie istnienia uniwersalnych, regularnych i dostępnych dla rozumu związków przyczynowych; oraz dowód formalny jako główny środek uzasadnienia wiedzy.

W ramach racjonalnego stylu myślenia wiedza naukowa charakteryzuje się następującymi kryteriami metodologicznymi:

- uniwersalność, czyli wykluczenie jakichkolwiek konkretów – miejsca, czasu, tematu itp.;

Spójność lub konsekwencja zapewniana przez dedukcyjny sposób wdrażania systemu wiedzy;

Prostota; za dobrą uważa się teorię wyjaśniającą możliwie najszerszy zakres zjawisk, opartą na minimalnej liczbie zasad naukowych;

potencjał wyjaśniający;

Obecność mocy predykcyjnej.

Te ogólne kryteria, czyli normy o charakterze naukowym, są stale włączane do standardu wiedzy naukowej. Bardziej szczegółowe normy określające schematy działalności badawczej zależą od obszarów przedmiotowych nauki oraz od społeczno-kulturowego kontekstu narodzin określonej teorii.

Wykłady: Weryfikacja i fałszowanie, Wykład X

Demarkacja w nauce - określenie granic między naukami empirycznymi i teoretycznymi, nauką i filozofią, wiedzą naukową i pozanaukową.

Weryfikacja, weryfikowalność(łac. weryfikacja- udowodnić prawdziwość) - pojęcie metodologii nauki, charakteryzujące możliwość ustalenia prawdziwości twierdzeń naukowych w wyniku ich empirycznej weryfikacji. (Mikeshina)

Zasada weryfikacji: zdanie jest naukowe tylko wtedy, gdy jest weryfikowalne, to znaczy, że jego prawdziwość może być formalnie ustalona przez obserwację.

Jeśli zdanie jest nieweryfikowalne, to jest nienaukowe.

Weryfikacja- weryfikacja, weryfikowalność, metoda potwierdzania za pomocą dowodów wszelkich stanowisk teoretycznych, algorytmów, programów i procedur poprzez porównanie ich z danymi eksperymentalnymi (referencyjnymi lub empirycznymi), algorytmami i programami. Zasadę weryfikacji zaproponowało Koło Wiedeńskie.

Karl Popper (1902-1994), austriacki i brytyjski filozof i socjolog. Czasami brał udział w pracach Koła Wiedeńskiego, ale nie zgadzał się z głównymi ideami neopozytywizmu - redukcjonistyczną interpretacją wiedzy teoretycznej, zasadą weryfikacji i negatywnym nastawieniem do roli idei filozoficznych w rozwoju nauki .

Jedną z centralnych idei filozofii nauki, zdaniem Poppera, jest znalezienie kryterium demarkacji między nauką a nienauką, dla której zaproponował zasadę falsyfikowalności jako fundamentalną możliwość obalenia każdej teorii naukowej. . Teorie naukowe zawsze mają swój przedmiot i ograniczenia, dlatego muszą być zasadniczo falsyfikowalne.

Tylko takie systemy wiedzy można zaliczyć do teorii naukowych, dla których można znaleźć „potencjalnych falsyfikatorów”, tj. stanowiska sprzeczne z teoriami, których prawdziwość ustalają procedury eksperymentalne. studia naukowe prawdziwy świat i stara się uzyskać prawdziwy opis świata. Droga do takiej wiedzy prowadzi przez stawianie hipotez, konstruowanie teorii, znajdowanie ich obalania, dążenie do nowych teorii. Postęp nauki polega na tym, że następstwo teorii zastępuje się nawzajem, obalając je i stawiając nowe problemy. Popper uznał więc proces rozwoju wiedzy naukowej za jeden z przejawów ewolucji historycznej, kreśląc paralelę między ewolucja biologiczna oraz wzrost wiedzy naukowej.

Inną istotną cechą koncepcji wzrostu wiedzy naukowej Poppera jest antyindukcjonizm: ostro krytykuje on poznawcze znaczenie indukcji i za metodę rozwijania wiedzy naukowej uważa metodę stawiania nowych hipotez. Jakakolwiek wiedza naukowa ma, zdaniem Poppera, charakter hipotetyczny, domysły, obarczona jest błędami. Tę tezę o fundamentalnej omylności ludzkiej wiedzy nazwano fallibilizmem.

Pod koniec lat 60. Popper przedstawił oryginalną teorię trzech światów: fizycznego (byty fizyczne), umysłowego (stany duchowe człowieka, świadome i nieświadome) oraz wiedzy obiektywnej (teorie i problemy naukowe, mity wyjaśniające, dzieła sztuki), nieredukowalnej do nawzajem. Generowanie nowych pomysłów, hipotez i teorii jest wynikiem interakcji wszystkich trzech światów.

Krytyka koncepcji Poppera

Koncepcja wzrostu wiedzy zaproponowana przez Poppera bardziej fenomenologicznie niż strukturalnie opisywała procesy powstawania nowych teorii. Sformułowane przez niego wymagania metodologiczne nie zawsze były zgodne z prawdziwa historia nauki ścisłe. Odkrycie faktów empirycznych, które są sprzeczne z wnioskami teorii, jest według Poppera jej falsyfikacją, a sfalsyfikowaną teorię należy odrzucić. Ale, jak pokazuje historia nauki, w tym przypadku teoria nie jest odrzucana, zwłaszcza jeśli jest to teoria fundamentalna. W koncepcji programów badawczych opracowanej przez I. Lakatos uwzględniono stabilność fundamentalnych teorii w odniesieniu do poszczególnych faktów-fałszerzy.

Koncepcja metodologiczna Poppera została nazwana „falsyfikacjonizm”- główną zasadą jest zasada falsyfikowalności:

  1. rozważania logiczne, weryfikacja twierdzeń naukowych, ich uzasadnienie za pomocą danych empirycznych, żadne twierdzenie ogólne nie może być całkowicie uzasadnione twierdzeniami szczegółowymi, twierdzenia szczegółowe mogą je tylko obalić;
  2. asymetria między potwierdzeniem a odrzuceniem ogólne propozycje i krytyka indukcji jako metody uzasadniania wiedzy i doprowadził Poppera do falsyfikacjonizmu;
  3. odrzuca istnienie kryterium prawdy - kryterium, które pozwoliłoby nam odróżnić prawdę od ogółu naszych przekonań;
  4. ani spójność, ani potwierdzenie przez dane empiryczne nie mogą służyć jako kryterium prawdy, każda fantazja może być przedstawiona w spójnej formie, a fałszywe przekonania są często potwierdzane;
  5. Jedyne, co możemy zrobić, to wykryć kłamstwo w naszych poglądach i odrzucić je, zbliżając się w ten sposób do prawdy;
  6. wiedza naukowa i filozofia nauki opierają się na dwóch fundamentalnych ideach: idei, że nauka może i daje nam prawdę, oraz idei, że nauka uwalnia nas od złudzeń i uprzedzeń. Popper odrzucił pierwszą. Jednak druga idea nadal stanowiła solidną podstawę epistemologiczną dla jego koncepcji metodologicznej.

„Falsyfikowalność” i „Falsyfikacja”:

  1. Popper przeciwstawia teorię twierdzeniom empirycznym,
  2. całość wszystkich możliwych twierdzeń empirycznych lub „podstawowych” tworzy jakąś empiryczną podstawę nauki,
  3. teorię naukową można wyrazić jako zbiór ogólnych stwierdzeń typu „Wszystkie tygrysy są w paski”, każdą teorię można uznać za zabraniającą istnienia pewnych faktów lub mówiącą o fałszywości podstawowych twierdzeń,
  4. podstawowe zdania zakazane przez teorię, wzywa Popper „potencjalni fałszerze” teoria – bo jeśli zaistnieje zakazany przez teorię fakt, a opisujące go zdanie podstawowe jest prawdziwe, to teorię uważa się za obaloną,

„Potencjalne” – bo te zdania mogą falsyfikować teorię, ale tylko wtedy, gdy ich prawdziwość zostanie ustalona – stąd pojęcie falsyfikowalności definiuje się następująco: „teoria jest falsyfikowalna, jeśli klasa jej potencjalnych falsyfikatorów nie jest pusta”. Podstawowe zdanie A wyprowadza się z teorii T, tj. Zgodnie z regułami logiki zdanie „Jeżeli T, to A” jest prawdziwe. Zdanie A okazuje się fałszywe, a potencjalny falsyfikator teorii nie-A jest prawdziwy. Od „Jeżeli T, to A” i „nie-A” następuje po „nie-T”, tj. teoria T jest fałszywa i sfałszowana. Sfałszowaną teorię należy odrzucić.

Najważniejsza metoda poznania naukowego jest indukcyjna, wiedza naukowa zaczyna się od obserwacji i stwierdzeń faktów. Wynikiem falsyfikacjonizmu jest przyjęty przez Poppera schemat rozwoju wiedzy naukowej: z głębokim przekonaniem filozoficznym nie mamy kryterium prawdy i jesteśmy w stanie wykryć i uwydatnić tylko kłamstwa:

  1. rozumienie wiedzy naukowej jako zbioru domysłów o świecie - domysłów, których prawdziwości nie można ustalić, ale ich fałszywość można wykryć;
  2. kryterium demarkacji jest tylko ta wiedza naukowa, która jest falsyfikowalna;
  3. metoda nauki - próba i błąd.

Zmiana teorii naukowych, o wzroście ich prawdziwej treści, o wzroście stopnia prawdopodobieństwa, wtedy można odnieść wrażenie, że widzi postęp w ciągu kolejnych teorii T 1 ⇒ T 2 ⇒ T 3… Aby rozwiązać problemy, budujemy teorie, których upadek generuje nowe problemy i tak dalej. Dlatego ogólny schemat rozwoju nauki ma następującą postać:

Tutaj P 1 jest pierwotnym problemem; T 1 , T 2 ,...,T n - teorie wysuwane do jego rozwiązania; jego - weryfikacja, falsyfikacja i eliminacja wysuwanych teorii; P 2 to nowy, głębszy i bardziej złożony problem pozostawiony nam przez wyeliminowane teorie. „Z tego diagramu jasno wynika, że ​​postęp nauki nie polega na gromadzeniu wiedzy, a jedynie na wzroście głębi i złożoności problemów, które rozwiązujemy.

Koncepcje Poppera a metodologia pozytywistyczna:

1) Źródło wiedzy. Pozytywiści logiczni – jedynym źródłem wiedzy jest percepcja zmysłowa, proces poznania zawsze zaczyna się od „czystej” obserwacji. Popper: nie ma fundamentalnego źródła: wiedza, każde źródło jest mile widziane, każde zdanie jest otwarte na krytyczną analizę, wiedza nie może zaczynać się od niczego – od tabula rasa – i nie może zaczynać się od obserwacji, postęp wiedzy polega głównie na modyfikacji wcześniejszych wiedza.

2) Podstawa empiryczna. Pozytywiści logiczni nakreślili ostrą granicę między wiedzą empiryczną a teoretyczną i uznali język empiryczny za niewątpliwy solidny fundament nauki. Popper: nie ma dychotomii empiryczno-teoretycznej: wszystkie terminy są teoretyczne, język Poppera zależy od teorii, jego propozycje można sfalsyfikować, służy on nie jako podstawa uzasadniania nauki, ale jako konwencjonalnie akceptowana podstawa do falsyfikacji teorii.

3) Demarkacja. Pozytywiści logiczni przyjęli weryfikowalność jako kryterium demarkacji. Popper - falsyfikowalność. Różnica: pozytywiści logiczni widzą najbardziej charakterystyczną cechę nauki w słuszności jej postanowień. popper - stara się podkreślić hipotetyczne i zawodne zapisy naukowe, ryzyko, z którym wiąże się rozwój nauki - różnica prowadzi do dalszych głębokich rozbieżności między dwoma koncepcjami metodologicznymi.

4) Związek z filozofią: pozytywiści logiczni starali się zdyskredytować i zniszczyć metafizykę. popper zajmuje się problemem demarkacji, granica między nauką a metafizyką zaciera się dla niego. Dostrzega bardziej wpływ metafizyki na rozwój nauki. Pozytywiści logiczni: staraj się unikać wszelkich stwierdzeń metafizycznych, Popper buduje metafizyczną koncepcję „trzech światów”.

5) Metoda nauki: logiczni pozytywiści (?) indukcja: przejście od faktów do ich uogólnień. popper odrzucił indukcję, jego metoda jest metodą prób i błędów, obejmująca jedynie rozumowanie dedukcyjne.

6) Model rozwoju naukowego. Pozytywiści logiczni mogli jedynie zakładać prymitywną kumulatywność: każdy kolejny krok w rozwoju wiedzy polega na uogólnieniu wcześniejszych wyników: nie ma przewrotów pojęciowych, nie ma utraty wiedzy. Model rozwoju wiedzy Poppera nie ma charakteru kumulacyjnego: nie uznaje on żadnej akumulacji.

7) Zadania filozofii nauki. Główne zadanie badań metodologicznych dla pozytywistów logicznych sprowadzało się do logicznej analizy języka nauki, do ustalenia a priori standardów o charakterze naukowym. Główne zadanie jego koncepcji metodologicznej.

pozytywiści logiczni, Rudolf Carnap

Celem nauki jest „stworzenie bazy danych empirycznych w postaci faktów naukowych, które należy zrewidować w języku, który nie pozwala na dwuznaczność i brak wyrazistości”.

  1. Język jest granicą myśli.
  2. Świat jest tylko jeden – świat faktów i wydarzeń.
  3. Zdanie jest obrazem świata, ponieważ ma taką samą logiczną formę jak świat.
  4. Zdania złożone składają się ze zdań elementarnych, które odnoszą się bezpośrednio do faktów.
  5. Najwyższy jest niewyrażalny.

Opierając się na Wittgensteinie i Russellu, Carnap uważa analizę struktury wiedzy przyrodniczej za przedmiot filozofii nauki w celu wyjaśnienia podstawowych pojęć nauki za pomocą aparatu logiki matematycznej.

Mieć pytania?

Zgłoś literówkę

Tekst do wysłania do naszych redaktorów: