Jamesowi B. Conantowi, który tę pracę inspirował



Yüklə 0,71 Mb.
səhifə3/11
tarix14.12.2017
ölçüsü0,71 Mb.
#15800
1   2   3   4   5   6   7   8   9   10   11

W wieku XVIII na przykład niewiele poświęcano uwagi eksperymentalnym pomiarom przyciągania elektrycznego za pomocą takich przyrządów jak waga szalkowa. Ponieważ nie dawały one spójnych i jasnych wyników, nie można było wykorzystywać ich do uszczegółowienia paradygmatu, na którym były oparte. Dlatego właśnie pozostawały one „gołymi" faktami, nie powiązanymi i nie dającymi się powiązać ze stale rozwijającymi się badaniami zjawisk elektrycznych. Dopiero retrospektywnie, na gruncie kolejnego paradygmatu, można dostrzec, jakie cechy zjawisk elektrycznych ujawniały te eksperymenty. Oczywiście, Coulomb i jego współcześni dysponowali już tym późniejszym paradygmatem, a w każdym razie takim, który w zastosowaniu do zagadnień przyciągania prowadził do tych samych przewidywań. Dlatego właśnie Coulomb mógł zaprojektować przyrząd, który dawał wyniki dopuszczalne przy uszczegółowieniu paradygmatu. Ale również dlatego wyniki te nikogo nie zaskoczyły, a wielu współczesnych Coulombowi uczonych mogło je z góry przewidzieć. Nawet w eksperymencie, którego celem jest uszczegółowienie paradygmatu, nie chodzi o odkrycie czegoś nieoczekiwanego.

Jeśli jednak w nauce normalnej nie dąży się do czegoś zasadniczo nowego, jeśli niepowodzenie w uzyskaniu wyniku bliskiego przewidywanemu oznacza zazwyczaj niepowodzenie uczonego, to czemu problemy te są w ogóle podejmowane? Częściowo odpowiedzieliśmy już na to pytanie. Przynajmniej dla samego uczonego wyniki uzyskane w toku normalnych badań są ważne, rozszerzają bowiem zakres stosowalności paradygmatu i zwiększają ścisłość tych zastosowań. Odpowiedź ta jednak nie tłumaczy, dlaczego uczeni wkładają w takie badania tyle entuzjazmu i zapału. Nikt przecież nie zdecyduje się poświęcić wielu lat pracy na ulepszanie spektrometru lub na uściślanie rozwiązania problemu drgających strun tylko ze względu na znaczenie informacji, jakie w wyniku tego uzyska. Dane, jakie można uzyskać, obliczając efemerydy albo dokonując dalszych pomiarów za pomocą istniejących już przyrządów, są często równie ważne, a jednak uczeni odnoszą się zazwyczaj do takich badań z lekceważeniem, gdyż polegają one w zasadniczej mierze na powtarzaniu zabiegów, które wielokrotnie już wykonano. To lekceważenie może być właśnie kluczem do zagadki: chociaż wyniki badań normalnych można przewidzieć — często z taką nawet dokładnością, że to, co pozostaje do odkrycia, jest już samo przez się mało interesujące — to jednak sposób, w jaki wynik ten można uzyskać, pozostaje nader wątpliwy. Rozwiązanie problemu w ramach badań normalnych polega na osiągnięciu przewidywanego wyniku w nowy sposób i wymaga rozwikłania skomplikowanych łamigłówek matematycznych, teoretycznych i instrumentalnych. Uczony, który osiąga tu sukces, wystawia sobie świadectwo kompetencji; wyzwanie, jakie rzucają mu takie łamigłówki, jest istotnym czynnikiem motywującym jego aktywność.



Terminy łamigłówka i rozwiązywanie łamigłówek pozwolą lepiej ująć niektóre istotne kwestie wały16. Przedsięwzięcia naukowe w swej całości okazują się niekiedy rzeczywiście użyteczne, odkrywają nowe obszary, wskazują na porządek, pozwalają sprawdzić przyjmowane od dawna poglądy. Wszelako jednostka zajmująca się normalnym problemem badawczym niemal nigdy nie czyni czegoś takiego. Z chwilą gdy zaangażuje się ona w badania, motywacja jej postępowania jest inna. Jest nią przekonanie, że jeśli tylko zdobędzie dość umiejętności, zdoła rozwiązać łamigłówki, których nikt dotąd nie rozwiązał, a co najmniej nie rozwiązał tak dobrze. Wiele najtęższych umysłów naukowych poświęcało całą swoją zawodową uwagę takim wymagającym łamigłówkom. W większości wypadków poszczególne dziedziny specjalizacji nie stwarzają żadnych innych możliwości prócz tej właśnie, przez co bynajmniej nie stają się mniej fascynujące dla prawdziwych zapaleńców.

Przejdźmy teraz do kolejnego, trudniejszego i bardziej znaczącego aspektu analogii między łamigłówkami a problemami nauki normalnej. Do tego, by uznać problem za łamigłówkę, nie wystarczy to, że ma on zagwarantowane rozwiązanie. Istnieć muszą ponadto reguły, które wyznaczają tak zakres możliwych do przyjęcia rozstrzygnięć, jak



i metody, za pomocą których można je uzyskać. Rozwiązanie układanki nie polega po prostu na „ułożeniu jakiegoś obrazka". Zarówno dziecko, jak współczesny artysta potrafi to zrobić, rozrzucając wybrane kawałki, jako abstrakcyjne kształty, na jakimś neutralnym tle. Powstały w ten sposób obrazek może być o wiele lepszy, a z pewnością będzie bardziej oryginalny od całości, z której pochodzą wybrane fragmenty. Jednak obrazek ten nie będzie rozwiązaniem. Aby je uzyskać, trzeba wykorzystać wszystkie fragmenty, obrócić czystą stroną na dół i tak długo cierpliwie je przekładać, aż wszystkie zaczną pasować do siebie. Na tym m.in. polegają reguły rozwiązywania układanki. Podobne ograniczenia zakresu możliwych do przyjęcia rozwiązań łatwo wskazać w wypadku krzyżówek, zagadek, problemów szachowych itd.

Gdybyśmy zgodzili się używać terminu „reguO ła" w szerszym sensie — równoważnym nieluedy „ustalonemu pu^owLwjd^nia" lub „powziętemu z góry przekonaniu" — to problemy dostępne~na / gruncie określonej tradycji badawczej wykazywałyby cechy bardzo zbliżone do wyżej wskazanych. Ktoś, kto buduje przyrząd przeznaczony do określenia długości fal świetlnych, nie może się zadowolić tym, że jego aparat przyporządkowuje określone liczby poszczególnym liniom widma. Nie jest on po prostu wynalazcą lub mierniczym. Przeciwnie, musi wykazać, analizując działanie swego przyrządu w kategoriach ustalonej teorii optycznej, że uzyskane przez niego liczby włączone być mogą do teorii jako długości fal. Jeśli jakieś niejasności



znaczały możliwe wyniki analiz chemicznych, informowały chemików, czym są atomy i cząsteczki chemiczne, związki i mieszaniny17. To samo znaczenie mają i tę samą funkcję pełnią dziś równania Maxwella i prawa termodynamiki statystycznej.


i



I

1-

p

r

i

ii

r



Nie jest to jednak ani jedyny, ani najbardziej interesujący rodzaj reguł, na jakie wskazują badania historyczne. Na poziomie niższym czy bardziej konkretnym niż poziom praw i teorii doszukać się można na przykład całego mnóstwa przekonań związanych z preferowanymi rodzajami przyrządów i uprawnionymi sposobami posługiwania się nimi. Dla rozwoju siedemnastowiecznej chemii zasadnicze znaczenie miały zmieniające się poglądy na rolę, jaką w analizie chemicznej odgrywa ogień18. W wieku XIX Helmholtz napotkał silny opór fizjologów, kiedy twierdził, że doświadczenia fizyczne mogą z powodzeniem być stosowane do badań w ich dziedzinie19. W naszym stuleciu interesująca historia chromatografii chemicznej20 znów wskazuje, jak przekonania dotyczące aparatury ba- i dawczej, w równej mierze co prawa i teorie, dostarczają uczonym ich reguł gry. Kiedy badamy odkrycie promieni X, wykryć możemy przyczyny tego rodzaju przekonań.

Inną cechą nauki — mniej lokalną i tymczasową, choć również nie niezmienną—jaką na ogólniejszym poziomie ujawniają stale badania historyczne, jest jej zależność od przekonań quasi-meta- fizycznych. Gdzieś po roku 1630 na przykład, zwłaszcza po ukazaniu się niezwykle wpływowych prac Kartezjusza, większość fizyków sądziła, że wszechświat składa się z mikroskopijnych korpus- kuł i że wszystkie zjawiska przyrody można wytłumaczyć przez odwołanie się do ich kształtu, wielkości, ruchu i wzajemnego oddziaływania. Przekonania te wywierały wpływ zarówno metafizyczny, jak i metodologiczny. W płaszczyźnie metafizycznej mówiły one uczonym, jakiego rodzaju byty istnieją we wszechświecie, a jakich w nim nie ma: istnieje tylko materia w ruchu. W płaszczyźnie metodologicznej mówiły, jaką postać mają mieć ostateczne prawa i podstawowe wyjaśnienia naukowe: prawa ujmować mają ruch cząstek i ich oddziaływania, wyjaśnienia zaś redukować muszą każde zjawisko przyrody do ruchów i oddziaływań wskazanych przez te prawa. Co ważniejsze, korpuskularna koncepcja wszechświata mówiła uczonym, jakie powinny być ich problemy badawcze. Na przykład chemik przyjmujący —jak Boyle — tę nową filozofię zwracał szczególną uwagę na reakcje chemiczne, które potraktować można jako transmutacje. O wiele jaśniej bowiem niż wszelkie inne ujawniały one proces przegrupo-



Priorytet Paradygmatów

Aby wykryć relacje zachodzące między regułami, paradygmatami i nauką normalną, zastanówmy się najpierw, w jaki sposób histoiyk wyodrębnia konkretne przekonania, opisane wyżej jako przyjęte reguły. Dokładna historyczna analiza danej dziedziny w określonym czasie ujawnia zbiór powtarzających się ^wasi-standardowych ilustracji rozmaitych teorii w ich pojęciowych, doświadczalnych i instrumentalnych zastosowaniach. Są to właśnie paradygmaty obowiązujące w danej społeczności, przedstawiane w podręcznikach, wykładach i ćwiczeniach laboratoryjnych. Studiując je i opierając się na nich w praktyce, członkowie tej społeczności uczą się swojego zawodu. Oczywiście historyk wykryje ponadto cienisty obszar osiągnięć, których status pozostaje wątpliwy, ale zrąb rozwiązanych problemów i przyswojonych technik badawczych jest zwykle wyraźny. Mimo tych czy innych niejasności paradygmaty dojrzałej społeczności naukowej da się określić stosunkowo łatwo.

Określenie wspólnych paradygmatów to jednak nie to samo co określenie wspólnych reguł. To

uczonego w ramach określonej tradycji badawczej nauki normalnej? Co znaczy wyrażenie „bezpośrednie badanie paradygmatów"? Częściową odpowiedź na tego typu pytania, chociaż w zupełnie innym kontekście, podał zmarły niedawno Ludwig Wittgenstein. Wobec tego, że jest to kontekst bardziej elementarny i znany, ułatwimy sobie zadanie, zapoznając się najpierw z jego sposobem argumentacji. Co musimy wiedzieć, pytał Wittgenstein, aby móc posługiwać się takimi terminami jak „krzesło", „liść" czy „gra" w sposób jednoznaczny, nie wywołując sporów21?

Na to stare pytanie przeważnie odpowiadano, że musimy, świadomie lub intuicyjnie, wiedzieć, czym jest krzesło, liść, gra. Innymi słowy, uchwycić musimy właściwości, jakie przysługują wszystkim grom i tylko grom. Wittgenstein doszedł jednak do wniosku, że sposób, w jaki korzystamy z języka, i charakter świata, do którego go stosujemy, nie wymaga istnienia takiego zespołu cech. Chociaż rozpatrzenie niektórych cech wspólnych pewnej liczbie gier, krzeseł czy liści pomaga nam często nauczyć się stosowania danego terminu, nie istnieje jednak taki zespół cech, które można by jednocześnie przypisać wszystkim elementom danej klasy i tylko im. Gdy jakąś nie znaną nam dotąd czynność nazywamy grą, postępujemy tak dlatego, że dostrzegamy jej bliskie „podobieństwo rodzinne" z tymi czynnościami, które uprzednio nauczyliśmy się tak nazywać. Krótko mówiąc, według Wittgensteina gry, krzesła czy liście to naturalne rodziny, a każdą z nich konstytuuje sieć zachodzących na siebie i krzyżujących się podobieństw. Istnienie tego rodzaju sieci jest wystarczającym warunkiem powodzenia w identyfikowaniu odpowiednich obiektów i czynności. Tylko w wypadku, gdyby rodziny, które nazywamy, zachodziły na siebie i stopniowo przechodziły jedna w drugą — tzn. gdyby nie istniały rodziny naturalne — powodzenie w identyfikacji i nazywaniu świadczyłoby o istnieniu zespołu wspólnych cech odpowiadających każdej nazwie ogólnej, z jakiej korzystamy.



Ze zbliżoną sytuacją możemy mieć do czynienia w wypadku rozmaitych problemów badawczych i technik, jakie pojawiają się w obrębie jednej tradycji nauki normalnej. Łączy je nie to, że zgodne są z jakimś zespołem explicite sformułowanych lub nawet w pełni wykrywalnych reguł i założeń, które nadają danej tradycji swoisty charakter i decydują o jej wpływie na umysłowość uczonych. Wiązać je może wzajemne podobieństwo i wzorowanie się na tym lub innym fragmencie wiedzy, który uznany już został przez daną społeczność za jedno z jej trwałych osiągnięć. Uczeni opierają się w swoich badaniach na modelach, które poznali, zdobywając wykształcenie, a potem korzystając dziej skomplikowane; coraz częściej ma on do czynienia z zagadnieniami, których rozwiązanie nie jest już tak oczywiste. Jednak wciąż są one modelowane na wzór poprzednich osiągnięć, podobnie jak problemy, którymi będzie się on normalnie zajmował w swoj ej przyszłej, samodzielnej pracy badawczej. Wolno przypuszczać, że w jakimś punkcie tej drogi uczony sam intuicyjnie wyabstrahuje na swój użytek reguły tej gry, nie mamy jednak zbyt mocnych podstaw, by tak sądzić. Chociaż wielu uczonych dobrze i z łatwością rozprawia na temat poszczególnych hipotez, jakie leżą u podstaw konkretnych bieżących prac badawczych w ich dziedzinie, nic górują oni zazwyczaj nad laikiem, gdy chodzi o charakterystykę podstaw tej dziedziny oraz jej uprawnionych problemów i metod. Jeśli w ogóle uzyskali zrozumienie tych abstrakcyjnych zagadnień, okazują to głównie poprzez umiejętność prowadzenia płodnych badań. Umiejętność tę można jednak wytłumaczyć bez odwoływania się do znajomości hipotetycznych reguł gry.

Te konsekwencje naukowego kształcenia mają też odwrotną stronę, co wskazuje zarazem na trzecią rację, dla której wolno nam sądzić, że paradygmaty kierują pracą badawczą zarówno przez bezpośrednie jej modelowanie, jak i poprzez wyabstrahowane reguły. Nauka normalna obywać się może bez reguł tylko dopóty, dopóki odpowiednia społeczność naukowa akceptuje bez zastrzeżeń uzyskane poprzednio rozwiązania poszczególnych zagadnień. Reguły uzyskiwać więc mogą znaczenie, a obojętność wobec nich znikać, gdy rodzi się poczucie, że paradygmaty czy też modele są niepewne. Tak właśnie dzieje się rzeczywiście. Zwłaszcza okres przedparadygmatyczny z reguły odznacza się występowaniem zasadniczych dyskusji na temat uprawnionych metod, problemów i standardów rozwiązań, choć dyskusje te bardziej sprzyjają ukształtowaniu się szkół niż uzyskaniu porozumienia. Wspominaliśmy już poprzednio o tego rodzaju dyskusjach w optyce i w nauce o elektryczności. Jeszcze większą rolę odegrały one w rozwoju siedemnastowiecznej chemii i dziewiętnastowiecznej geologii22. Co więcej, dyskusje tego rodzaju nie znikają raz na zawsze z chwilą ukształtowania się paradygmatu. Aczkolwiek cichną w okresie sukcesów nauki normalnej, odżywają na nowo w okresie poprzedzającym rewolucje naukowe i w trakcie tych rewolucji, a więc wtedy, gdy paradygmat zostaje po raz pierwszy zaatakowany i następnie ulega zmianie. Przejście od mechaniki Newtona do mechaniki kwantowej zrodziło wiele dyskusji na temat istoty i standardów wiedzy fizycznej, przy czym niektóre z nich ciągną się nadal23. Żyją dziś czaj bardzo szerokiemu gronu uczonych. Z paradygmatami tak być nie musi. Badacze odległych od siebie dziedzin — powiedzmy, astronomii i systematyki roślin — mogą być wykształceni na zupełnie innych osiągnięciach opisanych w zgoła różnych książkach. I nawet ludzie zajmujący się tymi samymi lub bliskimi sobie dziedzinami, zaczynając od studiowania tych samych niemal książek i osiągnięć, mogą później w toku dalszej specjalizacji zawodowej dojść do różnych paradygmatów.

Rozpatrzmy jeden tylko przykład — liczne i zróżnicowane środowisko fizyków. Wszyscy oni uczą się dzisiaj, powiedzmy, praw mechaniki kwantowej i większość z nich korzysta z tych praw na pewnym etapie swoich badań czy w nauczaniu. Nie uczą się jednak wszyscy tych samych zastosowań tych praw, a tym samym zmiany zachodzące w uprawianiu mechaniki kwantowej nie dotyczą ich w jednakowym stopniu. Na drodze do naukowej specjalizacji niektórzy z nich mają do czynienia tylko z podstawowymi zasadami mechaniki kwantowej. Inni badają szczegółowo paradyg- matyczne zastosowania tych zasad do chemii, jeszcze inni — do fizyki ciała stałego itd. To, jaki sens ma dla każdego z nich mechanika kwantowa, zależy od tego, jakich wykładów słuchał, jakie teksty czytał, jakie studiował czasopisma. Jakkolwiek więc zmiana praw mechaniki kwantowej byłaby czymś rewolucyjnym dla nich wszystkich, to zmiana dotycząca tylko takiego lub innego paradyg- matycznego zastosowania mechaniki kwantowej może się ograniczać w swoim rewolucyjnym oddziaływaniu do określonej podgrupy specjalistów. Dla pozostałych przedstawicieli tej specjalności i dla tych, którzy zajmują się innymi działami fizyki, zmiana taka wcale nie musi być rewolucją. Krótko mówiąc, chociaż mechanika kwantowa (lub dynamika Newtona czy też teoria elektromagnetyczna) jest paradygmatem dla wielu grup specjalistów, nie jest ona tym samym paradygmatem dla wszystkich. Dlatego też może ona wyznaczać jednocześnie wiele — krzyżujących się, ale nie pokrywających się — tradycji nauki normalnej. Rewolucja w ramach jednej z tych tradycji nie musi rozciągać się na wszystkie pozostałe.



Jeszcze jeden przykład skutków specjalizacji wzmocnić może siłę przekonywającą tych rozważań. Badacz, który chciał się dowiedzieć, na czym — zdaniem uczonych — polega teoria atomowa, zwrócił się do wybitnego fizyka oraz do słynnego chemika z pytaniem, czy pojedynczy atom helu jest cząsteczką. Obaj odpowiedzieli bez wahania, ale ich odpowiedzi były różne. Dla chemika atom helu był cząsteczką, gdyż zachowywał się tak, jak wymaga tego kinetyczna teoria gazów. Dla fizyka natomiast atom helu nie był cząsteczką, przysługuje mu bowiem widmo molekularne24. Obaj mówili dygmacie. Taki jest bowiem rezultat pojawiania się zasadniczo nowych faktów i teorii. Niebacznie powołane do życia w grze opartej na pewnym zespole reguł, wymagają one — by mogły zostać ; zasymilowane — opracowania nowego zespołu reguł. Z chwilą gdy stały się częścią nauki, działalność badawcza — przynajmniej w tych dziedzinach, których nowo odkryte fakty i teorie dotyczą — nie pozostaje nigdy tym samym, czym była dotąd.

Obecnie zająć się musimy pytaniem, w jaki sposób zmiany tego rodzaju zachodzą, przy czym najpierw omówimy odkrycia nowych faktów, a następnie powstawanie nowych teorii. Rozróżnienie między wykrywaniem nowych faktów a formułowaniem nowych teorii okaże się jednak z miejsca sztucznym uproszczeniem. Jego sztuczność jest kluczem do szeregu zasadniczych tez niniejszej rozprawy. Rozważając w tym rozdziale wybrane odkrycia, przekonamy się szybko, że nie są one izolowanymi zdarzeniami, lecz rozciągłymi w czasie epizodami o regularnie powtarzalnej strukturze. Początek swój biorą one ze świadomości anomalii, tj. z uznania, że przyroda gwałci w jakiejś mierze wypływające z paradygmatu przewidywania, które rządzą nauką normalną. Dalszym krokiem są mniej lub bardziej rozległe badania obszaru, na którym ujawniają się anomalie. Epizod zamyka się dopiero wtedy, gdy teoria paradygmatyczna zostaje tak dopasowana do faktów, że tó, co dotąd było anomalią, staje się czymś przewidywanym. Asymilacja nowego rodzaju faktu wymaga czegoś więcej niż rozszerzenia teorii i dopóki nie dostosuje się jej do faktów — dopóki uczony nie nauczy się patrzeć na przyrodę w nowy sposób — nowy fakt nie jest właściwie w ogóle faktem naukowym.



Aby przekonać się, jak ściśle splecione są ze sobą odkrycia doświadczalne i teoretyczne, przyjrzyjmy się słynnemu przykładowi odkrycia tlenu. Co najmniej trzech uczonych rościć sobie może uzasadnione do niego pretensje, a wielu innych chemików w latach siedemdziesiątych XVIII stulecia musiało uzyskiwać w swych przyrządach laboratoryjnych — nie zdając sobie z tego sprawy — wzbogacone powietrze25. Postęp nauki normalnej, w tym wypadku chemii pneumatycznej26, utorował drogę przełomowi. Pierwszym z pretendentów jest szwedzki aptekarz C.W. Scheele, który otrzymał czystą próbkę tego gazu. Możemy jednak pominąć wyniki jego prac, nie zostały one bowiem opublikowane do czasu, kiedy o odkryciu tlenu donosić zaczęto powszechnie, a wobec tego nie kryciem, to dokonywał tego każdy, kto kiedykolwiek zbierał w zamkniętym naczyniu atmosferyczne powietrze. Ponadto jeśli Priestley jest odkrywcą, to kiedy dokonał swojego odkrycia? W roku 1774 sądził on, że otrzymał tlenek azotu — gaz, który już znał. W roku 1775 uznał, że wyodrębniona substancja jest zdeflogistonowanym powietrzem — a więc ciągle jeszcze nie ma mowy o tlenie ani w ogóle o jakimś nie przewidywanym dla zwolenników teorii flogistonowej rodzaju gazu. Pretensja Lavoisiera jest lepiej uzasadniona, ale rodzi te same problemy. Jeśli odmawiamy pierwszeństwa Priestleyowi, to nie możemy go przyznać również pracy Lavoisiera z roku 1775, w wyniku której traktował on otrzymany gaz jako „czyste całkiem powietrze". Być może czekać mamy do roku 1776 lub 1777, kiedy Lavoisier nie tylko odkrył nowy gaz, ale zrozumiał, czym on jest. Ale nawet taka decyzja byłaby problematyczna, gdyż w roku 1777, i do końca swego życia, Lavoisier twierdził, że tlen jest atomową „zasadą kwasowości" i że gaz ten powstaje wówczas, gdy „zasada" ta łączy się z cieplikiem — fluidem cieplnym27. Czy mamy zatem uznać, że tlen nie był jeszcze odkryty w roku 1777? Niektórzy skłaniać się mogą do takiego wniosku. Ale pojęcie zasady kwasowości przetrwało w chemii nawet po roku 1810, a pojęcie cieplika — aż do lat sześćdziesiątych XIX wieku. Tlen zaś uznany został za pierwiastek chemiczny z pewnością wcześniej.

Widać więc wyraźnie, że do_analizy takich zdarzeń jak odkrycie tlenu niezbędne jest nowe słownictwo i hówyjpara^pojęciowy. Choć zdanie: „tlen został odkryty" jest niewątpliwie słuszne, to jednak jest mylące, sugeruje bowiem, że odkrycie czegoś jest jednostkowym prostym aktem, przypominającym ujrzenie czegoś (przy czym to obiegowe rozumienie aktu widzenia jest również problematyczne). W związku z tym uznajemy, że odkrycie czegoś, podobnie jak ujrzenie czy dotknięcie, inożna jednoznacznie przypisać jakiejś jednostce i osadzić w ściśle oznaczonym czasie. W istocie rzeczy daty nigdy nie sposób określić dokładnie, a i autorstwo pozostaje często wątpliwe. Pomijając Scheelego, możemy spokojnie uznać, że tlen nie został odkryty przed rokiem 1774 i że w roku 1777 lub nieco później był on już znany. Ale w tych - - lub innych podobnych - - granicach wszelka próba bliższego określenia daty musi być nieuchronnie arbitralna. Odkrycie nowego rodzaju zjawiska jest bowiem z konieczności procesem złożonym; składa się nań zarówno wykrycie tego^ że coś istnieje, jak i tego, czym to coś jest. Zauważmy na przykład, że gdybyśmy uznawali tlen za zciefłog i stonowane powietrze, nie mielibyśmy najmniejszej wątpliwości co do pierwszeństwa Priest- leya, ale nadal nie potrafilibyśmy dokładnie określić daty. Jeśli jednak w odkryciu obserwacja łączy się nierozerwalnie z konceptualizacją, fakty z dopasowywaną do nich teorią, to jest ono1 procesem

i od omówionego odkrycia tlenu. Przykład pierwszy: promienie X — to klasyczny przykład odkryć przypadkowych, zdarzających się o wiele częściej, niż można sądzić na podstawie standardowych doniesień naukowych. Cała historia rozpoczęła się w dniu, kiedy Roentgen przerwał normalne badania nad promieniami katodowymi, ponieważ zauważył, że w trakcie wyładowania żarzy się ekran znajdujący się w pewnej odległości od jego przyrządu. Dalsze badania — trwające przez siedem gorączkowych tygodni, w trakcie których Roentgen nie opuszczał swego laboratorium — wskazały, że przyczyną żarzenia są promienie biegnące po linii prostej z rurki katodowej, że rzucają one cienie, że nie uginają się w polu magnetycznym oraz szereg innych szczegółów. Jeszcze przed ogłoszeniem swojego odkrycia Roentgen doszedł do przekonania, że zaobserwowane zjawisko nie jest spowodowane przez promienie katodowe, lecz przez jakiś czynnik zdradzający przynajmniej pewne podobieństwo do promieni świetlnych8.

Zdarzenie to, nawet w tak krótkim ujęciu, bardzo przypomina odkrycie tlenu. Lavoisier, jeszcze nim rozpoczął doświadczenia z czerwonym tlenkiem rtęci, przeprowadzał eksperymenty, które dawały wyniki nie mieszczące się w przewidywaniach formułowanych na gruncie paradygmatu flo- gistonowego. Badania Roentgena rozpoczęły się od



8 Lloyd W. Taylor, Physics, the Pioneer Science, Boston 1941, s. 790-794; Thomas W. Chalmers, Historic Researches, London 1949, s. 218-219.

no!

stwierdzenia, że jego ekran wbrew wszelkim przewidywaniom żarzy się. W obu wypadkach wykrycie^ anomalii, tj. zjawiska, którego nie po/walal oczekiwać paradygmat, utorowało drogę do dostrzeżenia c^g^^sadniczojiowego. W obu jednak wypadkach stwierdzenie, że coś jest nie tak, jak być powinno, stanowiło dopiero preludium odkrycia. Zarówno tlen, jak i promienie X wyłoniły się dopiero w wyniku dalszych doświadczeń i prac teoretycznych. Ale jak rozstrzygnąć na przykład, w którym momencie badania Roentgena doprowadziły faktycznie do odkrycia promieni X? W każdym razie nie doszło do tego wtedy, gdy stwierdzono samo żarzenie się ekranu. Zjawisko to stwierdził co najmniej jeszcze jeden badacz, który jednak — ku swemu późniejszemu zmartwieniu — niczego nie odkrył28Jest również zupełnie jasne, że daty odkrycia nie można przesunąć na ostatnie dni owych siedmioty- godniowych badań, kiedy to Roentgen dochodził własności nowego promieniowania, którego istnienie poprzednio stwierdził. Możemy tylko powiedzieć, że promienie X odkryte zostały w Wurzburgu między 8 listopada a 28 grudnia 1895 roku.

Pod innym jednak względem analogia między odkryciem promieni X a odkryciem tlenu jest

nak. przekształciły one również istniejaee wcześniej obszary badań. Kazały one inaczej spojrzeć na wyposażenie aparaturowe uznawane dotąd za para- dygmatyczne.

Krótko mówiąc, decyzja korzystania w określony sposób z pewnego rodzaju przyrządów oparta jest, świadomie lub nieświadomie, na założeniu, że będzie się miało do czynienia tylko z określonym rodzajem okoliczności. W nauce mamy do czynienia nie tylko z przewidywaniami teoretycznymi, ale i instrumentalnymi — i często odgrywają one w jej nawoju decydującą rolę. Jedno z takich przewidywań zaważyło na historii spóźnionego odkrycia tlenii. Korzystając ze standardowej metody spraw dzania „czystości powietrza", zarówno Priestley, iak I avoisier mieszali dwie objętości nowo otrzy manego gazu z jedną objętością tlenku azotu, wstrząsali mieszaninę nad wodą i mierzyli obietośr pozostałości. Dotychczasowe doświadczenia. na których oparta była ta metoda, wskazywały, że w wypadku powietrza atmosferycznego otrzymuje sie jedną objętość, natomiast w wypadku innych gazów (oraz zanieczyszczonego powietrza) pozo stałość gazowa ma objętość większą. W doświad heniach z tlenem obaj stwierdzili, że otrzymują mniej więcej jedną objętość gazu, i odpowiednio identyfikowali badany gaz. Dopiero o wiele póź niej, częściowo zawdzięczając to przypadkowi, Priestley porzucił tę standardową metodę i próbo wał mieszać tlenek azotu ze swoim ga7em w in nych stosunkach. Stwierdził wówczas, że przy pn rvu/órnej obje*n^r' tlenku a70tn w ogóle nie po7o staje żaden gaz. Jego przywiązanie do starej metody usankcjonowanej przez dotychczasowe doświadczenie decydowało zarazem o przeświadczeniu, że nie mogą istnieć gazy, które zachowywałyby się tak, jak zachowuje się tlen".

Przykładów tego rodzaju przytaczać można wiele. Tak więc jedną z przyczyn późnego rozpoznania rozpadu promieniotwórczego uranu było to, że badacze, którzy wiedzieli, czego należy się spodziewać przy bombardowaniu atomów uranu, korzystali z metod chemicznych odpowiednich dla pierwiastków lekkich12. Czyż mając na uwadze to,



J.B. Conant, dz. cyt., s. 18-20.

  1. Karl K. Darrow, Nuclear Fission, „Bell System Technical Journal", 1940, t. XIX, s. 267-289. Krypton, jeden z dwóch głównych produktów rozpadu, został, jak się zdaje, zidentyfikowany chemicznie dopiero wówczas, gdy zrozumiano, na czym polega reakcja. Inny jej produkt, bar, został zidentyfikowany chemicznie dopiero w ostatnim stadium badań, przypadek bowiem zrządził, że do roztworu radioaktywnego w celu osadzenia ciężkiego pierwiastka poszukiwanego przez chemików dodawano właśnie baru. Próby oddzielenia dodanego baru od produktów rozpadu trwały przez pięć lat i nie przyniosły rezultatu. Świadectwem tego może być następujące doniesienie: „Badania te powinny zmusić nas jako chemików do zmiany wszystkich nazw w schemacie tej reakcji. Zamiast Ra, Ac, Th powinniśmy pisać Ba, La, Ce. Ale jako «chemicy jądrowi», spokrewnieni blisko z fizykami, nie możemy przystać na to, albowiem przeczyłoby to całemu dotychczasowemu doświadczeniu fizyki jądrowej. Być może szereg dziwnych przypa- nasunęła badaczom pomysł zbierania tego fluidu w butelce. W tym celu do trzymanego w ręku naczynia wypełnionego wodą wprowadzali przewód wiodący od maszyny elektrostatycznej. Odłączając butelkę od maszyny i dotykając drugą ręką wody lub zanurzonego w niej przewodu, odczuwa się silny wstrząs. Jednak te pierwsze doświadczenia nie doprowadziły jeszcze do wynalazku butelki lejdejskiej. Trwało to znacznie dłużej i znów nie sposób powiedzieć dokładnie, kiedy proces ten dobiegł końca. Pierwsze próby zbierania fluidu elektrycznego udawały się tylko dlatego, że eksperymentator, stojąc sam na ziemi, trzymał butelkę w rękach. Badacze elektryczności mieli się jeszcze przekonać, że naczynie musi być wyposażone w zewnętrzną i wewnętrzną osłonę będącą dobrym przewodnikiem i że w gruncie rzeczy żadnego fluidu w butelce nie zebrano. Dopiero w toku badań, które im to wyjaśniły i które w efekcie doprowadziły właśnie do wyraźnych anomalii, powstał przyrząd, który zwykliśmy nazywać butelką lejdejską. Co więcej, te same doświadczenia, które do wynalazku tego ostatecznie doprowadziły, a które w znacznym stopniu zawdzięczamy Franklinowi, ujawniły zarazem konieczność zasadniczej rewizji koncepcji elektryczności fluidu, dostarczając tym samym pierwszego pełnego paradygmatu badań nad elektrycznością29.

Wskazane wyżej cechy trzech omówionych przykładów są — w większym lub mniejszym zakresie (odpowiadającym kontinuum od wyników zaskakujących po oczekiwane) — wspólne wszystkim odkryciom, które prowadzą do poznania nowego typu zjawisk. Charakteryzuje je m.in.: wstępne uświadomienie sobie anomalii, stopniowe i jednoczesne wyłanianie się nowych obserwacji i pojęć, a w konsekwencji zmiana paradygmatycznych kategorii i procedur badawczych, czemu towarzyszy zazwyczaj opór tradycji. Co więcej, istnieją świadectwa przemawiające za tym, że są to zarazem cechy charakterystyczne samego procesu postrzegania. Na szczególną uwagę zasługuje pewien mało znany poza kręgiem specjalistów eksperyment psychologiczny przeprowadzony przez Brunera i Postmana. Prosili oni badane osoby o identyfikację, po krótkich seriach ekspozycji, kart do gry. Wiele kart było zupełnie zwykłych, niekiedy jednak zdarzały się anomalie w postaci na przykład czerwonej szóstki pik albo czarnej czwórki kier. Każda faza doświadczenia polegała na pokazywaniu pojedynczej osobie jednej karty w serii stopniowo przedłużanych ekspozycji, przy czym każdorazowo pytano badanego, co widział. Doświadczenie kończyło się po dwóch kolejnych prawidłowych odpowiedziach30.

Wiele badanych osób nazywało większość kart nawet przy najkrótszej ekspozycji, a przy nieznacz- kiedy poznaliśmy już ten proces, możemy wreszcie zrozumieć, dlaczego nauka normalna, która nie jest nastawiona na poszukiwanie nowości i która początkowo nawet je tłumi, może mimo to tak skutecznie je wywoływać.

W rozwoju każdej nauki pierwszy uzyskany paradygmat wydaje się zazwyczaj w pełni zadowalający i skuteczny w wyjaśnianiu większości obserwacji i eksperymentów łatwo dostępnych badaczom. Dalszy rozwój wymaga przeto z reguły konstruowania wymyślnych przyrządów, rozwinięcia wyspecjalizowanego słownictwa i umiejętności, uściślenia pojęć, które wskutek tego coraz bardziej oddalają się od swych potocznych prototypów. Ta specjalizacja prowadzi z jednej strony do ogromnego ograniczenia pola widzenia uczonego i znacznego oporu wobec zmiany paradygmatu. Nauka staje się coraz bardziej sztywna. Z drugiej zaś strony, w tych obszarach, na które paradygmat skierowuje uwagę badaczy, nauka normalna pozwala zdobyć tak szczegółowe wiadomości i dopasować teorię do obserwacji w tak ścisły sposób, jaki bez tego byłby niemożliwy. Co więcej, ta szczegółowość i precyzja w zgraniu teorii i doświadczenia ma wartość przekraczającą ich nie zawsze wielkie samoistne znaczenie. Bez specjalnych przyrządów, które buduje się głównie do przewidzianych zadań, nie można uzyskać wyników prowadzących ostatecznie do czegoś nowego. A nawet wówczas, kiedy przyrządy te istnieją, to, co nowe, ujawnia się tylko temu, kto dokładnie wie, czego powinien się spodziewać, i zdolny jest stwierdzić, że coś jest inaczej, niż być powinno. Anomalie ujawniają się tylko na gruncie paradygmatów. Im ściślejszy jest paradygmat i im dalej sięga, tym czulszym staje się wskaźnikiem anomalii dających asumpt do zmiany paradygmatu. W normalnym toku odkryć nawet opór przeciwko zmianom może być korzystny, o czym przekonamy się w następnym rozdziale. Opór ten oznacza, że paradygmat nie jest pochopnie odrzucany, a dzięki temu badacze nie dają się zbyt łatwo rozproszyć i anomalie, które domagają się zmiany paradygmatu, mogą przeniknąć do sedna istniejącej wiedzy. Już sam fakt, że istotne odkrycia naukowe pojawiają się jednocześnie w różnych laboratoriach, jest tu znaczący: wskazuje on zarówno na tradycyjny charakter nauki normalnej, jak na konsekwentny sposób, w jaki ona sama toruje drogę swym przeobrażeniom.

Yüklə 0,71 Mb.

Dostları ilə paylaş:
1   2   3   4   5   6   7   8   9   10   11




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə