MegaBaza edukacyjna Perspektywy®


Czy najlepsze polskie uczelnie są w stanie poprawić swoje miejsca w międzynarodowych rankingach akademickich? Jeszcze 10 lat temu można było te rankingi lekceważyć lub podchodzić do nich protekcjonalnie. Profesor Karol Musioł, ówczesny rektor Uniwersytetu Jagiellońskiego, mówił publicznie: – Jeśli dacie nam 50 miliardów dolarów i 50 lat, to możemy znaleźć się nawet wśród 50 najlepszych uczelni na świecie! Ale dzisiaj w bon motach specjalizuje się minister nauki i szkolnictwa wyższego Jarosław Gowin, który przy każdej nadarzającej się okazji wytyka rektorom, że nie dają mu argumentów do dyskusji z rządem, a w szczególności z ministrem finansów, bo przecież spadają w światowych rankingach... Porozmawiajmy zatem o tych rankingach na poważnie. Już czas.

Rankingi należy zdemistyfikować – nie są ani tak ważne, jak się niektórym wydaje, ani tak marginalne, jak chcieliby inni. Dwa fakty są kluczowe dla zrozumienia ich roli. Po pierwsze, rankingi stały się trwałym elementem światowego krajobrazu szkolnictwa wyższego. Po drugie, błyskawicznie się one zmieniają.

Dwie charakterystyczne opinie ze świata akademickiego potwierdzające trwałą obecność rankingów i ich znaczenie. Mimo wielu braków, stronniczości i wad rankingi cieszą się wysokim poziomem akceptacji wśród osób zainteresowanych i szerokiej społeczności ze względu na ich prostotę i ukierunkowanie na odbiorców – stwierdził prof. Andrejs Rauhvargers w specjalnym raporcie na temat rankingów przygotowanym dla European University Association (EUA). Wtórowała mu prof. Helena Nazare, prezydent EUA: Rankingi znalazły sobie trwałe miejsce i coraz silniej wpływają na działania uczelni. Nie każdego to może cieszyć, dlatego warto przypominać konkluzję jednego z artykułów w „Le Monde”: Rankingi mogą irytować, ale nie można ich ignorować!

Swoistym potwierdzeniem istotności tego zjawiska jest duża liczba wyspecjalizowanych konferencji rankingowych organizowanych prawie co tydzień na całym świecie, a także włączenie sesji na temat rankingów do większości międzynarodowych konferencji w obszarze szkolnictwa wyższego.

Przykład z prywatnego podwórka. Tylko w październiku 2016 byłem key note speakerem czterech międzynarodowych konferencji i sympozjów na temat rankingów: w Ankarze (URAP Ranking Symposium), Moskwie (International Conference of Higher Education Researchers), Kijowie (International Ranking Workshop) i Warszawie (Baltic See Region University Network Annual Forum). Kalendarze innych ekspertów w zakresie rankingów wyglądają podobnie. Rankingi, obok MOOC (massive open online courses) i umiędzynarodowienia to najbardziej gorące tematy w uniwersyteckiej debacie.

Zdecydowane wkroczenie rankingów na światową scenę akademicką nastąpiło niezwykle szybko. Pierwszy profesjonalny ranking narodowy na świecie – słynny US News Best Colleges Ranking – pojawił się praktycznie razem z internetem, w połowie lat osiemdziesiątych. Rankingi międzynarodowe (pierwszym z nich był Ranking Szanghajski, 2003) są rówieśnikami Facebooka. I zmieniają się one tak szybko jak kolejne generacje z zakresu technologii informacyjnych. Co roku pojawiają się nowe modele urządzeń mobilnych, coraz bardziej zaawansowanych. Podobnie jest z rankingami.

Oczekiwania odbiorców

Rodzina rankingowa szybko się powiększa. Średnio co roku publikowany jest jeden nowy ranking międzynarodowy. Pojawiają się również corocznie jeden lub dwa nowe rankingi regionalne. Obserwujemy też prawdziwy renesans rankingów narodowych: co roku pojawiają się średnio trzy nowe takie rankingi – i to coraz lepsze, bazujące na solidnych metodologiach i korzystające z wiarygodnych baz danych.

Znaczenie tych baz danych – oferowanych głównie przez konkurujące ze sobą firmy Elsevier i Clarivate Analytics (wcześniej Thomson Reuters) – oraz opartych na nich narzędzi analitycznych jest szczególne, gdyż radykalnie zmieniły one system informacji o nauce. Łatwy dostęp do kluczowych informacji na temat badań prowadzonych we wszystkich instytucjach szkolnictwa wyższego ułatwia też przygotowywanie nowych rankingów.

Ale decydujące dla zmian w świecie rankingów są oczekiwania odbiorców.

  • Dla przyszłych studentów rankingi są narzędziem do dokonywania opartych na informacjach wyborów uczelni i kierunku studiów.
  • Naukowcy wykorzystują rankingi, aby porównywać rezultaty swoich badań z osiągnięciami ich kolegów naukowców z innych krajów.
  • Dla kierownictw uczelni rankingi są użytecznym narzędziem do wprowadzania kultury konkurencji wśród kadry. Jest to także dobre narzędzie do monitorowania postępu we wprowadzaniu reform modernizacyjnych.
  • Pracodawcy oczekują, że rankingi podpowiedzą im, które uniwersytety warto odwiedzić, aby znaleźć przyszłych jak najlepszych pracowników.
  • Politycy używają rankingów, aby zmniejszyć ryzyko ich decyzji inwestycyjnych. Decyzje te pociągają zwykle za sobą poważne środki finansowe.

Rankingi odgrywają także ważną rolę w kreowaniu image'u kraju oraz jego prestiżu. W większości międzynarodowych analiz i porównań, liczba uczelni danego kraju w czołówce rankingów jest jednym z kluczowych wskaźników. Dlatego tak wiele rządów podejmuje wysiłki, aby poprawić pozycje swoich uczelni w rankingach.

Na tych oczekiwaniach polityków i uczelni chciałbym zatrzymać się dłużej. Politycy chcą mieć proste narzędzie do oceniania uczelni, a także do monitorowania wdrażanych reform. Takie narzędzie jak akredytacja ma ograniczoną użyteczność, gdyż jest ona ze swej natury powolna i biurokratyczna. Jest też ułomna, gdyż pozwala jedynie ustalić najniższy akceptowalny poziom jakości nauczania.

Wyścig metodologiczny

Stąd rosnąca rola rankingów, publikowanych corocznie. Są one wygodnym narzędziem monitoringu reform. Mobilizują też skutecznie do bycia lepszym – nawet: do bycia najlepszym!

Ale rankingi mają ograniczenia. Nie są w stanie objąć i odzwierciedlić całej złożoności instytucji szkolnictwa wyższego. Mogą nawet szkodzić – w sytuacji, gdy ich wielka siła oddziaływania idzie w parze ze zbyt dużymi, choć nieuniknionymi, uproszczeniami. Dlatego trwa intensywny rankingowy wyścig metodologiczny. Ma on coraz ciekawsze przejawy i rezultaty.

Doskonalenie metodologii rankingowych jest też w dużym stopniu związane z potrzebami tzw. Excellence Initiatives. Pojęcie to obejmuje podjęte w wielu krajach programy państwowe mające na celu przyspieszenie rozwoju grupy wyselekcjonowanych (w różny sposób) uczelni.

Jamil Salmi i Isak Froumin, czołowi międzynarodowi eksperci w zakresie szkolnictwa wyższego, obliczyli, że od roku 2000 w ponad 20 krajach zostało uruchomionych ponad 30 takich właśnie programów. Łączny ich koszt oceniany jest na ponad 40 miliardów dolarów.

W konsekwencji pojawiła się grupa tzw. „Accelerated” Universities. Są to uczelnie, które otrzymały dodatkowe środki finansowe dla „rozpędu” (tak jak dodatkowe silniki rakietowe przyspieszają start wojskowych samolotów myśliwskich). Wiele z tych inicjatyw, ostatnio rosyjski 5-100 Russian Excellence Project (mający na celu wprowadzenie, kosztem ponad miliarda dolarów, pięciu rosyjskich uniwersytetów do światowej grupy „Top-100”) uznało rankingi jako użyteczne narzędzie – bo trudno wskazać inne – dla celów monitoringu wdrażania reform. Organizacje rankingowe nie mogły tym oczekiwań nie zauważyć.

Podczas International Conference on Excellence Initiatives, zorganizowanej z inicjatywy prof. Isaka Froumina latem tego roku w Petersburgu, przedstawiłem skrótowo (bo nie było to głównym tematem tamtej konferencji) główne trendy rozwoju rankingów akademickich na świecie. Teraz trendy te zostaną omówione szerzej.

U-Multirank

Miała to być „europejska odpowiedź” na pierwsze rankingi światowe, w których uczelnie ze Starego Kontynentu (z wyjątkiem brytyjskich) wypadły kiepsko. Projekt forsowali Francuzi w czasie swojej prezydencji w Komisji Europejskiej (lipiec – grudzień 2008). I to forsowali tak sprawnie, że w ciągu pół roku zdążyli zrobić wszystko – od wstępnej konferencji na temat idei takiego rankingu, poprzez uzyskanie decyzji o wydzieleniu środków z KE, aż po ogłoszenie przetargu na przygotowanie feasibility study i wykonanie pilotażowej wersji rankingu.

Ale to co było siłą projektu, czyli finansowanie ze środków europejskich (400 tys. Euro dla wersji pilotażowej plus 4 miliony Euro na projekt właściwy) okazało się barierą rozwoju. Aby nikogo „nie urazić” i być w zgodzie z unijną political corectness, w swoim ostatecznym kształcie U-Multirank odszedł od idei klasycznego rankingu i przybrał kształt dużej, choć zarazem „dziurawej” bazy danych o ponad 800 europejskich i światowych, dosyć przypadkowo zestawionych uczelniach. Nie zmienia to jego istotnego znaczenia dla możliwości wykonywania pogłębionych analiz edukacyjnych.

Projekt realizuje konsorcjum z niemieckim CHE i holenderskim CHEPS w roli głównej. Fundacja Edukacyjna „Perspektywy” uczestniczy w projekcie wśród kilku organizacji zaproszonych na zasadzie associated partners.

Krytyczne dla przyszłość U-Multiranku będzie pierwsze półrocze 2017, gdyż kończy się wówczas ostatnia transza finansowania projektu z budżetu Komisji Europejskich. Trwają zabiegi o pozyskanie środków od europejskich fundacji wspierających edukację.

www.u-multirank.eu

Trend 1: Więcej uczelni

Środowisko akademickie w wielu krajach formułowało od dawna postulaty, aby w rankingach uwzględniać większą liczbę uczelni. Przez pierwsze 10 lat istnienia rankingów międzynarodowych obracaliśmy się w magicznym kręgu „Top-100”, „Top-200” lub maksimum „Top-500”. Na świecie jest prawie 20 tys. szkół wyższych. Analizowanie jedynie grupy Top-100 (czyli 0,5 procenta ogólnej liczby uczelni) czy nawet Top-200 (1 procent) jest być może ciekawe dla badaczy szkolnictwa wyższego, ale wielce krzywdzące dla uczelni i krajów, w których działają.

Te ograniczenia liczby uczelni wynikały ze specyfiki metodologii rankingów, przede wszystkim Rankingu Szanghajskiego. Ale pojawiły się rankingi, które znalazły sposób na te ograniczenia, na przykład University Ranking by Academic Performance (URAP) przygotowany przez zespół z Middle East Technical University w Ankarze. URAP publikuje od 2010 roku wyniki 2000 uczelni. Również Center for World University Rankings (CWUR) z Jeddah w Arabii Saudyjskiej listę 1000 najlepszych uczelni publikuje już od roku 2014.

Dzięki naciskowi uczelni rosyjskich, uczestniczących w 5-100 Academic Excellence Project, również tacy gracze rankingowi jak Times Higher Education i QS znacząco zwiększyły liczbę uczelni publikowanych w rankingach. W tym roku THE opublikował listę ponad 978 uczelni (a zaczynał od 200). QS opublikował listę ponad 916 uczelni (choć zaczynał od 400). Również US News Global Universities Ranking opublikował w tym roku listę 1000 najlepszych uczelni (choć startował dwa lata temu z 500 uczelniami).

Ten trend będzie się umacniał: za rok standardem będzie 1000 uniwersytetów na międzynarodowych listach rankingowych, a za trzy lata – to moja prognoza – nawet 2000 uczelni. Czyli 10 procentów ogólnej ich liczby na świecie. To zaspokoi rankingowe ambicje wielu uczelni i krajów.

Marek Kwiek

Rankingi sektorów szkolnictwa wyższego, badań naukowych i innowacji stały się nieodłączną częścią globalnych rankingów konkurencyjności, a uniwersytety potencjalnie, w ramach coraz silniejszego w ostatnich 20 latach dyskursu gospodarki opartej na wiedzy i dyskursu znaczenia gospodarczego uniwersytetów (knowledge economy i economic relevance) stają sie częścią proponowanych rozwiązań problemów w Europie. Uniwersytety, paradoksalnie, są zarazem częścią problemu i częścią rozwiązania.

Trend 2: Więcej kierunków

Obserwujemy gwałtowny rozwój rankingów „by subject”, czyli odnoszących się do programów lub kierunków studiów. Kilkanaście miesięcy temu opublikowałem na łamach prestiżowego „University World News” artykuł pt. „The era of rankings by subject is coming”. Mam wielką satysfakcję, że prognoza ta okazała się trafna.

Pożytki z rankingów „by subject” są tak oczywiste, że aż trudno uwierzyć, iż przez wiele lat główne organizacje rankingowe ignorowały tę grupę rankingów. Przecież każdy uniwersytet ma swoje silniejsze i słabsze wydziały – w ujednoliconej ocenie uczelni ta specyfika ginie.

Problem polega na tym, że obecna generacja rankingów przedmiotowych opiera się w większości na takich kryteriach, jak publikacje i cytowania oraz bazujący na nich indeks Hirscha, które odzwierciedlają badawczą stronę działalności uczelni. Ale przecież, gdy chcemy zbudować dom naszych marzeń i szukamy dobrego architekta, to nie pytamy go o indeks Hirscha! Chcemy raczej poprosić go, aby pokazał swoje wcześniejsze budynki, a także chcemy zapytać ich mieszkańców, jak im się tam mieszka. To samo dotyczy medycyny i wielu innych obszarów kształcenia o praktycznych zastosowaniach.

Każda dziedzina ma swoja własną hierarchię wartości. Konstruując ranking „by subject” trzeba zidentyfikować specyficzne cechy danej dyscypliny, następnie znaleźć właściwe wskaźniki do jej pomiaru i wykorzystać je w rankingu. Nie jest to łatwe, lecz jeśli chcemy, by rankingi „by subject” spełniły oczekiwania odbiorców, organizacje rankingowe muszą podjąć ten dodatkowy wysiłek.

Z satysfakcją należy zauważyć, że liczba analizowanych kierunków studiów (subjects) szybko rośnie. QS publikuje ich już 43, URAP Ranking 41, US News Global Ranking 27. Nawet autorzy z Szanghaju opublikowali w tym roku po raz pierwszy ranking 7 kierunków inżynierskich (w uzupełnieniu do publikowanego wcześniej rankingu pięciu szerokich dyscyplin i pięciu rankingów kierunków ścisłych).

Zespół THE przygotował w tym roku ranking w ośmiu szerokich dyscyplinach, ale zapowiada opublikowanie w kolejnej edycji rankingu „by subject” obejmującego kilkadziesiąt kierunków studiów.

Wydaje się, że realne jest publikowanie w najbliższych latach rankingów kierunków studiów obejmujących minimum 50 subjects, przy czym większość z nich będzie obejmowała co najmniej 500 uczelni/wydziałów.

Przyszłość należy do rankingów wyspecjalizowanych. Na zdjęciu – dziekani najlepszych wydziałów technicznych w Polsce – zwycięzcy w Rankingu Kierunków Studiów Perspektywy 2016 (od lewej): prof. Edward Chlebus, Wydział Mechaniczny, PWr. (inżynieria produkcji); prof. Jerzy Robert Sobiecki, Wydział Inżynierii Materiałowej, PW (inżynieria materiałowa); prof. Janusz Kotowicz, Wydział Inżynierii Środowiska i Energetyki, PŚl. (inżynieria środowiska); prof. Zbigniew Brzózka, Wydział Chemiczny, PW (inżynieria i technologia chemiczna); prof. Krzysztof Zaręba, Wydział Elektroniki i Technik Informacyjnych, PW (elektronika oraz kierunki IT); prof. Jerzy Banaszek, Wydział Mechaniczny, Energetyki i Lotnictwa, PW (energetyka); prof. Waldemar Rebizant, Wydział Elektryczny, PWr. (elektrotechnika); prof. Antoni Kalukiewicz, Wydział Inżynierii Mechanicznej i Robotyki, AGH (automatyka, robotyka i mechatronika oraz mechanika i budowa maszyn); prof. Jerzy Hoła, Wydział Budownictwa Lądowego i Wodnego, PWr. (budownictwo); prof. Stefan Wrona, Wydział Architektury PW (architektura i urbanistyka).

Trend 3: Więcej regionów

Pojawia się coraz więcej rankingów regionalnych. Jest to zjawisko zrozumiałe, gdyż z punktu widzenia international students i międzynarodowej współpracy naukowej kraje danego regionu lub kontynentu są rozważane w pierwszej kolejności.

Dlatego główne organizacje rankingowe takie zestawienia publikują. Najbardziej atrakcyjne marketingowo (ze względu na potencjał reklamowy uczelni) są rankingi uczelni azjatyckich i arabskich. Atrakcyjnym regionem jest Ameryka Łacińska, mniej Afryka. Wśród uczelni rosyjskich dużym zainteresowaniem cieszą się rankingi krajów BRICS (Brazylia-Rosja-Indie-Chiny-Afryka Płd.), choć nie stanowią one regionu, a raczej formację polityczno-gospodarczą.

Głównym problemem przy obecnej generacji rankingów regionalnych są kwestie metodologiczne. Często są one bowiem bliźniaczo podobne do głównych rankingów światowych, na których bazują, są to swego rodzaju ekstrakty. Trudno je wówczas uznać za autonomiczne, samodzielne rankingi.

Teresa Czerwińska
wiceminister nauki i szkolnictwa wyższego

Rankingi mają to do siebie, że wzmacniają rywalizację, a co za tym idzie wyzwalają w ocenianych chęć poprawy miejsca. Ambicją polskich uczelni powinna być rywalizacja w zakresie szkolnictwa wyższego i nauki na poziomie międzynarodowym. Nasze uczelnie wcale nie mają gorszej oferty niż zagraniczne, choć na pewno nie dorównują im w wydatkach na marketing. Są przez to może mniej rozpoznawalne. Jeśli jednak chodzi o program kształcenia czy kadrę, to wcale nie pozostajemy w tyle i nie mamy sie czego wstydzić.

Trend 4 : Więcej krajów

Następuje imponujący renesans rankingów narodowych. Co roku pojawia się ich aż kilka. Ich oczywista przewaga w stosunku do rankingów międzynarodowych to możliwość oceny praktycznie wszystkich, a na pewno większości uczelni danego kraju.

W dodatku może to być ocena uwzględniająca większą liczbę lepiej dobranych kryteriów i wskaźników, jako że dotyczy uczelni funkcjonujących w jednym środowisku kulturowym i w jednym systemie prawnym.

Tylko w 2015 i 2016 roku pojawiły się między innymi: ranking w Kolumbii, ranking narodowy w Chinach (obejmujący ponad 1000 chińskich uczelni), pierwszy ranking narodowy w Indiach (opracowany pod auspicjami Ministry of Human Resource Development) i nowy ranking w Stanach Zjednoczonych, opublikowany wspólnie przez Wall Street Journal i Times Higher Education.

W porównaniu z tą „młodzieżą”, 18-letni Ranking Szkół Wyższych „Perspektyw” należy do grona światowych klasyków. Dodajmy, klasyków szanowanych, czego dowodem jest ulokowanie w Warszawie, sekretariatu światowej organizacji rankingowej IREG Observatory on Academic Ranking and Excellence. Ranking „Perspektyw” jako pierwszy ranking na świecie przeszedł międzynarodowy audyt i otrzymał prestiżowy certyfikat jakości IREG Approved.

Należy też wspomnieć, że podejmowane są wysiłki, aby zbudować „mosty” pomiędzy rankingami narodowymi i globalnymi, lepiej je wzajemnie „skalibrować”.

Na zdjęciu: prof. Nian Cai Liu, twórca Rankingu Szanghajskiego i Bianka Siwińska, redaktor naczelna Perspektyw – podczas konferencji na Uniwersytecie Warszawskim

Trend 5: Więcej wymiarów

Trwa poszukiwanie sposobu na właściwe uwzględnienie w rankingach innych misji uczelni niż Badania (Research). Chodzi o Doskonałość Nauczania (Excellence in Teaching) oraz tzw. Trzecią Misję (Third Mission) lub Społeczną Misję Uczelni (Social Mision of University). Jest to największe chyba wyzwanie stojące przed rankingami. Nie ma tu, jak na razie, łatwych odpowiedzi. Choć są coraz intensywniejsze poszukiwania rozwiązań...

Oceny jakości nauczania trochę przypominają obecnie taniec, a raczej wygibasy wokół ograniczonego zestawu liczb odnoszących się do kadry naukowej i studentów. Ale nie ma jeszcze uzgodnionego zestawu wskaźników w tym zakresie.

Jeśli chodzi natomiast o poszukiwania sposobu na właściwe odzwierciedlenie w rankingach tzw. Third Mission to należy przypomnieć, że z inicjatywy Komisji Europejskiej realizowany był kilka lat temu interesujący projekt o nazwie Third Mission Ranking Project E3M. Projekt nie doprowadził do nowego rankingu, ale kilka ciekawych idei zapisano w finalnym dokumencie, tzw. Green Papier. Można ją znaleźć na stronie www.e3mproject.eu

Waldemar Siwiński – prezes Fundacji Edukacyjnej „Perspektywy”. Wiceprezydent IREG Observatory on Academic Ranking and Excellence, międzynarodowej organizacji twórców i analityków rankingów akademickich. Inicjator i autor profesjonalnych rankingów szkół i uczelni w Polsce. Key-note speaker i moderator sesji podczas międzynarodowych konferencji rankingowych (tylko w 2016: Melbourne, Lizbona, Ekaterinburg, Petersburg, Moskwa, Kijów i Ankara). Autor tekstów o rankingach, publikowanych m.in.  przez University World News.

Dokąd zmierzają rankingi?

Wyobraźmy sobie, że w dwie dekady po wynalezieniu druku przez Gutenberga (w 1450 roku) zadano jego współczesnym pytanie: do czego ten wynalazek doprowadzi? Dzisiaj wiemy, że wprowadzenie ruchomej czcionki zakończyło średniowiecze, że bez niej nie byłoby naszej współczesnej cywilizacji. Ale czy ludzie żyjący 20 lat po wydrukowaniu w Norymberdze pierwszej książki, słynnej Biblii Gutenberga, mogli to wszystko przewidzieć?!

Jesteśmy w podobnej sytuacji. Wiemy, że profesjonalne rankingi akademickie są rówieśnikami Internetu (narodowe) i Facebooka (międzynarodowe). Ale czy ktokolwiek odważyłby się powiedzieć, że Facebook jest ukoronowaniem rozwoju naszej „sieciowej” cywilizacji. Albo że zidentyfikowaliśmy już wszystkie możliwości generowane przez rewolucję informacyjno-komunikacyjną... Oczywiście nie. Podobnie niemożliwym jest określenie, jak za kilkanaście lat będzie wyglądał system rankingowy i jaki będzie jego wpływ na akademicki i pozaakademicki świat. Wiemy, że będzie to zapewne wpływ duży. Należy mieć nadzieję, że będzie to też wpływ twórczy.

Jak w tym zmieniającym się rankingowym świecie powinny zachować się polskie uczelnie? Jest to temat na dłuższą debatę, ale kilka sugestii wydaje się oczywistymi. Najważniejsze – i najprostsze zarazem – wydaje się wydostanie z „szanghajskiej pułapki”. Pisałem o tym niedawno na łamach Forum Akademickiego, przypomnę zatem w wielkim w skrócie.

W szanghajskiej pułapce

Ranking Szangajski był pierwszym rankingiem międzynarodowym, co wpłynęło silnie na jego odbiór. Pamiętajmy, że tuż po nim, zaledwie kilka miesięcy później pojawił się ranking Webometrics oraz wspólny wówczas ranking QS-THE. Ale bycie pierwszym daje dodatkowe korzyści. Firma Xerox jako pierwsza na świecie zaproponowała urządzenie do powielania treści na kartkach papieru. I choć na rynku powielarek jest o wiele więcej firm, z pewnością nie gorszych, to cały świat używa do tej pory „kserokopiarek” i „kserokopii”. Podobnie jest z Rankingiem Szanghajskim. Wielu darzy go sentymentem, tak jak miłośnicy starych samochodów lubią zabytkowe Rolls-Royce'y. Nieliczne egzemplarze tych samochodów są produkowane do dzisiaj. Taki ręcznie klepany Rolls-Royce może być ozdobą muzeów motoryzacji i garaży bogatych snobów. Ale świat używa masowo innych marek!

Problem z Rankingiem Szanghajskim polega na tym, że nie jest to najlepsze narzędzie do oceny polskich uczelni – podobnie jak 99 procent innych uniwersytetów na świecie. Sprawdza się on i jest wiarygodny w zasadzie jedynie w stosunku do wąskiej grupy ok. 100 najbogatszych, najlepiej wyposażonych, wysokobudżetowych uczelni z rozbudowanymi programami badawczymi w zakresie dyscyplin ścisłych i medycznych (Science oraz Medicine).

Z racji swojej metodologi  – z wbudowanym w nią potężnym „filarem noblowskim” (z wagą aż 30 procent!) ranking ten pozwala rozróżniać uczelnie w ramach „Top-100”, ale dalej odległości pomiędzy uczelniami są tak małe, że organizatorzy zdecydowali się na publikowanie wyników w grupach po 50 (do 200), a potem nawet w grupach po 100 (do 500). W rezultacie minimalne przesunięcia w wynikach cząstkowych (rzędu 1 procenta) mogą skutkować przesunięciem się do innej „setki”, czego doświadczył w tym roku Uniwersytet Warszawski.

Autorzy z Szanghaju podkreślają, że zaletą ich rankingu jest stabilność metodologii. Nie jest to określenie precyzyjne, gdyż metodologia ta ulegała kilkakrotnie poważnym korektom. Ranking ten korzysta z gotowych, zewnętrznych baz informacji. Ale ceną tego ułatwienia jest podatność na zmiany wprowadzane przez właścicieli baz danych.

W edycji 2016 wiele uczelni na świecie zostało niemile zaskoczonych, gdy okazało się, że ich pozycja w rankingu znacząco się pogorszyła – tylko dlatego, że w jednym z kluczowych wskaźników, Highly Cited Researchers (HiCi), uwzględnianym z wagą 20%, autorzy rankingu zastosowali dane z tzw. nowej listy najczęściej cytowanych naukowców publikowanej przez Thomson Reuters. Lista ta ma mniejszą liczbę nazwisk. Uniwersytet Jagielloński, podobne jak wiele innych uczelni, odczuł tę zmianę boleśnie. Na zewnątrz poszedł sygnał, podchwycony przez polskie władze edukacyjne, że uczelnia „pogorszyła się”...

Gdy podliczy się uczelnie, które ukończyli lub w których pracują laureaci Nagrody Nobla, wyjdzie liczba nie większa niż 300. Inne uczelnie nie mają w Rankingu Szanghajskim szans. Dlatego, przy stosowanej aktualnie metodologii, jest to być może ranking „nobliwy”, ale na pewno nie jest to ranking „sprawiedliwy”, cokolwiek by to oznaczało.

Dla polskich uczelni byłoby najlepiej, gdyby przejściowo zapomniały o „liście szanghajskiej” i skupiły swoją uwagę na innych rankingach, być może o rok czy dwa młodszych, ale na pewno nie gorszych, których metodologia pozwala na publikowanie listy minimum 1000 uczelni – bo tak ukształtował się nowy rankingowy standard. Jest takich rankingów już co najmniej dziesięć.

Światła na „subjects”

Główny problem z międzynarodowymi rankingami uczelni (instytucjonalnymi) polega na tym, że preferują one określony model uniwersytetu, który wcale nie musi być modelem uniwersalnym. Nie udowodniono przecież, że tylko duże uczelnie, prowadzące studia i badania we wszystkich dziedzinach – od Art & Humanities po Medicine oraz Engineering – są najskuteczniejsze i najbardziej efektywne. We Francji elitarne Grande Ecole zapewniają państwu znakomitą kadrę kierowniczą polityki, gospodarki i inżynierii, ale tych uczelni nie ma w światowych rankingach. Są za to w rankingach pracodawców For-tune-500...

Moskiewski Research Nuclear University MEPhI, do niedawno w pełni utajniony – założony przez Igora Kurczatowa, jako zaplecze naukowe dla sowieckiego programu budowy bomby jądrowej – nie ma ambicji aby konkurować jako uczelnia, ale wcisnął się do czołówki wszystkich światowych rankingów „by subject” w zakresie fizyki. I jest z tego dumny.

Nie ma powodu, aby uznawać, że – niejako z definicji – model uczelni amerykańskich jest lepszy od innych. Wprawdzie zdominowały one rynek noblistów, ale... różnorodność jest ludzkości bardzo potrzebna, gdyż nie wiemy, jakie modele i rozwiązania będą potrzebne w przyszłości, dlatego trzeba zachować tę różnorodność również w świecie szkolnictwa wyższego.

Zamiast usprawiedliwiać się, że nie ma nas w Top-500 rankingów globalnych, lepiej jest informować, że jesteśmy wśród 200 uczelni, które prowadzą najlepsze na świecie studia w zakresie fizyki czy inżynierii materiałowej lub w pierwszej 100 w zakresie rolnictwa i leśnictwa (nota bene, tak właśnie robi SGGW). Ktoś musi oczywiście wcześniej takie rankingi wypromować lub nawet przygotować.

W świecie globalnej konkurencyjności liczy się oczywiście stan ogólny gospodarki danego kraju, średni poziom technologiczny przemysłu, ogólny poziom nauki, edukacji i kultury. Ale w każdej z tych dziedzin podwójnie liczą się najlepsi. Ważne jest, aby mieć wiele dobrych ludowych zespołów pieśni i tańca, ale – dla konkurowania w wymiarze światowym – równie ważne jest posiadanie Teatru Wielkiego i jego zespołu. Tak samo ważny jest średni poziom uczelni w danym kraju, ale wielokroć ważniejsze jest posiadanie znakomitych uniwersytetów, a przynajmniej światowej klasy wydziałów lub centrów naukowych.

Takie podejście zdobywa popularność w wielu krajach świata. Musi zdobyć sobie prawo obywatelstwa również w Polsce.

Warto działać razem

Najkrótsza definicja rankingu to uporządkowana informacja – informacja o uczelniach, programach studiów, a ostatnio również o systemach edukacyjnych, przygotowana pod kątem tych, którzy takiej informacji potrzebują. Ale – należy podkreślić – nie ma czegoś takiego jak „obiektywny ranking”. Niezależnie od celu i adresata, w każdym rankingu są dwa elementy subiektywne: kryteria oraz ich waga procentowa.

Wszystkie inne elementy mogą być zobiektywizowane: weryfikacja danych, zasady obliczeń, sposób prezentacji wyników – ale dobór kryteriów i ustalenie ich wagi procentowej zawsze pozostaje subiektywnym. Co oznacza również, otwartym na  krytykę.

Polskie uczelnie, jeśli chcą poprawić swoje pozycje w rankingach, muszą takiej krytycznej analizy dokonać. Nie jest to proste, dlatego warto działać razem, w grupie uczelni, które mają realne szanse na pojawienie się w grupie „Top-1000” lub na przesunięcie się w niej na lepsze pozycje rankingowe.

W rankingowych peletonach (zapomnijmy o pierwszej i drugiej setce) tłok jest olbrzymi i wielu zawodników biegnie prawie obok siebie. Oznacza to, że wystarczy stosunkowo niewielki, ale dobrze ukierunkowany, dodatkowy wysiłek, aby znacząco poprawić swoją pozycję. Trzecia setka większości rankingów jest w zasięgu UW i UJ, a kilka innych uczelni ma duże szanse dołączyć do czwartej i piątej setki (aby je zidentyfikować, wystarczy spojrzeć na czołówkę Rankingu „Perspektyw”). Dla innych w pełni realnym wyzwaniem jest znalezienie się i stabilna obecność w prestiżowej grupie „Top-1000”. Powinno w niej być, wedle analiz prowadzonych przez Fundację Edukacyjną „Perspektywy” co najmniej 20, a nawet 25 polskich uczelni.

Będziemy o tym dyskutować podczas konferencji „Polskie uczelnie w światowej perspektywie – Rankingi a strategia zarządzania szkołą wyższą” zorganizowanej wspólnie przez Konferencję Rektorów Akademickich Szkół Polskich, Polską Komisję Akredytacyjną i Fundację Edukacyjną „Perspektywy”, która odbędzie się 1-2 grudnia w Warszawie. Warto wpisać tę datę do rektorskiego (dziekańskiego, kanclerskiego, dyrektorskiego...) kalendarza!

Waldemar Siwiński

Rankingi z certyfikatem

W świecie rankingów, podobnie jak w świecie akademickim, potwierdzeniem jakości są akredytacje i certyfikaty, szczególnie międzynarodowe. Takim właśnie prestiżowym „znakiem jakości” jest tytuł IREG Approved, który organizacja rankingowa może uzyskać po przejściu międzynarodowego audytu.

Audyt rankingów prowadzony jest pod auspicjami IREG Observatory on Academic Ranking and Excellence, międzynarodowego stowarzyszenia twórców i analityków rankingów, które ma siedzibę w Brukseli, a Sekretariat w Warszawie. Procedurę audytu określa szczegółowo IREG Ranking Audit Manual.

Rankingi ocenia się według zestawu 20 kryteriów, wchodzących w skład pięciu grup, które odnoszą się do:

  • wyraźnego określenia adresatów rankingu oraz uwzględniania w nim specyfiki instytucjonalnej, kulturowej i prawnej ocenianych systemów szkolnictwa wyższego,
  • metodologii rankingu i sposobu zdefiniowania kryteriów i wskaźników,
  • sposobu publikowania rankingu i prezentacji jego wyników,
  • przejrzystości rankingu oraz sposobu reagowania na zarzuty,
  • procedur zapewnienia jakości rankingu.

Pierwszym rankingiem na świecie, który otrzymał certyfikat jakości IREG Approved był Ranking Szkół Wyższych „Perspektywy”.

Certyfikat ten posiada także międzynarodowy QS World University Ranking z Wielkiej Brytanii, a także rankingi narodowe: CHE University Ranking z Niemiec i RAEX University Ranking z Rosji.

Więcej nt. audytu rankingów: ireg-observatory.org

© 2022 Perspektywy.pl   O nas | Polityka Prywatności | Znak jakości | Reklama | Kontakt!!!