Astronomiya

Korrelyasiya funksiyaları üçün təsadüfi qalaktika kataloqlarının yaradılması

Korrelyasiya funksiyaları üçün təsadüfi qalaktika kataloqlarının yaradılması

Qalaktika korrelyasiya funksiyası, birbaşa qalaktika kataloqundan hesablandıqda, təsadüfi olaraq yaradılmış bir həmkar kataloqu hesablamağa əsaslanır.

Qalaktikalar nümunəsinin böyük bir qutu üzərində (məsələn, Millennium / Millennium II-dən yaradılan qalaktikanın istehzaları) vahid olduğu süni qalaktikanın istehza kataloqu ilə işləyərkən, təsadüfi kataloq eyni nöqtələrin vahid paylanması ola bilər. həqiqi məlumatlar kimi həcm.

Bununla birlikdə, gerçək dünya qalaktika kataloqu homojen bir qutu deyil və olduqca nizamsız formalara və müşahidə edilən qırmızı sürüşmə və açısal paylanmalara malikdir. Həqiqi məlumatları daha yaxşı təmsil etmək üçün bəzi saxta kataloqlara belə bu xüsusiyyətlər verilir. Bu hallarda təsadüfi bir kataloq ən yaxşı şəkildə necə istehsal olunur? Dağılımın "qeyri-fiziki" hissəsini (yəni müşahidə məhdudiyyətləri səbəbindən deyil) təqlid etməyə çalışan koordinatlarda bir növ ehtimal paylanması ilə? Və ya boş bölgələri süzən, əks halda təsadüfi kataloqu vahid edən sadə ikili maska.

Cavab budur ki, bəzi qeyri-bərabər paylanmadan istifadə edilməlidir, bunun üçün adi bir metod varmı? Tapdığım ədəbiyyat (məsələn, SDSS nəşr olunmuş məlumatlar üçün və SDSS-nin məhdudiyyətlərini təqlid edən qalaktika istehkamları üçün) bunu heç bir şəkildə müzakirə etmir. Diqqət yetirin, əgər bu qısa bir xülasədən və bir-iki mənbədən kənarda qalmışsa, burada tam cavab gözləmirəm. Əksinə, sənədləşdirilmiş, lakin indiyə qədər məndən yayınan mövcud bir sıra standart metodların olub olmadığını müəyyənləşdirməyə çalışıram.


Korrelyasiya funksiyaları üçün təsadüfi qalaktika kataloqlarının yaradılması

… Təsadüfi kataloqu yalnız real məlumatlarla eyni həcmdə nöqtələrin vahid paylanması ola bilər.

Bununla birlikdə, gerçək dünya qalaktika kataloqu homojen bir qutu deyil və olduqca nizamsız formalara və müşahidə edilən qırmızı sürüşmə və açısal paylanmalara malikdir. Həqiqi məlumatları daha yaxşı təmsil etmək üçün bəzi saxta kataloqlara belə bu xüsusiyyətlər verilir. Bu hallarda təsadüfi bir kataloq ən yaxşı şəkildə necə istehsal olunur?…

Cavab budur ki, bəzi qeyri-bərabər paylanmadan istifadə edilməlidir, bunun üçün adi bir metod varmı? Tapdığım ədəbiyyat (məsələn, SDSS nəşr olunmuş məlumatlar üçün və SDSS-nin məhdudiyyətlərini təqlid edən qalaktika istehkamları üçün) bunu heç bir şəkildə müzakirə etmir. Diqqət yetirin, əgər bu qısa bir xülasədən və bir-iki mənbədən kənarda qalmışsa, burada tam cavab gözləmirəm. Əksinə, sənədləşdirilmiş, lakin indiyə qədər məndən yayınan mövcud bir sıra standart metodların olub olmadığını müəyyənləşdirməyə çalışıram.

SDSS üçün baxın:

  • "İki dərəcə sahə qalaktikasının sürüşmə tədqiqatından qalaktika yığılmasında böyük miqyaslı əlaqələr" (2006), N. L. Vasilyev, Yu. V. Barışev və F. Sylos Labini.

  • "SDSS Galaxy Açısal İki Nöqtəli Korrelyasiya Fonksiyonu" (12 Mart 2013), Y. Wang, R. J. Brunner, J. C. Dolence. SQL sorğusunu SDSS kataloq arxiv serverinə daxil edin:

1. GİRİŞ

Qalaktika paylanmasının ən güclü və ən sadə sondalarından biri, başqa bir qalaktikanın müəyyən bir bucağı daxilində bir qalaktikanın tapılması təsadüfi paylanmanın üstündəki həddindən artıq ehtimalın kəmiyyətini göstərən iki nöqtəli açısal korrelyasiya funksiyasıdır. Gauss təsadüfi sahəsi vəziyyətində iki nöqtəli açısal korrelyasiya funksiyası və onun Legendre çevrilmə cütü qalaktika klasterinin tam statistik xarakteristikasını təmin edir (bax, məsələn, Peebles 1980). Qaus olmayanlıq məsələsində də iki nöqtəli açısal korrelyasiya funksiyası qalaktika əmələ gəlməsi modellərinin sadə və vacib bir statistik testini təmin edir (Tegmark və digərləri 2004). İki nöqtəli açısal korrelyasiya funksiyası, Sloan Rəqəmsal Səma Tədqiqatından (SDSS) erkən məlumatların yayımlanması (EDR; Connolly və digərləri 2002) kimi məlumatların buraxılışlarından parlaq böyüklüklərdə tədqiq edilmişdir.

Qalaktikanın iki nöqtəli açısal korrelyasiya funksiyasını dəqiq hesablamaq üçün əvvəlcə korrelyasiya funksiyasını ölçmək üçün istifadə edilən qalaktika kataloqundakı potensial sistematik təsirləri minimuma endirməliyik.. SDSS EDR-nin sistematikası Scranton et al. (2002). Görmənin və Qalaktik yox olmağın sistematik təsirlərini minimuma endirmək üçün SDSS EDR qalaktika nümunəsinin 1-dən çox görmə olan bölgələri xaric etmək üçün maskalanması lazım olduğunu təyin etdilər. "75 və qızartı> 0,2 bal. Sistematik təsirlərin təsirini minimuma endirməyin vacibliyini nəzərə alaraq. qalaktikada iki nöqtəli açısal korrelyasiya funksiyasında və SDSS EDR və SDSS DR7 arasındakı SDSS məlumat işləmə boru kəmərində baş verən əhəmiyyətli dəyişikliklər, Scranton və digərlərinin təqdim etdiyi bir çox testi təkrar etdik. (2002) SDSS DR7 məlumatları. Bu yazıda bu sistematik effektləri ehtiva edən metodları, bu sistematik testlərin nəticələrini, SDSS DR7 üçün həqiqi qalaktikanın iki nöqtəli açısal korrelyasiya funksiyasını və böyük məlumat dəstləri üçün korrelyasiya funksiyalarını sürətlə hesablayan kütləvi paralel tətbiqimizi təqdim edirik..

Ayrıca: "Qalaktika korrelyasiya funksiyası və güc spektri" (.PDF).

Wikipedia-nın "Korrelyasiya funksiyası (astronomiya)".

CalTech: "Kümelenmənin Ölçmələri" (Bütün səhifələrə baxmaq üçün [Next] və ya [Contents] düymələrindən istifadə edin).

Qırmızı sürüşmə və açısal diametr məsafəsini düzəltmək üçün xam məlumatlara tətbiq olunan düzəlişlər var.


Məsələn, kataloqlar və prosedurların təsviri üçün Shaun Cole-un veb saytına baxın: "Mock Galaxy Redshift Kataloqları", burada həm 2dF Galaxy Redshift Anketində (2dFGRS) proqram və N bədən gövdəsi simulyasiyaları, həm də saxta kataloqların konstruksiyası və xüsusiyyətləri təqdim olunur. ) və SDSS qalaktika qırmızı sürüşmə tədqiqatları.

Qaranlıq maddəyə və N-cisim simulyasiyalarına olan halo qərəzli münasibət "Balamera-Antolínez, Francisco-Shu Kitaura, Marcos Pellerejo-Ibañez, Cheng Zhao tərəfindən" BAM: Süni kataloqlar yaratmaq üçün Bias Atama Metodu "nda (15 İyun 2018) müzakirə olunur. və Tom Abel.

Həm də (hazırlanmaqda olan və çox işləyən və yazı sənədləri yazan) veb saytına baxın: "Carnegie-Irvine Galaxy Survey (CGS)" - arXix-də itkin sənədlər ilə:

"Carnegie-Irvine Galaxy Survey. I. Baxış və Optik Şəkillər Atlası"

"Carnegie-Irvine Galaxy Survey. II. İzofotal Analiz"

"Carnegie-Irvine Galaxy Survey. III. Yaxınlıqdakı Eliptik Qalaktikaların Üç Komponentli Quruluşu"

"Carnegie-Irvine Galaxy Survey. IV. Kütləvi Elliptik Qalaktikalar inşa edən birləşmələrin orta kütlə nisbətini təyin etmək üçün bir metod"

"Carnegie-Irvine Galaxy Survey. V. Çubuqların və bükülmüş çubuqların statistik tədqiqi"

"Carnegie-Irvine Galaxy Survey. VI. Spiral Strukturun Ölçülməsi"

"Carnegie-Irvine Galaxy Survey. VII. S0 Qalaktikaların Fotometrik Quruluşundan Mənşəyinə dair Məhdudiyyətlər"


Böyük bir Tərəzi Galaxy Kataloqu yaradılması

Yəni geniş miqyaslı bir quruluş (LSS) qalaktika kataloqu yaratmaq istəyirsiniz? DR10 klaster analizində istifadə olunan kataloqlarla işləmək istəyirsinizsə, əlavə dəyər kataloqular səhifəsindən əldə edə bilərsiniz. Bu səhifə xam SDSS-III DR10 sənədlərindən öz böyük miqyaslı quruluş qalaktika kataloqu yaratmaq üçün lazım olan faylları və prosesləri təsvir edir. Birinci hissədə lazımi sənədlər və onları haradan əldə etmək olar, sonrakı hissələr də prosedurdakı bir addımı təsvir edir.

QEYD: Aşağıda göstərilən bəzi sənədlər DR10 LSS kağızı göndərilənə qədər təqdim olunmayacaq. Ayrıca, bu təlimatlar o zamana qədər yenidən nəzərdən keçirilə bilər. Bu qeyd DR10 LSS kağızı təqdim edildikdə silinəcəkdir.


Korrelyasiya funksiyaları üçün təsadüfi qalaktika kataloqları yaratmaq - Astronomiya

Böyük miqyaslı quruluş, Kainatın qalaktika ilə müqayisədə daha böyük miqyaslı quruluşu və ya bircins olmaması olaraq təyin olunur. Qalaktikaların kosmosda bərabər şəkildə paylanaraq yayımlanmaması fikri, Kainatın homojenliyini yoxlamaq üçün ("Hubble 1926") 400 "ekstragalaktik dumanlıq" kataloqu istifadə edərək, ümumiyyətlə böyük miqyasda vahid olduğunu tapan Edwin Hubble ilə əlaqələndirilə bilər. 1932-ci ildə, daha böyük parlaq qalaktikaların Shapley-Ames kataloqu nəşr olundu (Shapley & amp Ames 1932), burada müəlliflər göy düzünə proqnozlaşdırılan qalaktikaların "paylanmada ümumi bərabərsizliyi" və təxminən iki fərq amilini qeyd etdilər. şimal və cənub qalaktik yarımkürələrdəki qalaktika sayında. Bu daha böyük statistik nümunədən istifadə edərək Hubble (1934) bucaqlı tərəzidə daha az olduğunu qeyd etdi

10 & # 176, qalaktikaların sayında təsadüfi Poisson paylanması üçün gözləniləndən çox bir şey var, buna baxmayaraq nümunə daha böyük miqyasda Gauss bölgüsünü izləyir. Beləliklə, Kainat ən böyük tərəzidə homojen görünsə də, daha kiçik tərəzidə açıq şəkildə yumşaqdır.

Böyük miqyaslı quruluşdakı ölçmələr, Shane & amp Wirtanen (1967) tərəfindən hazırlanan, Lick Rəsədxanasındakı 0,5 metrlik refrakterdə fotoşəkil plitələrindən əldə edilən təxminən bir milyon qalaktikalar haqqında məlumat olan Lick qalaktika kataloqu ilə böyük bir sıçrayış etdi. Seldner et al. (1977) göydəki bucaqlı hüceyrələrdəki qalaktika sayımlarının xəritələrini nəşr etdi (bax. Şəkil 1), gök düzənliyində qalaktikaların proqnozlaşdırılan paylanmasının eyni olmadığını daha ətraflı şəkildə göstərdi. Xəritələrdə köhnə köpük kimi bir naxışla zəngin bir quruluş var, ehtimal olunan divarları və ya uzun qalaktikalar, yığınlar və geniş boş bölgələri olan filamentlər var. Bu kataloqu və Zwicky və digərlərinin qalaktikaların statistik məkan bölgüsü. (1968) Jim Peebles və işbirlikçiləri tərəfindən bir sıra sənədlərdə (məsələn, Peebles 1975) təhlil edilmişdir ki, bucaqlı iki nöqtəli korrelyasiya funksiyasının (aşağıda göstərilən) təxminən bir bucaq tərəzisi üzərində güc qanunu paylanmasını təqib etdiyini göstərmişdir.

0.1 & # 176 - 5 & # 176. Bu sənədlərdə qruplaşma amplitüdünün daha zəif qalaktika populyasiyaları üçün daha aşağı olduğu, ehtimal ki, görmə xətti boyunca daha böyük proyeksiya təsirlərindən yarandığı aşkar edilmişdir. Zəif qalaktikalar ümumiyyətlə daha böyük məsafələrdə yerləşdiyindən proqnozlaşdırılan klaster daha geniş bir sahəyə inteqrasiya edir və bu səbəbdən effekti seyreltir.

Şəkil 1. Qalaktikaların sayının açısal bölgüsü daha parlaqdır B

Bu nəticələr qismən böyük qalaktika nümunələrinin qırmızıya doğru dəyişmələrini və məkan bölgüsünü ölçmək üçün fərdi qalaktikaların optik spektrlərini əldə edən ilk böyük miqyaslı qırmızıya sürüşmə tədqiqatlarına təkan verdi. İlk redshift anketlərindən ikisi KOS tədqiqatı (Kirshner, Oemler, Schechter Kirshner et al. 1978) və orijinal CfA anketidir (Center for Astrophysics Davis et al. 1982). KOS araşdırması, cəmi 15 dərəcə 2 əhatə edən səkkiz ayrı sahədəki 15-dən daha parlaq 164 qalaktika üçün yenidən dəyişmələri ölçdü. Anketin motivasiyasının bir hissəsi, müəlliflərin "tamamilə gözlənilməz olmasa da, sürət məkanında qalaktikalarımızın nə qədər güclü bir yerə toplandığı" ilə diqqət çəkdikləri üç ölçülü məkan bölgüsünün öyrənilməsindən ibarət idi. hər sahədə ölçülü qırmızı sürüşmə histoqramları.

1982-ci ildə tamamlanan orijinal CfA tədqiqatı, ümumilikdə 2,7 steradianı əhatə edən şimal və cənub qalaktika qütbləri boyunca 14,5 bal gücündən daha parlaq 2400 qalaktika üçün sürüşmə ehtiva etdi. Anketin əsas məqsədləri kosmoloji idi və üç ölçülü qalaktikaların yığılmasının miqdarını müəyyənləşdirdi. Bu tədqiqat, qalaktika qruplarını, böyük delikləri və ya boşluqları və qalaktika qrupları arasında görünən bir "filamentar əlaqəli quruluşu" müəyyənləşdirə biləcəyi ilk böyük sahəni və böyük miqyaslı quruluşun orta dərəcədə dərin üç ölçülü xəritəsini meydana gətirdi (bax Şəkil 2), müəlliflərin fərqli strukturların təsadüfi proqnozları ola biləcəyi barədə xəbərdarlıq etdi (Davis et al. 1982). Bu sənəd eyni zamanda qalaktika bölgüsündə görülən böyük miqyaslı quruluşun "kompleks topologiyası" ilə N-cisim qaranlıq maddə simulyasiyalarında görülənlərin müqayisəsini apararaq, quruluşun nəzəri modellərinin gələcək araşdırmalarına yol açdı.

1985-ci ildən 1995-ci ilə qədər davam edən ikinci CfA redshift anketində spektrlər var

5.800 qalaktika və 170-dən çox uzanan bir qalaktikanın superklusteri olan "Böyük Divar" ın varlığını ortaya qoydu. h -1 Mpc, anketin eni (Geller & amp Huchra 1989). Yoğunluğu orta sıxlığın 20% -i olan böyük aşağı boşluqlara da rast gəlinir.

Redshift tədqiqatları yüzlərlə qalaktikanın eyni vaxtda müşahidələrini aparmağa imkan verən çox obyektli spektroqrafların və həm aşağı parlaqlığın yaxınlıqdakı qalaktikaların, həm də uzaq, işıqlı qalaktikaların daha dərin araşdırmalarına imkan verən daha böyük teleskopların inkişafı ilə sürətlə irəliləmişdir. Hal-hazırda aşağı qırmızıya doğru qalaktikaların ən böyük qırmızı sürüşmə tədqiqatları, iki dərəcə sahə qalaktikası qırmızı sürüşmə anketidir (2dFGRS, Colless və s. 2001) və Sloan Digital Sky Survey (SDSS, York et al. 2000).

4 × 10 7 h 3 Mpc -3 və

2 × 10 8 h 3 Mpc -3 üçün spektroskopik qırmızı sürüşmə ilə

Müvafiq olaraq 220.000 və bir milyon qalaktika. Bu tədqiqatlar, kainatdakı geniş miqyaslı quruluşun ən yaxşı cari xəritələrini təmin edir (bax. Şəkil 3), qalaktikaların paylanmasında süngərə bənzər bir nümunə ortaya qoyur (Gott və digərləri 1986). Boşluqları

10 h -1 Mpc çox az qalaktika ehtiva edən açıq şəkildə görünür. Filamentlər 10-dan çox uzanır h -1 Mpc boşluqları əhatə edir və qalaktika qrupları və qruplarının yerləri ilə kəsişir.

Böyük miqyaslı bir quruluşun mövcudluğu ilə bağlı üstünlük təşkil edən nəzəri paradiqma, kosmik mikrodalğalı fonda temperatur sapmaları olaraq görülən erkən Kainatın enerji sıxlığındakı başlanğıc dalğalanmaların cazibə qeyri-sabitliyi ilə bu gün qalaktika sıxlığı sahəsindəki quruluşa doğru böyüməsidir. Böyük miqyaslı quruluşun detalları - müşahidə olunan quruluşun ölçüləri, sıxlığı və paylanması - həm maddənin sıxlığı, həm də qaranlıq enerji kimi kosmoloji parametrlərdən, həm də qalaktika meydana gəlməsi və təkamülü fizikasından asılıdır. Bu səbəbdən böyük miqyaslı quruluş ölçmələri həm kosmologiyanı, həm də qalaktika təkamülü fizikasını məhdudlaşdıra bilər. *****


Qalaktika araşdırmalarında 2 nöqtəli korrelyasiya funksiyası qiymətləndiricilərindəki qeyri-müəyyənlik və barion akustik rəqs aşkarlanması

Hal-hazırda mövcud qalaktika tədqiqatlarında fərqli iki nöqtəli korrelyasiya funksiyası (2PCF) qiymətləndiricilərindəki qeyri-müəyyənliyi araşdırırıq. Bu, korrelyasiya funksiyasındakı barion akustik rəqslər (BAO) xüsusiyyətindən kosmoloji parametrləri məhdudlaşdırmaq üçün bir vasitə kimi istifadə etmənin aktiv subyektindən irəli gəlir və bu, statistik əhəmiyyətin incə təhlilini tələb edir.

Qiymətləndiricilərə həm orta sıxlıqdakı qeyri-müəyyənlikdən, həm də mütləq bir qərəzə səbəb olan 1 V 2 ∫ V 2 ξ ˆ (r) d 3 r = 0 arasındakı qeyri-müəyyənliyin necə təsir etdiyini müzakirə edirik. Lambda-Soyuq Qaranlıq Maddə (Λ CDM) korrelyasiya funksiyasına və nümunələrə bənzər xüsusiyyətlərə (lokal) bir modeldən sonra Sloan Rəqəmsal Səma Tədqiqatının (SDSS) simulyasiya edilmiş saxta kataloqlarından istifadə edərək hər iki effektin miqdarını təyin edirik. Λ CDM korrelyasiya funksiyası üçün orta qırmızı sürüşmə, tədqiqat həndəsi, kütlə-parlaqlıq qərəzi). Kiçik statistik effektlərin kəmiyyətini təyin etmək üçün geniş simulyasiyalara ehtiyac duyduğumuz üçün, real N-cisim simulyasiyalarından istifadə edə bilmirik və bəzi fiziki təsirlər nəzərə alınmır.

Simulyasiyalarımız yenə də fərqli qiymətləndiricilərin qərəzinə və varyanslarına baxaraq müqayisə etməyə imkan verir. SDSS nümunələrində BAO aşkarlanmasının etibarlılığını da yoxlayırıq və məlumat nəticələrinin Λ CDM simulyasiyaları ilə uyğunluğunu öyrənirik.


Correlcalc 1.0

2 nöqtəli korrelyasiya funksiyasını (2pCF) hesablamaq üçün bir Python paketi
hər hansı bir ümumi kosmologiya və ya həndəsə modeli üçün qalaktika qırmızı sürüşmə tədqiqatları.

correlcalc, iki nöqtəli korrelyasiya funksiyasını (2pCF) hesablayır
redshift anketlərindən istifadə edərək qalaktikalar / kvazarlar. Hər hansı bir fərz üçün istifadə edilə bilər
həndəsə və ya kosmologiya modeli. Azaltmaq üçün BallTree alqoritmlərindən istifadə
böyük məlumat dəstləri üçün hesablama səyi, kobud gücdən daha sürətli olur
metodlar. Qırmızı sürüşmə (z), Sağ Yüksəliş (RA) və Düşmə tələb olunur
(DEC) redshift anketinin verdiyi qalaktikalar və təsadüfi kataloqu məlumatları
girişlər. Təsadüfi bir kataloq təqdim edilmirsə, istədiklərindən birini yaradır
giriş redshift paylanmasına və mangal çoxbucaqlı faylına əsaslanan ölçü
sorğu həndəsəsini təsvir edən .ply formatında. Həm də hesablayır
anizotropik 2pCF. İsteğe bağlı olaraq anketin sarmal xəritələrini hazırlayır
vizual təmin edir.

Bu paketi yükləmək üçün özünüzə "" `pip pip correlcalc``" yazın
terminal. Bu metod işləmirsə

Paketi qurmaq üçün bu git deposunu yükləyin və terminala daxil edin
setup.py ehtiva edən qovluq və "" "pip install." "və ya yazın
"" "python setup.py install" ""

Kök izniniz yoxdursa, əlavə edərək quraşdıra bilərsiniz
Yuxarıdakı əmrlərin sonunda "" --user`` "

Əgər əvvəllər quraşdırılmış köhnə bir versiyanız varsa, onu təkmilləşdirə bilərsiniz
"" `pip install correlcalc - upgrade" "əmri

Sklearn, cython, scipy, numpy və s. Kimi tələb olunan bütün asılılıqlar.
pip vasitəsilə quraşdırılıbsa avtomatik quraşdırılmalıdır. Hər halda, əgər
bəzi asılılıqlar avtomatik olaraq quraşdırılmır. Siyahısı
asılılıqları setup.py sənədində əl ilə quraşdırmaq üçün görmək olar.
Hər hansı bir problem olduğu təqdirdə bir problem qaldırmaqdan çəkinməyin. "healpix _util"
http://github.com/esheldon/healpix\_util paketi mövcud deyil
tırtılda. Buna görə əmrləri izləyərək əl ilə quraşdırılmalıdır
yuxarıdakı bölmədə git deposundan quraşdırın

İstifadə olunan alqoritm və düsturlar * A adlı məqalədə təqdim olunur
İki nöqtəli korrelyasiyanın sürətli hesablanması üçün "ümumi" resept
funksiya *

ArXiv: 1710.01723 saytında https://arxiv.org/abs/1710.01723 saytında mövcuddur.

Xahiş edirəm bu paketi və ya təqdim olunan 'resepti' istifadə etsəniz, eyni şeyi göstərin
burada

Paketin istifadəsi jupyter dəftərində "Correlcalc istifadə edərək verilir
example.nb "və" main.py "

Correlcalcdakı bütün metodlar aşağıdakılardan istifadə etməklə idxal edilə bilər
əmr

Əvvəlcə 2pCF-ni hesablamaq üçün qutuları təyin etməliyik (in: math: `c / H_0` ədəd).
Məsələn. 6Mpc addımlarla 0-180Mpc arasındakı əlaqəni hesablamaq üçün
deyin

Giriş məlumatı faylı istifadə edərək 2pCF-ni hesablamaq üçün (həm ascii, həm də uyğun fayllar var)
dəstəklənir), `tpcf`` metodunu aşağıdakı kimi istifadə edin

"correl, poserr = tpcf ('/ path / to / datfile.dat', bins, randfile = '/ path / to / randomfile.dat', weights = 'eq')"

Təsadüfi bir sənəd yoxdursa və ya təqdim edilmirsə, təsadüfi bir məlumat yarada bilərik
mangle mask faylını ".ply" formatında təqdim edərək kataloqu
kataloqun ölçüsünü məlumat kataloqu ölçüsündə göstərərək
(standart 2x ölçülü). Bunu etmək

"correl, poserr = tpcf ('/ path / to / datfile.dat', bins, maskfile = '/ path / to / maskfile.ply', weights = True, randfact = 3)"

Bu, "correl" və "poserr" "" numpy "dizilərinə cavab verir
İki nöqtəli korrelyasiya və Poisson xətası

Aşağıdakı açar söz arqumentləri ehtiyac olduqda daxil edilə bilər

Galaxy / quasar redshift anketinin məlumat dosyası ilk olaraq ötürülməlidir
həm `tpcf`` həm` `atpcf`` metodlarına arqument.

** Dəstəklənən filetiplər **: sütunlu, CSV sənədləri olan və ya
uyğun faylların hamısı dəstəklənir. SDSS tərəfindən təmin edilən əksər sənədlər əlavə edildi
kataloqlar birbaşa istifadə edilə bilər.

** İçərisində **: Hər hansı bir sənəd növü ən azından sütuna sahib olmalıdır
** Z ** (redshift), ** RA ** (Sağ Yüksəliş), ** DEC ** (Qərar) adlanır.
Bu sütun adları hər halda ola bilər.

Biri "çəkilər = Doğru" seçimindən istifadə etmək istəyirsə (dəqiq əldə etmək lazımdır)
nəticələr) məlumat faylında sütunlu radyal çəkilər də olmalıdır
başlıq ** radial _ ağır ** və ya ** WEIGHT _SYSTOT **

Math: `c / H_0` vahidlərində artan dəyərləri olan səssiz bir sıra olmalıdır
həm `tpcf`` həm` `atpcf`` metodlarına ikinci arqument olaraq verilmişdir.
"Atpcf" vəziyyətində avtomatik olaraq 2D qutuları yaradır
`` qutular2d = (qutular, qutular) "" verilən 1D "qutulardan"

Təqdim edilmədikdə, "maskfile =" arqument ".ply`` faylı verilməlidir.

** Dəstəklənən filetiplər **: sütunlu, CSV sənədləri olan və ya
uyğun faylların hamısı dəstəklənir. SDSS tərəfindən təmin edilən əksər sənədlər əlavə edildi
kataloqlar birbaşa istifadə edilə bilər.

** İçərisində **: Hər hansı bir sənəd növü ən azından sütuna sahib olmalıdır
** Z ** (redshift), ** RA ** (Sağ Yüksəliş), ** DEC ** (Qərar) adlanır.
Bu sütun adları hər halda ola bilər.

Biri "çəkilər = Doğru" seçimindən istifadə etmək istəyirsə (dəqiq əldə etmək lazımdır)
nəticələr) məlumat dosyasında sütunlu radyal çəkilər də olmalıdır
başlıq ** radial _ ağırlıq ** və ya ** WEIGHT _SYSTOT **

** Beta Testi: ** Ağırlıqlar üçün digər sütun başlıqları üçün Beta dəstəyi
əlavə edildi.

Təsadüfi kataloq zamanı n (z) -dən çəkilərin hesablanması da əlavə edilmişdir
nəsil.

Təqdim edilmədikdə, "randfile =" arqument verilməlidir.

** Dəstəklənən filetiplər **: Mangle poliqonlarını ehtiva edən ".ply"
standart formada anket həndəsəsini təsvir edən. Ən çox sənəd təqdim olunur
SDSS tərəfindən Əlavə dəyər kataloqu birbaşa istifadə edilə bilər.

Təsadüfi kataloqun məlumat kataloqu ölçüsünün tam ədədi ilə ölçüsü
təsadüfi kataloqu təqdim edilmirsə. Varsayılan dəyər `` 2 '' dir

Təqdim edərək ağırlıq arqumentindən istifadə etməyiniz tövsiyə olunur
dəqiq iki nöqtəni əldə etmək üçün "çəkilər = True" və ya "ağırlıqlar = 'eq' '
korrelyasiya hesablamaları. Bu, təyin olunan radial ağırlıqları götürür
format (sütun başlığı ilə ** radial _weight ** və ya ** WEIGHT _SYSTOT ** ilə)
verilən məlumatlardan və təsadüfi sənədlərdən.

"weights =" eq "` bərabər ağırlıqları təyin edir və buna görə * + 1 * əlavə edir - Bu tətbiq paralelləşdirilir və " Weights = False "
əksər maşınlarda tətbiq

`` Çəkilər = yalan '' olarsa, hər biri üçün standart olaraq * + 1 * əlavə ediləcəkdir
ümumi çəki əlavə etmək yerinə zibil qutusu içərisində qalaktik / təsadüfi cüt.
Ağırlıqlar və istinadlar haqqında daha ətraflı məlumat üçün baxın
http://www.sdss3.org/dr9/tutorials/lss\_galaxy.php

"" düz "" (standart) - Kainatın düz həndəsi üçün

"'açıq' '' - Milne kimi Open Universe modelləri üçün

"'yaxın' '' - Qapalı Kainat üçün

İki nöqtə arasındakı məsafələrin hesablanması üçün düsturlar (Z1, RA1, DEC1)
və (Z2, RA2, DEC2) * T-dən götürülmüşdür. Matsubara, Korrelyasiya funksiyası
bir kosmoloji zond kimi dərin qırmızı sürüşmə sahəsi, Astrofizika Jurnalı
615 (2) (2004) 573 *. Bu sənəddəki formulları istifadə edərək, kvadratlara məsafələr qoyun
(əlavə hesablama vaxtını azaltmaq üçün məsafə kvadratları hesablanır
hər dəfə bahalı `sqrt`` funksiyasından istifadə etməmək üçün) hesablanır
yuxarıda göstərilən həndəsələrin hamısı üçün "metrics.pyx" faylı.
Daha sürətli nəticələr əldə etmək üçün tətbiq üçün "Cython" seçilir
bina `` BallTree`` "cdist`` hesablayır və“ sorğu ”nu azaldır
vaxt.

Bunu düzəliş edərək, ehtiyacına görə metrik tərifləri fərdiləşdirə bilərsiniz
fayl. Həm də burada verilən formullarda ** K ** (əyrilik parametri)
referansın bağlanması üçün "metrics.pyx" də əl ilə dəyişdirilməlidir
və modelə uyğun olaraq açın. Bu dəyişdirildikdən sonra istifadə edərək tərtib edin
`` python metricsetup.py build_ext - yer ''

Qırmızı sürüşmələrdən bərabər hərəkət məsafələrini hesablamaq üçün istifadə olunur.

"'lcdm' '' (standart) - Lambda CDM modeli üçün

"'lc' '' - üçün: riyaziyyat:` R_h = ct` və xətti sahil modelləri

** Əlavə etmək üçün **: "wcdm" və digər məşhur kosmologiya modelləri tezliklə

"'dp' '' - Davis - Peebles qiymətləndiricisi (standart - ən sürətli)

"" ls "" - Landy - Szalay qiymətləndiricisi

`` ph '' '- Peebles- Hauser qiymətləndiricisi

Qiymətləndirici formulları haqqında daha ətraflı məlumat üçün baxın
https://arxiv.org/pdf/1211.6211.pdf

Anizotropik (3D) 2pCF hesablanması

Paketin istifadəsi jupyter dəftərində "Correlcalc istifadə edərək verilir
Məsələn-anisotropic.nb "və" main.py "

Correlcalcdakı bütün metodlar aşağıdakılardan istifadə etməklə idxal edilə bilər
əmr

Əvvəlcə 2pCF-ni hesablamaq üçün qutuları təyin etməliyik (in: math: `c / H_0` ədəd).
Məsələn. 6Mpc addımlarla 0-180Mpc arasındakı əlaqəni hesablamaq üçün
deyin

Giriş məlumat faylı (həm ascii, həm də uyğun) istifadə edərək anizotropik 2pCF hesablamaq
fayllar dəstəklənir), "atpcf" metodunu aşağıdakı kimi istifadə edin

"correl3d, poserr = atpcf ​​('/ path / to / datfile.dat', binspar, binsper, randfile = '/ path / to / randomfile.dat', vtype = 'sigpi', weights = True)"

Təsadüfi bir sənəd yoxdursa və ya təqdim edilmirsə, təsadüfi bir məlumat yarada bilərik
mangle mask faylını ".ply" formatında təqdim edərək kataloqu
kataloqun ölçüsünü məlumat kataloqu ölçüsündə göstərərək
(standart 2x ölçülü). Bunu etmək

`` correl3d, poserr = atpcf ​​('/ path / to / datfile.dat', binspar, binsper, maskfile = '/ path / to / maskfile.ply', vtype = 'smu', weights = 'eq', randfact = 3) "

Bu, müvafiq olaraq "correl3d" və "poserr" "" numpy "dizilərini qaytarır
anizotropik İki nöqtəli korrelyasiya və Poisson səhvinə

Aşağıdakı açar söz arqumentləri ehtiyac olduqda daxil edilə bilər

Galaxy / quasar redshift anketinin məlumat dosyası ilk olaraq ötürülməlidir
həm `tpcf`` həm` `atpcf`` metodlarına arqument.

** Dəstəklənən filetiplər **: sütunlu, CSV sənədləri olan və ya
uyğun faylların hamısı dəstəklənir. SDSS tərəfindən təmin edilən əksər sənədlər əlavə edildi
kataloqlar birbaşa istifadə edilə bilər.

** İçərisində **: Hər hansı bir sənəd növü ən azından sütuna sahib olmalıdır
** Z ** (redshift), ** RA ** (Sağ Yüksəliş), ** DEC ** (Qərar) adlanır.
Bu sütun adları hər halda ola bilər.

Biri "çəkilər = Doğru" seçimindən istifadə etmək istəyirsə (dəqiq əldə etmək lazımdır)
nəticələr) məlumat dosyasında sütunlu radyal çəkilər də olmalıdır
başlıq ** radial _ ağırlıq ** və ya ** WEIGHT _SYSTOT **

Math: `c / H_0` vahidlərində artan dəyərləri olan səssiz bir sıra (üçün
məsafələr) və ya: riyaziyyat: "" vtype "" seçiminə görə " delta z`" olmalıdır
"atpcf" metodu üçün ikinci arqument olaraq verilmişdir.

Math: `c / H_0` vahidlərində artan dəyərləri olan səssiz bir sıra (üçün
məsafələr),: math: `z delta theta` və ya: math:` mu = cos alpha` olmalıdır
"atpcf" metodunun üçüncü arqumenti olaraq təqdim edilmişdir.

Təqdim edilmədikdə, "maskfile =" arqument ".ply`` faylı verilməlidir.

** Dəstəklənən filetiplər **: sütunlu, CSV sənədləri olan və ya
uyğun faylların hamısı dəstəklənir. SDSS tərəfindən təmin edilən əksər sənədlər əlavə edildi
kataloqlar birbaşa istifadə edilə bilər.

** İçərisində **: Hər hansı bir sənəd növü ən azından sütuna sahib olmalıdır
** Z ** (redshift), ** RA ** (Sağ Yüksəliş), ** DEC ** (Qərar) adlanır.
Bu sütun adları hər halda ola bilər.

Biri "çəkilər = Doğru" seçimindən istifadə etmək istəyirsə, məlumat faylı da olmalıdır
sütun başlığı ** radial _ ağırlığı ** və ya olan radial ağırlıqları ehtiva edir
** AĞIRLIQ _ _SYSTOT **

** Beta Testi: ** Ağırlıqlar üçün digər sütun başlıqları üçün Beta dəstəyi
əlavə edildi.

Təsadüfi kataloq zamanı n (z) -dən çəkilərin hesablanması da əlavə edilmişdir
nəsil.

Təqdim edilmədikdə, "randfile =" arqument verilməlidir.

** Dəstəklənən filetiplər **: Mangle poliqonlarını ehtiva edən ".ply"
standart formada anket həndəsəsini təsvir edən. Ən çox sənəd təqdim olunur
SDSS tərəfindən Əlavə dəyər kataloqu birbaşa istifadə edilə bilər.

Təsadüfi kataloqun məlumat kataloqu ölçüsünün tam ədədi ilə ölçüsü
təsadüfi kataloqu təqdim edilmirsə. Varsayılan dəyər `` 2 '' dir

Təqdim edərək ağırlıq arqumentindən istifadə etməyiniz tövsiyə olunur
dəqiq iki nöqtəni əldə etmək üçün "çəkilər = True" və ya "ağırlıqlar = 'eq' '
korrelyasiya hesablamaları. Bu, təyin olunan radial ağırlıqları götürür
format (sütun başlığı ilə ** radial _weight ** və ya ** WEIGHT _SYSTOT ** ilə)
verilən məlumatlardan və təsadüfi sənədlərdən.

"weights =" eq "` bərabər ağırlıqları təyin edir və buna görə * + 1 * əlavə edir - Bu tətbiq paralelləşdirilir və " Weights = False "
əksər maşınlarda tətbiq

`` Çəkilər = yalan '' olarsa, hər biri üçün standart olaraq * + 1 * əlavə ediləcəkdir
ümumi çəki əlavə etmək yerinə zibil qutusu içərisində qalaktik / təsadüfi cüt.
Ağırlıqlar və istinadlar haqqında daha ətraflı məlumat üçün baxın
http://www.sdss3.org/dr9/tutorials/lss\_galaxy.php

Aşağıdakı hallar üçün anizotropik 2pCF hesablayır.

`` 'smu' '' (standart) - 2pCF-i s - mu hesablayır

"'sigpi' '' - Paralel və dik məsafələrdən istifadə edərək 2pCF hesablayır

"" ap "" kiçik üçün 2pCF hesablayır: riyaziyyat: " Delta theta` və
: riyaziyyat: `z Delta theta`. Ancaq nəticələr istənilən kosmologiyaya çevrilə bilər
seçim modeli (istinad: https://arxiv.org/pdf/1312.0003.pdf)

Paralel və dik məsafələrin hesablanması üçün düsturlar
istiqamətlər https://arxiv.org/pdf/1312.0003.pdf adresindən götürülmüşdür. İstifadə
bu sənəddəki düsturlar,: math: ` Delta z` və: math:` z Delta theta`
yuxarıda göstərilənlər üçün "metrics.pyx" faylında hesablanır. "Cython"
binada daha sürətli nəticələr əldə etmək üçün həyata keçirilməsi üçün seçilir
"BallTree" "cdist" hesablanır və "sorğu" vaxtını azaldır.

Düzenleyerek metrik tərifləri ehtiyacına uyğun olaraq fərdiləşdirə bilərsiniz
`` metrics.pyx`` faylı. Bu dəyişdirildikdən sonra istifadə edərək tərtib edin
`` python metricsetup.py build_ext - yer ''

LOS-da məsafələrin birbaşa hesablanması və LOS-a dik
standart model Cosmology və digər məşhur modelləri dəstəkləmək üçün əlavə olunmalıdır.
Hələlik birinin açısal qutuları əl ilə fiziki hala çevirməsi lazımdır
təxmini nəticələri əldə etmək üçün məsafələr


KStars, Stellarium üçün xüsusi DSO kataloqları necə hazırlanır?

KStars və Stellarium üçün xüsusi bir DSO kataloquna hansı məlumatları daxil etmək lazımdır və bu proqramlar kataloqu oxuya bilməsi üçün bir kataloq necə tərtib olunur?

Cartes du Ciel, CatGen istifadə edir və proses yaxşı sənədləşdirilmişdir. Digər proqramlar üçün oxşar proses nədir?

# 2 Küvetdə Adam

Buludlu gecələrə xoş gəlmisiniz, katalog

KStars haqqında heç bir şey istifadə etmirəm və ya bilmirəm.

Məsələn, öz DSO fotoşəkillərinizi Stellarium-a necə əlavə etmək barədə mövcud məlumatlar 0.12.4 versiyası üçündür və yəqin ki, köhnəlib. Nə cür kataloqu düşündüyünüz tamamilə aydın deyil.

Yeni başlayanlar üçün 8 və 11-ci fəsillərdən keçməlisiniz və daha çox bu onlayn istifadəçi təlimatında:

Bu rəsmi Stellarium inkişaf saytında qeydiyyatdan keçməyinizi və sualınızı proqramçılara yönəltməyinizi məsləhət görürəm.

IIRC, Stellarium üçün xüsusi kataloq yaradılması barədə soruşan ilk siz deyilsiniz. Heç kimin uğurlu olduqlarını geri bildirdiyini xatırlamıram.

Stellarium və digər pulsuz planetariya proqramına əlavə olaraq CdC versiyamı daima yeniləyirəm. Heç vaxt CatGen yardım proqramından istifadə etməmişəm. Ancaq bilirəm ki, buradakı CdC pərəstişkarları onu CdC-nin köhnə versiyalarında istifadə etmişlər.

Man tərəfindən bir Tübarda düzəliş edildi, 27 Noyabr 2014 - 06:33.

# 3 Küvetdə Adam

P.S. Mövcud versiyalar üçün skript yazmağı da öyrənə bilərsiniz.

# 4 kataloqu

Cavab üçün təşəkkür edirəm, küvetdəki adam. Budur nümunə kataloqu:

BDN 160.23-18.98 LDN 1468 19.99033659.10 + 311500.0 21. m 21. m 0 Drk 5/6
Abell 2694 Abell 2694 17.0 000000.00 + 080900.0 0.0m 0.0m 0 GALCL150
I5383 I5383 19.99000114.80 + 154409.0 0.0m 0.0m 0 - -
OCL 282 Be 104 16. 000055.00 + 631818.0 3. m 3. m 0 OC s
120.0 + 09.8 = 120 + 09.1 N0040 12. 001016.50 + 721439.0 37. s 37. s 0 Pl 11.6
123456789012345678901234567890123456789012345678901234567890123456789012345678901234567890
* 1 2* 3 4 * * 5 * 6 * 7* * 8* * *

Mənbə koduna (!) Baxaraq KStars üçün obyekt növlərini müəyyənləşdirdim: Gx = 8, Drk = 15 və s. Stellarium üçün xüsusi kataloqlar haqqında ümumiyyətlə məlumat yoxdur. (KStars və Stellariumun inkişaf etdiricilərinə: dinləyirsiniz?)

# 5 rmollise

AFAIK, Stellarium-a kataloq əlavə etmək mümkün deyil - asanlıqla deyil. Bunu etmək istəsəniz, kataloqu istehsal etməyi asanlaşdıran "Catgen" müşayiət edən tətbiqi olan Cartes du Ciel-ə bir nəzər yetirərdim.

# 6 Akarsh Simha

Mən KStarsın inkişaf etdiricisiyəm və burada bu mövzunu tapan biri tərəfindən göstərildi (bu günlərdə CN-də çox fəal deyil). Bağışlayın, sənədlərimiz tamamlanmamışdır.

KStars-da çox sayda xüsusi kataloqdan istifadə edirəm. Kaş ki, bunları KStars vasitəsi ilə təqdim edə bilərdim, amma bu günlərdə astronomik kataloqlarda izlənilə bilən lisenziyalaşdırma məlumatları tapmaq çox çətindi. Günümüzdə istifadə etdiyimiz çox liberal lisenziyalaşdırma şərtləri ilə bir çox kataloq məlumatları olan bir NASA veb saytı var idi. Today, there seems to be no such resource. If you want some of my custom catalogs, feel free to e-mail me (akarsh at kde dot org).

KStars catalogs are a text file with various fields, example:

# Name: Palomar
# Prefix: Palomar
# Color: #ef5e00
# Epoch: 2000
# Tp ID RA Dc Mj Mg
4 1 03:33:23.0 +79:34:50 1.8 13.6
4 2 04:46:05.9 +31:22:51 1.9 13.0
4 3 10:05:31.0 +00:04:17 2.8 13.9

The type IDs, like you found, are in the source code (skyobjects/skyobject.h). Unfortunately nowhere documented. Since you've brought it up, I'll see if I can float a student project to write up documentation on custom catalog creation (otherwise, I'll do it myself).

/**
*@enum TYPE
*The type classification of the SkyObject.
*/
enum TYPE < STAR=0, CATALOG_STAR=1, PLANET=2, OPEN_CLUSTER=3, GLOBULAR_CLUSTER=4,
GASEOUS_NEBULA=5, PLANETARY_NEBULA=6, SUPERNOVA_REMNANT=7, GALAXY=8,
COMET=9, ASTEROID=10, CONSTELLATION=11, MOON=12, ASTERISM=13,
GALAXY_CLUSTER=14, DARK_NEBULA=15, QUASAR=16, MULT_STAR=17, RADIO_SOURCE=18,
SATELLITE=19, SUPERNOVA=20, TYPE_UNKNOWN >

The possible fields are seen here (skycomponents/customcatalog.cpp):

QStringList CatalogComponent::m_Columns
= QString( "ID RA Dc Tp Nm Mg Flux Mj Mn PA Ig" )
.split( ' ',QString::SkipEmptyParts )

i.e. "ID, RA, Dec, Type, Name, Magnitude, Flux (radio), Major axis, Minor axis, Position Angle, Ignored field"

The "Ig" is used to ignore fields that KStars does not understand.

Thereafter, when you "Load" the catalog in the Settings dialog, the data is transferred to a relational SQLite database ( skycomponents.db in your local user directory ), which you can access or edit using a SQLite browser. This process of writing to the DB takes absurdly long and we haven't investigated why. It is hard to edit by hand because it's relational. Please keep your plain text catalogs since we might have to make backward-incompatible changes to the DB structure.

I see the following two solutions to end the problem of lack of availability / clear distribution policies for catalogs in KStars:

1. Connect to SIMBAD / NED etc. (the professional databases) and download data every time there is a query on an object that KStars doesn't know about (and internet connection), which can then be saved into the database for offline use.

2. Parse Cartes' Identification description in KStars, so if you have an object listed in Cartes, but you want it in KStars so you could use the Observation Planner / Ekos astrophotography suite, you can then copy-paste the identification from Cartes to get the object into KStars.

Unfortunately, I'm quite busy, and I don't have anyone to help implement these. I did write some code towards #1, but it's still far from complete. I'm trying to see if I can get a student developer to work on it later -- he's currently working on making the star hopper user friendly.

BTW, please feel free to ask user questions on our developer mailing list for now, since we don't have a separate users' list, as far as I know: https://mail.kde.org. fo/kstars-devel

#7 catalogman

Thanks for your, um, "input" (no pun intended).

I tried loading a sample "catalog" of three objects -- M31, M32, and M110:

# ID RA Dc Tp Nm Mg Flux Mj Mn PA Ig
110 00:37:38.50 +41:24:41.0 8 "PGC 2429=N0205" 8.9 0 11.2 6.4 170 E
32 00:39:57.80 +40:35:32.0 8 "PGC 2555=N0221" 9.1 0 5.5 3.8 170 E
31 00:40:00.10 +40:59:44.0 8 "PGC 2557=N0224" 4.3 0 145.0 30.0 35 Sb

The catalog is in a file called "M.txt" so that "M<ID>" should appear on
the chart.

After clicking "Load Catalog" in the "Configure KStars" menu, a "Custom" catalog
does appear on the catalog list but turning it on doesn't make the objects appear
on the chart.

This approach in KStars doesn't work anyway -- let's say I have a catalog of
planetaries:

119.4+06.5=119+06.1 A 1 18.3 001012.30+685339.0 44. s 44. s 0 Pl 19.9
122.1-04.9=122-04.1 A 2 13. 004240.80+574110.0 31. s 31. s 0 Pl 19.8
130.3-11.7=130-11.1 M 1-1 19.99013412.90+501257.0 6. s 6. s 0 Pl -
133.1-08.6=133-08.1 M 1-2 19.99015532.70+523913.0 2. s 2. s 0 Pl -

How should it be formatted for KStars? Put the ID numbers <119.4+06.5, 122.1-04.9, . >
in the file GN.txt, or put <119+06.1, 122-04.1, . >in the file PK.txt? Well, neither,
because the ID has to be an integer. Instead I have to put the Abell planetaries in
A.txt, the Minkowski planetaries in M1-.txt, M2-.txt, etc. and create hundreds of small

lists. No, that still doesn't work because some of the planetaries have ID numbers like

Can anyone confirm that custom DSO catalogues also can't be done in Stellarium?


Generating random galaxy catalogs for correlation functions - Astronomy

COVID-19 has impacted many institutions and organizations around the world, disrupting the progress of research. Through this difficult time APS and the Fiziki icmal editorial office are fully equipped and actively working to support researchers by continuing to carry out all editorial and peer-review functions and publish research in the journals as well as minimizing disruption to journal access.

We appreciate your continued effort and commitment to helping advance science, and allowing us to publish the best physics journals in the world. And we hope you, and your loved ones, are staying safe and healthy.

Many researchers now find themselves working away from their institutions and, thus, may have trouble accessing the Physical Review journals. To address this, we have been improving access via several different mechanisms. See Off-Campus Access to Fiziki icmal for further instructions.


Correlcalc Release 1.0

A Python package to calculate 2-point correlation function(2pCF) from galaxy redshift surveys for any generic model of Cosmology or geometry.

correlcalc calculates two-point correlation function (2pCF) of galaxies/quasars using redshift surveys. It can be used for any assumed geometry or Cosmology model. Using BallTree algorithms to reduce the computational effort for large datasets, it is faster than brute-force methods. It takes redshift (z), Right Ascension (RA) and Declination (DEC) data of galaxies and random catalogs given by redshift survey as inputs. If random catalog is not provided, it generates one of desired size based on the input redshift distribution and a mangle polygon file in .ply format describing the survey geometry. It also calculates anisotropic 2pCF. Optionally it makes healpix maps of the survey providing visualization.

To install this package type " pip install correlcalc " in your terminal. If this method doesn't work

To install the package Download this git repositry and in terminal enter the folder that contains setup.py and type " pip install . " or " python setup.py install "

If you do not have root permission, you can install by adding " --user " at the end of above commands

If you have an older version installed already you can upgrade by " pip install correlcalc --upgrade " command

All the required dependencies such as sklearn, cython, scipy, numpy etc. should get automatically installed if installed through pip. In case, if some of the dependencies do not automatically get installed. The list of dependencies can be seen in the setup.py file to manually install them. In case of any problems feel free to raise an issue. "healpix_util" package from http://github.com/esheldon/healpix_util is not available on pip. So it needs to be manually installed following the commands to install from git repositry in the above section

The algorithm and formulae used are presented in the paper entitled A `Generic' Recipe for Quick Computation of Two-point Correlation function

Please cite the same if you use this package or the 'recipe' presented herein

Usage of the package is given in jupyter notebook "Using correlcalc example.nb" and in main.py

All the methods in correlcalc can be imported using the following command

We first need to define bins (in $c/H_0$ units) to calculate 2pCF. For e.g. to calculate correlation between 0-180Mpc in steps of 6Mpc, we say

To calculate 2pCF using input data file (both ascii and fits files are supported), use tpcf method as follows

correl, poserr=tpcf('/path/to/datfile.dat',bins, randfile='/path/to/randomfile.dat', weights='eq')

If random file is not available or not provided, we can generate random catalog by providing the mangle mask file in .ply format along with specifying the size of the catalog in multiples of size of data catalog (default 2x size). To do this

correl, poserr=tpcf('/path/to/datfile.dat', bins, maskfile='/path/to/maskfile.ply', weights=True, randfact=3)

This returns correl and poserr numpy arrays corresponding to Two-point correlation and Poisson error

The following keyword arguments can be included as needed

Data file of galaxy/quasar redshift survey must be passed as the first argument to both tpcf and atpcf methods.

Supported filetypes: ascii text files with columns, csv files or fits files are all supported. Most files provided by SDSS Value added catalogs should be directly usable.

To contain: Any type of file provided must at least have columns named Z (redshift), RA (Right Ascension), DEC (Declination). These column names can be in any case.

If one intends to use weights=True option (must to obtain accurate results) the data file must also contain radial weights with column title radial_weight və ya WEIGHT_SYSTOT

A numpy array with ascending values in $c/H_0$ units must be provided as the second argument to both tpcf and atpcf methods. In case of atpcf it automatically creates 2D bins as bins2d=(bins,bins) from provided 1D bins

randfile= Path to random file (semi-Optional)

If not provided, maskfile= argument must be given .ply file.

Supported filetypes: ascii text files with columns, csv files or fits files are all supported. Most files provided by SDSS Value added catalogs should be directly usable.

To contain: Any type of file provided must at least have columns named Z (redshift), RA (Right Ascension), DEC (Declination). These column names can be in any case.

If one intends to use weights=True option (must to obtain accurate results) the data file must also contain radial weights with column title radial_weight və ya WEIGHT_SYSTOT

Beta Testing: Beta support for other column titles for weights is added.

Also added is calculation of weights from n(z) during random catalog generation.

mask= Path to mangle polygon file (semi-Optional)

If not provided, randfile= argument must be provided.

Supported filetypes: .ply file containing Mangle polygons describing survey geometry in the standard format. Most files provided by SDSS Value added catalogs should be directly usable.

Size of the random catalog in integer multiples of size of data catalog if random catalog file is not provided. Default value is 2

It is highly recommended to use weights argument by providing weights=True or weights='eq' to obtain accurate two-point correlation calculations. This picks up radial weights in the prescribed format (with column title radial_weight və ya WEIGHT_SYSTOT ) from the data and random files provided.

weights= eq' sets equal weights and hence adds *+1* - This implementation is parallelized and is faster than weights=False` implementation on most machines

If weights=False , by default +1 will be added for each galaxy/random pair found within the bin instead of adding total weight. For more details on weights and references, see http://www.sdss3.org/dr9/tutorials/lss_galaxy.php

Available options:

'flat' (default) - for flat geometry of the Universe

'open' - for Open Universe models like Milne

'close' - for Closed Universe

Customization

Formulae for calculation of distances between two points (Z1, RA1, DEC1) and (Z2, RA2, DEC2) is taken from T. Matsubara, Correlation function in deep redshift space as a cosmological probe, The Astrophysical Journal 615 (2) (2004) 573. Using the formulae in this paper, distances squares (to reduce additional computational time distance squares are calculated to avoid using expensive sqrt function every time) are computed in the metrics.pyx file for all the above mentioned geometries. Cython is chosen for implementation to obtain faster results in building BallTree s calculating cdist and to reduce query time.

One can customize metric definitions as per one's need by editing this file. Həm də K (curvature parameter) in the formulae given in this reference need to be manually changed in the metrics.pyx for closed and open cases as per the model. After changing this compile it using python metricsetup.py build_ext --inplace

Used to calculate co-moving distances from redshifts.

Available options:

'lcdm' (default)- for Lambda CDM model

'lc' - for $R_h=ct$ and linear coasting models

To add: wcdm and other popular cosmology models soon

Available options:

'dp' - Davis - Peebles estimator (default - fastest)

'ls' - Landy - Szalay estimator

'ph' - Peebles- Hauser estimator

For more details on estimator formulae see https://arxiv.org/pdf/1211.6211.pdf

Calculation of Anisotropic (3D) 2pCF

Usage of the package is given in jupyter notebook "Using correlcalc example-anisotropic.nb" and in main.py

All the methods in correlcalc can be imported using the following command

We first need to define bins (in $c/H_0$ units) to calculate 2pCF. For e.g. to calculate correlation between 0-180Mpc in steps of 6Mpc, we say

To calculate anisotropic 2pCF using input data file (both ascii and fits files are supported), use atpcf method as follows

correl3d, poserr=atpcf('/path/to/datfile.dat',binspar, binsper, randfile='/path/to/randomfile.dat', vtype='sigpi', weights=True)

If random file is not available or not provided, we can generate random catalog by providing the mangle mask file in .ply format along with specifying the size of the catalog in multiples of size of data catalog (default 2x size). To do this

correl3d, poserr=atpcf('/path/to/datfile.dat', binspar, binsper, maskfile='/path/to/maskfile.ply', vtype='smu', weights='eq', randfact=3)

This returns correl3d and poserr numpy arrays corresponding to anisotropic Two-point correlation and Poisson error

The following keyword arguments can be included as needed

Data file of galaxy/quasar redshift survey must be passed as the first argument to both tpcf and atpcf methods.

Supported filetypes: ascii text files with columns, csv files or fits files are all supported. Most files provided by SDSS Value added catalogs should be directly usable.

To contain: Any type of file provided must at least have columns named Z (redshift), RA (Right Ascension), DEC (Declination). These column names can be in any case.

If one intends to use weights=True option (must to obtain accurate results) the data file must also contain radial weights with column title radial_weight və ya WEIGHT_SYSTOT

A numpy array with ascending values in $c/H_0$ units (for distances) or $delta z$ as per choice of 'vtype' must be provided as the second argument to atpcf method.

A numpy array with ascending values in $c/H_0$ units (for distances), $zdelta heta$ or $mu = cos alpha$ must be provided as the third argument to atpcf method.

randfile= Path to random file (semi-Optional)

If not provided, maskfile= argument must be given .ply file.

Supported filetypes: ascii text files with columns, csv files or fits files are all supported. Most files provided by SDSS Value added catalogs should be directly usable.

To contain: Any type of file provided must at least have columns named Z (redshift), RA (Right Ascension), DEC (Declination). These column names can be in any case.

If one intends to use weights=True option the data file must also contain radial weights with column title radial_weight və ya WEIGHT_SYSTOT

Beta Testing: Beta support for other column titles for weights is added.

Also added is calculation of weights from n(z) during random catalog generation.

mask= Path to mangle polygon file (semi-Optional)

If not provided, randfile= argument must be provided.

Supported filetypes: .ply file containing Mangle polygons describing survey geometry in the standard format. Most files provided by SDSS Value added catalogs should be directly usable.

Size of the random catalog in integer multiples of size of data catalog if random catalog file is not provided. Default value is 2

It is highly recommended to use weights argument by providing weights=True or weights='eq' to obtain accurate two-point correlation calculations. This picks up radial weights in the prescribed format (with column title radial_weight və ya WEIGHT_SYSTOT ) from the data and random files provided.

weights= eq' sets equal weights and hence adds *+1* - This implementation is parallelized and is faster than weights=False` implementation on most machines

If weights=False , by default +1 will be added for each galaxy/random pair found within the bin instead of adding total weight. For more details on weights and references, see http://www.sdss3.org/dr9/tutorials/lss_galaxy.php

Metrics in parallel and perpendicular directions

Calculates anisotropic 2pCF for the following cases.

Available options:

'smu' (default)- Calculates 2pCF in s - mu

'sigpi' - Calculates 2pCF using parallel and perpendicular distances

'ap' calculates 2pCF for small $Delta heta$ and $z Delta heta$ . But results can be converted to any cosmology model of choice (ref: https://arxiv.org/pdf/1312.0003.pdf)

Customization

Formulae for calculation of distances in parallel and perpendicular directions is taken from https://arxiv.org/pdf/1312.0003.pdf. Using the formulae in this paper, $Delta z$ and $z Delta heta$ are computed in the metrics.pyx file for the above mentioned. Cython is chosen for implementation to obtain faster results in building BallTree s calculating cdist and to reduce query time.

One can customize metric definitions as per one's need by editing the metrics.pyx file. After changing this compile it using python metricsetup.py build_ext --inplace

Direct calculation of distances in LOS and perpendicular to the LOS to be added to support standard model Cosmology and other popular models. For now, one needs to manually convert the angular bins to physical distances to get the approximate results


Methodology books for astronomy

A Manual on Machine Learning and Astronomy
edited by Snehanshu Saha (2019). This e-book is a scholastic primer on `Machine Learning Done Right’ for classical problems in astronomy that cannot be addressed using classical tech- niques.ML algorithms and data analytic techniques have exploded in importance, often without a mature understanding of the pitfalls in such studies. Chapters cover exoplanetary astronomy, supernovae, image classification, and more. Python codes are included. Sponsored by IEEE CS Connect, an initiative of the IEEE Computer Society, Bangalore (IN) Chapter.

Statistics for Astrophysics: Bayesian Methodology strong>
by Didier Fraix-Burnet, Stephane Girard, Julyan Arbel, Jean-Baptiste Marquette (editors, 2018) This book includes the lectures given during the third session of the School of Statistics for Astrophysics that took place at Autrans, near Grenoble, in France, in October 2017, covering basic to advanced methods with practical exercises using the R environment, by leading experts in their field. This covers the foundations of Bayesian inference, Markov chain Monte Carlo technique, model building, Approximate Bayesian Computation (ABC) and Bayesian nonparametric inference and clustering.

      by Imad Pasha & Christopher Agostino (2016) An on-line textbook with tutorials and other resources (e.g. guides to UNIX, Vi, SSH) developing for a course at University of California, Berkeley. Topics include basic Python, libraries, loops, classes, LaTeX and HTML.
      by Stefano Cavuoti (2015) In the last decade a new generation of telescopes and sensors has allowed the production of a very large amount of data and astronomy has become, a data-rich science this transition is often labeled as: “data revolution” and “data tsunami”. This new age of Astronomy calls for a new generation of tools and, for a new methodological approach to many problems, and for the acquisition of new skills. The attempts to find a solution to this problems falls under the umbrella of a new discipline which originated by the intersection of astronomy, statistics and computer science: Astroinformatics.
      by Zeljko Ivezic, Andrew J. Connolly, Jacob T. VanderPlas, and Alexander Gray (2014). This volume presents a wealth of practical analysis problems, evaluates techniques for solving them, and explains how to use various approaches for different types and sizes of data sets. For all applications described in the book, Python code and example data sets are provided. The supporting data sets have been carefully selected from contemporary astronomical surveys (for example, the Sloan Digital Sky Survey) and are easy to download and use.
      edited by Luis Manuel Sarro, Laurent Eyer, William O’Mullane, and Joris De Ridder. Review talks on Bayesian model selection for cosmology, mining massive astronomical data sets and astroinformatics. Contributed talks on galaxy clustering, Solar System modeling, Gaia mission planning, variable star classification, irregularly spaced time series, strong gravitational lensing, and stellar property estimation.
      edited by Joseph M. Hilbe (2013). Review talks on Bayesian astrostatistics, statistical cosmology with the cosmic microwave background and supernovae, extrasolar planet modeling, subspace methods for data mining, and Independent Component Analysis.
      by Marisa Cristina March (2013). A volume in Springer Theses series recognizing outstanding Ph.D. research, it concentrates Bayesian and other techniques for analyzing supernova SN 1a data.
      edited by Eric D. Feigelson & G. Jogesh Babu (2012). These are the proceedings of the latest SCMA conference held every 5 years at Penn State with research-level presentations on statistics in cosmology, data mining, image and time series analysis. Each talk is accompanied by a cross-disciplinary Commentary.
      by Eric D. Feigelson & G. Jogesh Babu (2012). Classroom and reference book on statistical methodology covering: probability, statistical inference, nonparametrics, density estimation, regression, multivariate analysis and classification, censoring and truncation, time series and spatial point processes. Provides R and CRAN scripts for 19 astronomical datasets.
      by Jasper V. Wall & C. R. Jenkins (2012, 2nd ed). Textbook on methods relevant for observational astronomy with emphasis on Bayesian approaches and worked problems. Covers probability, correlation, hypothesis testing, Bayesian models, Markov chain Monte Carlo integration, time series analysis, luminosity functions and clustering. Data tables and solutions are provided.
      edited by Michael J. Way, Jeffrey D. Scargle, Kamal M. Ali & Ashok N. Srivastava (2012), Reviews of topics such as: data analysis for gamma-ray and cosmic microwave background astronomy catalog cross-identification Poisson images classification of galaxies, light curves, and high energy sources weak gravitational lensing photometric redshifts galaxy clustering transiting planet detection gravitational wave detection Virtual Observatory and distributed computing applications ensemble classification and more.
      edited by Michael P. Hobson, Andrew H. Jaffe, Andrew R. Liddle, Pia Mukherjee and David Parkinson (2010). The volume reviews: Bayesian parameter estimation, model selection, Monte Carlo sampling, and experimental design signal separation source extraction flux measurement gravitational wave detection cosmic microwave background modeling modeling cosmological populations and galaxy evolution photometric redshifts.

    by J. L. Starck, F. Murtagh & J. Fadili (2010). This book presents the state of the art in sparse and multiscale image and signal processing, covering linear multiscale transforms, such as wavelet, ridgelet, or curvelet transforms, and non-linear multiscale transforms based on the median and mathematical morphology operators. Recent concepts of sparsity and morphological diversity are described and exploited for various problems such as denoising, inverse problem regularization, sparse signal decomposition, blind source separation, and compressed sensing. This book weds theory and practice in examining applications in areas such as astronomy, biology, physics, digital media, and forensics. Matlab and IDL code are included.

    by J. L. Starck & F. Murtagh (2nd ed., 2006). This volume explains how to handle real problems in astronomical data analysis using a modern arsenal of powerful techniques. It treats those innovative methods of image, signal, and data processing that are proving to be both effective and widely relevant. Methods include: detection and filtering image compression multichannel, multiscale, and catalog data analytical methods wavelets transforms, Picard iteration, and software tools.

      by P. C. Gregory (2005). After introduction to probabilities, Bayesian and frequentist inference, this monograph presents Bayesian applications to data with Gaussian and Poisson errors, linear and nonlinear modelling, maximum entropy, Markov chain Monte Carlo integration, and spectral analysis of time series. Provides worked examples with astronomical data, problem sets, and codes associated with Mathematica.
      by Jean-Luc Starck, Fionn Murtagh and Jalal M. Fadili. Monograph on multiscale image and signal processing for astronomy with Matlab and IDL codes. Topics include statistical denoising, inverse problem regularization, sparse signal decomposition, blind source separation, and compressed sensing.

    by Fionn Murtagh (c. 2005). Unpublished lecture notes for a graduate course for astronomers with astronomical applications emphasizing clustering (hierarchical, minimal spanning tree, Voronoi tesselation, partitioning, mixture models, self-organizing maps, ultrametric spaces, P-adic coding), and discriminant analysis (Bayes and nonparametric discrimination, multilayer perceptron). An update of his 1987 monograph appears

      by Philip Bevington & D. Keith Robinson (2003, 2nd ed.). Popular text with code covering error analysis, Monte Carlo techniques, least-squares fitting, maximum-likelihood, and goodness-of-fit.
      edited by Eric D. Feigelson and G. Jogesh Babu. Research conference covering large astronomical surveys, statistical cosmology, nonparametric inference, clustering and classification, harmonic times series analysis, and wavelet analysis. Talks with cross-disciplinary commentaries.
      by Jean-Luc Starck and Fionn Murtagh (2002). Advanced techniques for treating astronomical data including data filtering & storage, image processing (edge detection, segmentation, pattern recognition), image compression, source detectcion, multiscale analysis using wavelet transforms, deconvolution, multivariate data, entropies, catalogs and Virtual Observatories.
      by Vicent J. Martinez and Enn Saar (2002). Comprehensive monograph on the large-scale galaxy of the universe traced by galaxy redshift surveys. It reviews the astronomical observations, statistical techniques and cosmological inferences.
      by Prasenjit Saha. Brief introductory book covering Gaussian & Poisson distributions, Monte Carlo methods, least squares, nonlinear regression, and entropy. Available free on the Web.
      by Byron P. Roe (2001, 2nd edition) Textbook covering basic comcepts, statistical distributions, Monte Carlo methods, central limit theorem, correlation coefficients, curve fitting with constraints andconfidence belts, likelihood ratios, least-squares and robust estimation (including errors in x and y), Poisson problems. Problem sets with solutions.
      by Glen Cowan (1998). Guide to practical applications of statistics in expermental physical science with examples from particle physics. Includes Monte Carlo methods parameter estimation (maximum likelihood, least squares, moments) errors, limits and confidence intervals and characteristic functions.
      by J.-L. Starck, F. Murtagh & A. Bijaoui (1998). Technical monograph on the use of wavelets for multiscale analysis of astronomical, engineering, remote sensing, and medical images.
      by G. Jogesh Babu & Eric D. Feigelson (1996). A review of research topics on the methodology of astronomical data analysis including resampling methods, spatial point processes, symmetrical linear regressions, multivariate classification, time series analysis, censoring and truncation. Introduces astronomical problems to statisticians.
      by Devinder Sivia (1996). A clear introduction by a physicist covering parameter estimation, model selection, assigning probabilities, nonparametric estimation, and experimental design.
      by Roger J. Barlow (1993). Introductory treatment of parameter estimation (least squares, maximum likelihood), hypothesis testing, Bayesian statistics and non-parametric methods.
      by Robert Lupton (1993). Intermediate-level monograph aimed at physical scientists explaining probability distributions, sampling statistics, confidence intervale, hypothesis testing, maximum likelihood estimation, goodness-of-fit, and nonparametric rank tests. Includes problems with answers.
      by Louis Lyons (1991). Undergraduate text for interpretation of experiments including distributions and moments, Gaussian errors, combining results, least-squares fitting, weighting and confidence intervals, parameter testing.

    Some older volumes of interest include:
    Statistics for nuclear and particle physicists (Louis Lyons, 1986)
    E. T. Jaynes: Papers on probability, statistics and statistical physics (E. T. Jaynes, 1989)
    Multivariate Data Analysis (Fionn Murtagh, 1987)
    The History of Statistics: The Measurement of Uncertainty Before 1900 (Stephen M. Stigler, 1986)
    Statistical Methods in Experimental Physics (W. A. Eadie et al., 1971)
    Method of least squares and principles of the theory of observations (I. V. Linnik, 1961)
    Combination of Observations (William M. Smart, 1958)
    Statistical Astronomy (Robert J. Trumpler & Harold F. Weaver, 1953)
    Introduction to Physical Statistics (Robert B. Lindsay, 1941)
    Scientific Inference (Harold Jeffreys, 1937)
    On the algebraical and numerical theory of errors of observations and the combination of observations (George B. Airy, 1861)
    Theory of the combination of observations least subject to error (Carl F. Gauss, 1823, English ed 1995)


    SPACE mission concept

    Driving requirements

    The science requirements identified in the previous sections place firm constraints on mission concept and the design of instrument.

    The first need is to access the whole celestial sphere for about 3 years. The core observing program requires 0.1′′ pointing stability for at least 20 min of typical integration time, high temperature stability and good access to the ground station for data downlink and telemetry. All these requirements are ideally met by a large-amplitude halo orbit around the second Earth-sun Lagrange point (L2). A halo orbit at L2 maximizes the availability of the sky for observation with respect to the visual and thermal disturbance from the Sun, Earth and Moon. The thermal environment is very stable and, with the exception of solar storms, the radiation environment is relatively low. On a halo orbit of sufficient amplitude eclipses can be avoided altogether, while the constant satellite-sun-Earth geometry eases the thermal control and the communications. L2 is considered the ideal vantage point for an IR observatory and, following WMAP, several mission (e.g. Herschel, Planck, GAIA, JWST) will be operated at L2.

    In order to measure a large number of sources, one needs multi-object spectroscopic capability over an area of the order of 1 square degree. In order to observe faint sources, one needs to operate in slit mode, exploiting the celestial background from space

    500 times lower than from the ground. The sensitivity requirement also drives the telescope diameter, whereas the large field of view drive the effective focal length of the optical system. The broad wavelength range and resolution of the spectrograph drives the choice of materials (mirrors vs. lenses), the detector technology, the instrument temperature, and ultimately the multiplexing capability of the instrument. In particular, the need for extensive multi-object capability suggests considering Micro-Electro-Mechanical-Systems (MEMS), following the approach pioneered for NIRSPEC on JWST [31, 35].

    Having set through performance simulations the basic requirements on the instrument parameters (see Section 11), we have evaluated several possible solutions and converged finally on an elegant design that satisfies all requirements. To keep complexity and cost to a minimum we aimed for a single-mode instrument rather an all-purpose machine with a variety of arms and configurations. Nevertheless, we came out with a solution which inherently provides an extraordinary degree of versatility without adding complexity, weight or cost to the basic hardware needed for our main survey program. Using MEMS for target selection we have several millions of randomly addressable optical switches. Depending on the MEMS configuration, and on the selection of a filter or a prism in a filter wheel (we may have a single filter wheel, which would then represent the only moving part on SPACE) SPACE can perform imaging, slitless and slit spectroscopy (our main observing mode), and even wide-field integral field spectroscopy using Hadamard transforms.

    Payload description

    The SPACE payload is a compact and modular instrument, fitting below the primary mirror structure within a cylindrical envelope of 1.5 m diameter (the size of the primary) by 60 cm height. To accommodate for our large field of view, the beam is split into 4 identical channels, each one taking a 90° sector of the cylinder. Each channel is a relatively conventional spectrograph with a MEMS device located at the intermediate focal plane. For the MEMS device we have opted for a Texas Instrument DMD of 2048×1080 micro-mirrors, whereas for the detector we use a 4k×4k infrared Focal Plan Assembly similar to the one developed for JWST. Each micro-mirror images a square 0.75′′×0.75′′ field onto 2×2 detector pixels. Hereafter we will examine the baseline optical design and the main component of a spectrograph more in detail (Fig. 6).

    The telescope is a Ritchey-Chrétien F/5.83, with a 1.5 m F/2.7 primary. A Ritchey-Chrétien telescope, in which both mirrors are hyperbolic, is free from coma and allows for easy optical testing.

    The telescope focal plane falls on a 4-face pyramid mirror providing a total coverage of 51′×27′ (

    0.4 square degrees). The layout sketched in Fig. 7 preserves the symmetry around the optical axis allowing the four channels to be identical with substantial cost saving in the design, fabrication and testing. It still allows to tile the sky with multiple contiguous observation to map large fields without significant losses in coverage.

    Each subfields of the pyramid mirror is reflected toward a fore-optics system, made of 4 mirrors (Fig. 8) contained in a layer

    400 mm deep under the primary support structure. The fore-optics system projects on the DMD an undistorted image of the focal plane with a scale of 0.75′′/DMD facet and excellent optical quality.

    The DMD micro-mirrors are 13.6 μm on a side and tilt along their diagonal by ±12°. When the DMD facets are tilted to their ON position, the beam is reflected in a direction approximately normal to the DMD plane, while when they are turned OFF they reflect at an oblique angle towards a beam dump.

    The collimator collects the beam reflected by the DMD relaying an image at infinity. Its design is similar to that of the fore-optics, with 4 mirrors located in the same 400 mm thick layer (Fig. 9). The collimator, however, develops inward along a cord rather than outward along a radius, therefore the incoming and outcoming beams do not cross. The collimator produces a 66 mm pupil located nearly on the same plane of the pyramid mirror.

    The prism is located in the immediate vicinity of the pupil. Having set at R

    400 target, we have considered a number of solutions based on both grisms and prisms in different configurations and materials. Our baseline choice is for a single pass prism + folding mirror placed immediately after the pupil. For the imaging mode, the prism + folding mirror are substituted by a simple 45° folding mirror and broad-band filter. A single filter wheel per channel allows to insert the other required imaging filters (e.g. z, J, narrow band).

    The camera reimages the DMD plane onto the detector plane with a 1:2 ratio. The camera has 4 lenses, including 2 aspheric surfaces, and is achromatic and diffraction limited between 0.6 and 1.8 μm. The length of a 0.8–1.8 μm R

    670 pixels, slightly dependent on the field position. Thanks to a folding mirror, the detector can be located in the area below the pyramid mirror. Having all IR detectors located close to each other simplifies the cooling system (Fig. 10).


    Videoya baxın: Bütün Kainatın Ən SEHİRLİ və MARAQLI 7 Planeti (Sentyabr 2021).