HTML

Precognox

 precognox-logo-cmyk-620.jpg

A blog készítői a Precognox Kft. keretein belül fejlesztenek intelligens, nyelvészeti alapokra épülő keresési, szövegbányászati, big data és gépi tanulás alapú megoldásokat.

Az alábbi keresődoboz segítségével a Precognox által kezelt blogok tartalmában tudsz keresni. A kifejezés megadása után a Keresés gombra kattintva megjelenik vállalati keresőmegoldásunk, ahol további összetett keresések indíthatóak. A találatokra kattintva pedig elérhetőek az eredeti blogbejegyzések.

Ha a blogon olvasható tartalmak kapcsán, vagy témáink alapján úgy gondolod megoldással tudunk szolgálni szöveganalitikai problémádra, lépj velünk kapcsolatba a keresovilag@precognox.com címen.

Precognox Blogkereső

Document

opendata.hu

opendatahu45.jpg

Az opendata.hu egy ingyenes és nyilvános magyar adatkatalógus. Az oldalt önkéntesek és civil szervezetek hozták létre azzal a céllal, hogy megteremtsék az első magyar nyílt adatokat, adatbázisokat gyűjtő weblapot. Az oldalra szabadon feltölthetőek, rendszerezhetőek szerzői jogvédelem alatt nem álló, nyilvános, illetve közérdekű adatok.

Facebook oldaldoboz

Blog figyelése (RSS)

 Add hozzá az RSS olvasódhoz

Ha levélben szeretnél értesülni az új cikkekről:

Star Wars text mining

visualizing_star_wars_movie_scripts_precognox.jpgA long time ago, in a galaxy far, far away data analysts were talking about the upcoming new Star Wars movie. One of them has never seen any eposide of the two trilogies before, so they decided to make the movie more accessible to this poor fellow. See more...

Főbb témák

adat (8) adatbányászat (10) adatelemzés (9) adatok (13) adatújságírás (16) adatvizualizáció (19) AI (17) alternatív (6) alternatív keresőfelület (27) analitika (6) beszédtechnológia (13) big data (55) bing (14) blogkereső (6) CEU (6) clustering (6) conTEXT (8) dashboard (6) data science (9) deep learning (16) egészség (7) egészség kereső (7) előadás (7) emócióelemzés (35) Facebook (9) facebook (8) gépi tanulás (18) Google (33) google (58) gyűlöletbeszéd (7) hackathon (10) hálózatelemzés (14) internetes keresés (32) internet hungary (6) képfeldolgozás (8) képkereső (8) keresés (81) kereséselmélet (8) keresés jövője (55) keresés problémái (41) keresők összehasonlítása (9) keresőmotor (13) keresőoptimalizálás (8) kereső szándéka (11) kereső tanfolyam (9) kereső teszt (15) kognitív nyelvészet (12) konferencia (46) könyvajánló (25) korpusznyelvészet (14) közösségi keresés (8) közösségi média (8) különleges keresők (7) kutatás (8) lda (10) LDA (10) live (13) machine learning (8) magyar kereső (9) marketing (8) meetup (41) mesterséges intelligencia (17) metafora (7) mobil (37) mobil keresés (17) Neticle (9) NLP (8) NLP meetup (17) Nuance (9) nyelv (7) nyelvészet (31) nyelvtechnológia (75) open data (12) open knowledge (7) orosz (6) Pennebaker (6) politikai blogok (22) Precognox (61) Precognox Labs (14) Python (14) R (19) spam (6) statisztika (12) számítógépes nyelvészet (9) szemantikus keresés (19) szemantikus kereső (9) szentimentelemzés (37) szöveganalitika (7) szövegbányászat (21) társadalomtudomány (7) tartalomelemzés (56) tartalomjegyzék (6) tematikus kereső (19) topik modellek (6) twitter (15) Twitter (18) vertikális kereső (9) vizualizáció (13) yahoo (27) Címkefelhő

A blog tartalmai CC licenc alá tartoznak

Creative Commons License
Kereső Világ by Precognox Kft. is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
Based on a work at http://kereses.blog.hu/.
Permissions beyond the scope of this license may be available at http://precognox.com/.

A Kereső Világ blogon közölt tartalmak a Precognox Kft. tulajdonát képezik. A tartalom újraközléséhez, amennyiben nem kereskedelmi céllal történik, külön engedély nem szükséges, ha linkeled az eredeti tartalmat és feltünteted a tulajdonos nevét is (valahogy így: Ez az írás a Precognox Kft. Kereső Világ blogján jelent meg). Minden más esetben fordulj hozzánk, a zoltan.varju(kukac)precognox.com címre írt levéllel.

Creative Commons License

Nevezd meg! - Ne add el! - Ne változtasd!

 

Big Data és az NBA

2022.05.19. 13:24 Szerző: Hódi Péter Címkék: statisztika sport adat kosárlabda big data adatelemzés NBA

NBA: nem csak a sportról szól

Az NBA - az észak-amerikai profi kosárlabdaliga, amely a világ legjelentősebb férfi kosárlabda-bajnoksága - mára már nem kizárólag a sportról és az üzletről szól, hanem az adatok gyűjtéséről és feldolgozásáról is.

nba_statisztika.png

Bár a big data megoldásokat néhány évvel ezelőttig jellemzően az üzleti cégek, a tőzsdei kereskedők, az egészségügyi vállalatok alkalmazták főként prediktív célokkal, addig mára világossá vált, hogy a statisztikák és a valós idejű adatok komoly előnyt jelentenek a sport világában is Ezek komoly segítséget nyújtanak a csapatok, de akár az egyéni sportolók számára is abban, hogy elérjék céljukat: a győzelmet. Nincs ez másként az NBA-ben sem, ahol ma már szinte minden csapatnak van külön adatelemző részlege.

A Moreyball története

2002-ben Daryl Morey maga mögött hagyta a világ egyik legnagyobb globális stratégiai tanácsadó szervezeténél kiépített karrierjét, ahol is sportelemzésre szakosodott konzultációkat kínált. Innen Morey a kosárlabda világába lépett át, ahol a Boston Celticsnél a működésért felelős alelnöki pozíciót töltötte be.
Négy évvel később a Houston Rocketshez igazolt, ahol az NBA történetének első olyan általános igazgatója lett, aki "nem klasszikus kosárlabdás háttérrel" rendelkezett. Morey részese volt annak a lépésnek, amellyel a Rockets a fejlett adatelemzést a scouting és az edzőképzés keretébe illesztette.
A Moreyball kifejezés (adatelemezés alapú játékmegközelítés) azonban ennél jóval többet takar, hiszen Morey arra is rájött, hogy a kosárlabda-statisztikák remekül hasznosíthatóak a támadójáték javítása érdekében. A többi már történelem…

Adatelemzés és az NBA

Az NBA csapatok hatalmas összegeket fektetnek be nagy adatelemző cégekbe és technológiákba, hogy azok győzelemre segítsék őket. Az olyan cégek, mint a STATS segítenek az edzőknek és a sportszakembereknek a játék elemzésében azáltal, hogy a mérkőzések alatt kamerák segítségével összesítik és elemzik a játékosok mozgását és pozícióit. A technológia több síkban követi a labdát és a sportolókat, kiszámítva a játékosok közötti távolságokat és a sebességeket. A rendszer emellett labdabirtoklási információkat is szolgáltat. Mindeközben a STATS ezt a hatalmas mennyiségű adatot egy olyan platformmá alakítja át, amely az edzők és a játékosok számára könnyen érthető és használható. A valós idejű információk felhasználhatóak a játék közbeni döntések meghozatalához vagy akár a későbbi edzésgyakorlatok testre szabásához is.

"Idén jobb csapat leszünk. Ezt az analitikából tudjuk". - mondta Rick Carlisle, a Dallas Mavericks, egy olyan NBA-csapat - edzője, amely komoly összegeket fektetett be a big data technológiába.

A gyűjtött adatok a pályán kívül a szurkolóknak is segítenek jobban megérteni a játékot. Például a Los Angeles Clippers olyan big data technológiába fektetett be nemrégiben, amely grafikák és összetett statisztikák kombinációját mutatja be a nézők feje fölött lévő óriási kijelzőkön, hogy a szurkolók azok segítségével elemezhessék az eseményeket.

orlando_magic_stadium.jpg

óriáskijelző az Orlando Magic stadionjának mennyezetén


A fentiekből látható, hogy az adatelemzés “rárúgta az ajtót” a sportra, különösképp igaz ez a világ legnépszerűbb ligáira, köztük az NBA-re is.

Amennyiben többet szeretne megtudni a témáról, kérjük olvassa el a Bentley University oldalán megjelent angol nyelvű cikket, amely jelen blogbejegyzésünk alapjául is szolgált!

A Kereső Világ a Precognox Precognox szakmai blogja A Precognox intelligens, nyelvészeti alapokra építő keresési, szövegbányászati és big data megoldások fejlesztője.

Szólj hozzá! • Kövess Facebookon • Iratkozz fel értesítőre

Gépi tanulás - Top trendek 2022

2022.04.07. 09:14 Szerző: Hódi Péter Címkék: trendek technológia mesterséges intelligencia 2022 arcfelismerés gépi tanulás AI IoT okosotthon deep learning machine learning

Mi a gépi tanulás?

Gépi tanulás alatt olyan módszerek és algoritmusok összességét értjük, amelyek a már rendelkezésre álló adatokból egy modell segítségével következtetéseket (predikciókat) hoznak létre. Ezek a "jóslatok" pedig mára már szinte minden területen hasznosíthatóak.
Éppen ezért a gépi tanulásos (ML) alkalmazások számos iparágban megtalálhatók, többek között a pénzügyi szférában, az élelmiszer-ellátásban vagy a gyártóiparban. Legyen szó akár egy gyártósorról, étteremről vagy egy benzinkútról, szinte mindenhol alkalmazzák a gépi tanulás vívmányait.

Mi az az AI? És a Machine Learning? Az alábbi videó segít eligazodni:

 

Tekintsük át a gépi tanuláshoz köthető trendeket, tehát a leggyakoribb felhasználási területeket!

IoT, azaz a dolgok internete és a gépi tanulás

A legfontosabb ML-fejlesztések előreláthatólag az IoT területén lesznek, hiszen itt az 5G bevezetésével hatalmas áttörés várható. Az 5G óriási hálózati sebessége miatt a rendszerek gyorsabb ütemben lesznek képesek adatokat fogadni és továbbítani, a hálózathoz csatlakoztatott IoT-eszközök számának növekedése pedig a kicserélt adatok mennyiségének jelentős emelkedését eredményezi.

Automatizált gépi tanulás

A szakemberek az automatizált gépi tanulás segítségével hatékony technológiai modelleket tervezhetnek, amelyek segíthetnek a hatékonyság és a termelékenység javításában. Ez különösen fontos a fejlesztési ágazatban, ahol a szakemberek alkalmazásokat fejleszthetnek anélkül, hogy komoly programozási ismeretekkel rendelkeznének.

Kiberbiztonság

A digitalizáció és a technológia fejlődésével a legtöbb alkalmazás és készülék intelligenssé vált, ami jelentős technológiai fejlődést eredményezett. Azáltal, hogy ezek az intelligens készülékek folyamatosan kapcsolódnak az internethez, egyre nagyobb igény mutatkozik arra, hogy használatuk biztonságosabbá váljon. A szakemberek pedig a gépi tanulást felhasználhatják olyan vírusellenes modellek létrehozására, amelyek blokkolják az esetleges kibertámadásokat , ezzel csökkentve a veszélyeket.

smart_home_1.jpg

egyre elterjedtebbek az okosotthonhoz köthető eszközök és alkalmazások

Etikus mesterséges intelligencia

A mesterséges intelligenciához köthető új technológiák fejlődésével egyre nagyobb gondot jelent néhány ezekre vonatkozó etikai irányelv meghatározása. Ugyanis minél magasabb szintű a technológia, annál szofisztikáltabban kell lefektetni a kapcsolódó etikai normákat is., mivel a gépek nem lesznek képesek hatékonyan teljesíteni, ha az etikát (megfelelő szabályokat) nem követik. Ezt láthatjuk már az önvezető autók esetében is.
Ez a szabályozási terület pedig rendkívüli fontossággal bír, hiszen például a közlekedési eszközökbe beültetett mesterséges intelligencia, amely a jármű agyaként szolgál, felelős az önvezető autó "viselkedéséért", így többek között az esetleges balesetek elkerüléséért.

Tudjon meg többet arról, hogyan lehet etikus mesterséges intelligenciát alkotni!

A természetes emberi beszéd megértésének automatizálása

Egyre többet hallunk az okosotthon-technológiáról, amely leggyakrabban az ember által adott hangutasítások alapján működik. A technológiában élen járó intelligens hangalapú asszisztensek, mint például a Google, a Siri és az Alexa is ilyen vezérléssel kapcsolódnak az intelligens készülékekhez. Bár ezek a rendszerek már most is nagy pontossággal érzékelik az emberi hangokat, ezen a területen is további fejlődés prognosztizálható.

alexa.jpg

Kódolásmentes gépi tanulás és mesterséges intelligencia

A kód nélküli gépi tanulás pontosan az, aminek hangzik: a gépi tanulással kapcsolatos alkalmazások létrehozása anélkül, hogy (sok) kódolást kellene végezni. Ehelyett egy 'drag-and-drop' vizuális felület segítségével kerül létrehozásra az adott gépi tanulásos alkalmazás.

Ez a fajta kód nélküli gépi tanulás a kód nélküli szoftverfejlesztésből ered. A fogalom viszonylag új, maga az eljárás a fejlesztési idő és erőfeszítések csökkentését célozza, hiszen felhasználók ahelyett, hogy kézzel írnának kódokat, speciális - és egyszerűbb - eszközöket használhatnak a szoftveralkalmazások létrehozásához.

MLOps - A gépi tanulás operacionalizálásának menedzsmentje

A gépi tanulás fejlesztése az MLOps bevezetése előtt olyan sajátos problémákkal járt együtt, mint a skálázhatóság, a megfelelő ML-pipeline-ok kiépítése, az érzékeny adatok skálán történő kezelése és a csapatkommunikáció. Az MLOps célja, hogy ezeket a nehézségeket a legjobb gyakorlatok kialakításával orvosolja, így többek között segítse az ML modellek éles rendszerbe való integrációját és folyamatos üzemeltetését.

gace_recognition.jpg

az arcfelismerés ma már nagyon elterjedt technológia

Few Shot, One Shot, & Zero-Shot Learning

A "Few Shot Learning" során csak kis mennyiségű adat kerül felhasználásra. Bár ennek vannak hátrányai, mégis széleskörűen alkalmazható olyan területeken mint a képosztályozás, az arcfelismerés és a szövegosztályozás.
Az "One Shot Learning" ezzel szemben még kevesebb adatot használ, de például így is hasznosítható, akár az arcfelismerésnél, mint amikor egy adott útlevél fényképet kell összehasonlítani egy személy kamerával rögzített képével. Ehhez ugyanis nem kell hatalmas információs adatbázist létrehozni.
A "Zero-Shot Learning" koncepciója elég furcsának tűnhet és felvetődik a kérdés, hogy: kezdő adatok nélkül hogyan működhetnek a gépi tanulási algoritmusok? Ebben az esetben arról van szó, hogy a rendszer megnéz egy témát, és a róla szóló információkat felhasználva megjósolja, hogy melyik osztályba fog tartozni.

A fenti példák sokszínűsége jelzi, hogy a gépi tanulásos rendszerek egyre nagyobb területet hódítanak meg és még emellett is rengeteg kiaknázási potenciál van bennük.

Amennyiben többet szeretne megtudni a témáról, kérjük olvassa el a Marktechpost oldalán megjelent angol nyelvű cikket, amely jelen blogbejegyzésünk alapjául is szolgált!

A Kereső Világ a Precognox Precognox szakmai blogja A Precognox intelligens, nyelvészeti alapokra építő keresési, szövegbányászati és big data megoldások fejlesztője.

Szólj hozzá! • Kövess Facebookon • Iratkozz fel értesítőre

Adattó vagy adattárház?

2022.03.02. 08:05 Szerző: Hódi Péter Címkék: adattárolás adattárház adatvagyon big data adatelemzés adattudós adattudomány adattó

big-gf8dca524d_big_data.jpg


Az adattavakat és az adattárházakat egyaránt széles körben használják a nagy mennyiségű adatok tárolására, de a két kifejezés nem ugyanazt takarja, hiszen a megoldások között számos eltérés van. De melyiket mikor érdemes választani?

Röviden

Az adattó a nyers adatok hatalmas tárháza, amelynek célja még nincs meghatározva. Az adattárház pedig olyan strukturált, szűrt adatok tárolója, amelyeket már feldolgoztak (rendszereztek) egy adott célra.

Az adattó

Az adattó egy olyan tárolóhely, amely nagy mennyiségű strukturált, félig strukturált és strukturálatlan adatot képes tárolni. Az adattó esetében minden típusú adat az eredeti formátumban kerül tárolásra, a fiókméretre vagy a fájlra vonatkozó rögzített korlátok nélkül.

Az adattavak sokféle forrásból származó adatokat tárolnak. Néha ezek az adatok strukturáltak, de gyakran meglehetősen rendezetlenek, mivel az azok közvetlenül az adatforrásokból kerülnek beolvasásra, ilyenek például IoT-eszközök, valós idejű közösségi médiafolyamok, vagy akár egy webalkalmazásokon belüli tranzakciók.

A céges adatvagyon részét képezhetik az internetről származó tartalmak is, amelyek gyűjtésére már több hazai megoldás is elérhető, ilyen többek között a Precognox által kifejlesztett TAS Data Collector.


Az akár petabájt méretű adattavakat főként adattudósok és mérnökök használják előszeretettel mivel az az adattárolás mellett kiválóan alkalmasak adatelemzésre, azon belül is mélytanulásos vagy valós idejű analitikára.

Az adattó alkalmazása mellett akkor érdemes dönteni, amikor a cél a költséghatékony nagy mennyiségű adat tárolása, mégpedig az eredeti formátumban.

adattarolas_is_muveszet.jpg

a tárolás is igazi művészet, különösen ha adatokról van szó

Az adattárház

Az adattárház az adatok főként stratégiai (üzleti elemzői) felhasználását szolgálja, hiszen azt a különböző forrásokból származó adatok lekérdezésre és elemzésre tervezték. Az adattárházak az adattavakkal szemben olyan adatokat tartalmaznak, amelyeket korábban már megtisztítottak, hogy illeszkedjenek egy sémához, struktúrához, így jellemzően read-only módon vannak beállítva, mivel általában nincs szükség további adatok beszúrására.

Az adattárház kizárólag az elemzés szempontjából releváns adatokat tárolja, a felhasználók köre pedig legfőképpen az adat- és az üzleti elemzők.

Választási szempontok

A fentiekből jól kiolvasható, hogy amikor döntés előtt állunk, hogy adattóra vagy adattárházra van szükség, akkor az könnyedén meghozható, mivel jól elkülönülnek a felhasználási célok és módszerek, illetve a felhasználók köre.
Érdemes tehát a választás előtt tisztázni, hogy nyers vagy tisztított (és strukturált) adatokat kívánunk tárolni, azokkal főként adattudósok vagy üzleti elemzők dolgoznak, illetve milyen célok megvalósítása tűztük ki.

Amennyiben többet szeretne megtudni a témáról, kérjük olvassa el a Datacamp oldalán megjelent angol nyelvű cikket, amely jelen blogbejegyzésünk alapjául is szolgált!

A Kereső Világ a Precognox Precognox szakmai blogja A Precognox intelligens, nyelvészeti alapokra építő keresési, szövegbányászati és big data megoldások fejlesztője.

Szólj hozzá! • Kövess Facebookon • Iratkozz fel értesítőre

Van-e létjogosultsága a robotújságírásnak?

2022.02.07. 07:22 Szerző: Hódi Péter Címkék: cikk robot újságírás automatizálás algoritmus NLG természetes nyelvfeldolgozás robotújságírás természetes nyelvi generálás

Már cikkünk címe is furcsán hangozhat. Ugye? Robot - lét. De kezdjük egy rövid bevezetéssel, mielőtt megpróbálnánk megválaszolni a fenti kérdést!

ember_robot.jpg

Mi az a robotújságírás?

A robotújságírásban vagyis az automatizált újságírásban bizonyos adatokat valamilyen emberi nyelven megírt hírekké alakítanak át. Ezt természetes nyelvi generálási (NLG) technikákkal érik el. Egyszerűsítve: a folyamat során egy mesterséges intelligenciába táplált adatok segítségével szöveges tartalmakat hoznak létre.

“A robotújságírás nagy előnye, hogy az erre a célra alkotott algoritmusok nemcsak hogy képesek egy adott témában hírek ezreit létrehozni, hanem ezt gyorsabban, olcsóbban és potenciálisan kevesebb hibával is megtehetik, mint bármely emberi újságíró.” - állítja cikkében Andreas Graefe professzor.*

Milyen esetekben hasznos az automatizált újságírás?

A robotújságírást abban az esetben célszerű alkalmazni, amennyiben ehhez strukturált adatok állnak rendelkezésre, és a téma ismétlődő jellegű. Több ilyen terület is eszünkbe juthat, például a sport, a pénzügy vagy éppen az időjárás.

Természetesen alapvető fontosságú, hogy az input-ként szolgáló adatok pontosak és megfelelően értelmezhetőek legyenek az algoritmus számára szöveggeneráláshoz.

Vegyünk egy példát időjárás-előrejelzésre:

"Csípős éjszakák, hideg nappalok
Szerdán gomoly- és észak felől fölénk sodródó fátyolfelhők zavarhatják meg a napos időt. Érdemi csapadék nem valószínű, legfeljebb gyenge hózáporok lehetnek, főként eleinte a középső tájakon. Gyenge lesz a légmozgás. Délután -2, +3 fok várható."

A fenti szöveg generálásához inputot jelentenek többek között a hőmérsékleti- és széladatok vagy a felhőtérkép.

Alacsony szélsebesség - “gyenge lesz a légmozgás”
Kevés az előrejelzett csapadékfelhő - “érdemi csapadék nem valószínű.

Az ilyen módon generált szövegek szakértő általi ellenőrzése természetesen erősen javasolt, az azonban már nem igényel akkora időráfordítást, mint a teljes szöveg megfogalmazása, szerkesztése és gépelése.

Könnyen belátható, hogy például sporteseményekről történő tudósítások esetén, (amelyek száma igen jelentős), komoly segítséget jelenthet a robotújságírás. Az algoritmus fejlettségének mértékében pedig akár színvonalas tudósítások is születhetnek.

emberi_kez.jpg

Az olvasó dönt

Jelenleg kevés az információ arról, hogy a nagy lapok szerkesztőségei milyen mértékben alkalmazzák a “robo-zsurnalizmust”, ez azonban összefügghet többek között bizonyos üzleti titoktartási okokkal is.
Végső soron úgyis az olvasó fogja eldönteni, hogy egy-egy írás, beszámoló mennyire hiteles és milyen színvonalú, illetve a későbbiekben preferálni fogja-e az adott médiafelületet.
Biztosan sokan vannak azok, akik kétkedve fogadják a robotújságírást, vagy nem örülnek a megoldásnak (különösképpen a hús-vér újságírók), de az igény felmerülése azt mutatja, hogy bizonyos mértékben van létjogosultsága, még akkor is, ha nehezen egyeztető össze a robot és a lét, mint kifejezések.

És vajon a fenti szöveget ember írta?

Amennyiben többet szeretne megtudni a témáról, kérjük olvassa el a Towards Data Science oldalán megjelent angol nyelvű cikket, amely jelen blogbejegyzésünk alapjául is szolgált!

*szabad fordítás

A Kereső Világ a Precognox Precognox szakmai blogja A Precognox intelligens, nyelvészeti alapokra építő keresési, szövegbányászati és big data megoldások fejlesztője.

Szólj hozzá! • Kövess Facebookon • Iratkozz fel értesítőre

Julia vs. Python: melyik a jobb az adattudósok számára?

2022.01.04. 07:30 Szerző: Hódi Péter Címkék: programozási nyelv Julia Python adattudós adattudomány

Alaptézis: amíg a Python úgy vált az adattudomány és a gépi tanulás fő támaszává, addig a Julia már a kezdetektől fogva az ilyen feladatok elvégzésére készült. Ennek tükrében vizsgáljuk meg, hogy milyen előnyei vannak az egyiknek és a másiknak az adattudósok szempontjából! 

A Python számos felhasználási módja közül talán az adatelemzés vált a legnagyobb és legjelentősebb területté, hiszen a Python ökoszisztéma, tele könyvtárakkal, eszközökkel és alkalmazásokkal, gyorssá és kényelmessé teszi a tudományos számítási és adatelemzési munkát. A Python azonban gyakran a Julia nyelv mögé szorul, mivel az kifejezetten a tudományos felhasználást, a gépi tanulást, az adatbányászatot, a lineáris algebrát célozza, ezzel összevetve a Python nem elég gyors és kényelmes. A Julia célja, hogy a tudósoknak és adatelemzőknek ne csak gyors és kényelmes fejlesztést, hanem villámgyors végrehajtási sebességet is biztosítson.

 

Mi az a Julia nyelv?

A 2009-ben, egy négy fős csapat által megalkotott Julia nyelv a Python és más, tudományos számításokhoz és adatfeldolgozáshoz használt nyelvek és alkalmazások hiányosságait hivatott orvosolni.

"Olyan nyelvet akarunk, amely nyílt forráskódú. A C sebességét akarjuk elérni a Ruby dinamizmusával. Olyan nyelvet akarunk, amely valódi makrókkal rendelkezik, mint a Lisp, de olyan ismerős matematikai jelölésekkel, mint a Matlab. Olyasmit akarunk, ami olyan jól használható általános programozásra, mint a Python, olyan egyszerű a statisztikához, mint az R, olyan természetes a karakterlánc-feldolgozáshoz, mint a Perl, olyan erős a lineáris algebrához, és természetesen olyat, amelyet rendkívül egyszerű megtanulni.” - mondták akkor a csapat tagjai.*

Julia vs. Python: Julia előnyök

A Julia nyelvet kezdettől fogva tudományos és numerikus számításokhoz tervezték, így nem meglepő, hogy számos olyan funkcióval rendelkezik, amelyek előnyösek az ilyen felhasználási esetek számára:

  • a Julia gyors. hiszen már eleve úgy lett megtervezve, hogy a kezdetektől fogva gyorsabb legyen, mint optimalizálatlan Pythont
  • a Julia matematika-barát szintaxissal rendelkezik, a matematikai műveletek jobban hasonlítanak ahhoz, ahogyan a matematikai képleteket a számítástechnika világán kívül írják, így a nem programozók számára könnyebben elsajátítható.
  • a Julia automatikus memóriakezeléssel rendelkezik. A Pythonhoz hasonlóan a Julia sem terheli a felhasználót a memória kiosztásának és felszabadításának részleteivel.
  • a Julia kiváló és éppen ezért kifinomultabb párhuzamosságot kínál, mint a Python.
  • a Julia saját natív gépi tanulási könyvtárakat fejleszt, amelyek számos létező modellmintát tartalmaznak a gyakori felhasználási esetekhez. Mivel teljes egészében Julia nyelven íródott, a felhasználó igényei szerint módosítható.

Julia vs. Python: Python előnyei

Bár a Julia kifejezetten az adattudomány számára készült, a Python pedig többé-kevésbé belekerült ebbe a szerepkörbe, a Python néhány meggyőző előnyt kínál az adattudósok számára. Az okok közül néhány, amiért a Python jobb választás lehet az adattudományi munkákhoz:

  • a Python nulla alapú tömbindexelést használ ellentétben a Julia-val, amely 1-es indexelést, így az általánosabb felhasználású programozáshoz szokottak közönség könnyebben elfogadja a Python-t.
  • a Python-programok ugyan lassabbak lehetnek, mint a Julia-programok, de maga a Python környezetben kevesebb időbe telik, amíg a programok elindulnak és elérik az első eredményeket. Bár sokat dolgoztak azon, hogy Julia gyorsabban induljon, ezen a területen a Python még mindig előnyben van.
  • a Python a Julia nyelvvel ellentétben kiforrott. A Julia csak 2009 óta van fejlesztés alatt, és azóta elég sok funkcióváltáson ment keresztül. Ezzel szemben a Python már majdnem 30 éve létezik.
  • a Python sokkal több harmadik féltől származó csomaggal rendelkezik, ezek széles skálája és hasznossága továbbra is a nyelv egyik legnagyobb vonzereje, amíg a Julia relatív újdonsága azt jelenti, hogy a körülötte lévő szoftverkultúra még mindig kicsi.
  • a Python-nak több millió felhasználója van, hatalmas, elkötelezett és aktív közösséget képezve. A Julia körüli közösség ugyan lelkes és folyamatosan növekszik, de még mindig csak töredéke a Python közösség méretének.
  • a Python a fejlesztéseknek (beleértve a többmagos és párhuzamos feldolgozás fejlesztését) köszönhetően egyre gyorsabb, és mindemellett a Python pedig könnyebben fel is gyorsítható.

 

A fenti előnyök figyelembe vételével mindenki eldöntheti, hogy a Python vagy a Julia mellett teszi le a voksát. Természetesen érdemes lesz követni mindkettő esetében az újdonságokat és a frissítéseket is.

Amennyiben többet szeretne megtudni a témáról, kérjük olvassa el az Infoworld oldalán megjelent angol nyelvű cikket, amely jelen blogbejegyzésünk alapjául is szolgált!

*szabad fordítás

A Kereső Világ a Precognox Precognox szakmai blogja A Precognox intelligens, nyelvészeti alapokra építő keresési, szövegbányászati és big data megoldások fejlesztője.

Szólj hozzá! • Kövess Facebookon • Iratkozz fel értesítőre

süti beállítások módosítása