literatur.social ist einer von vielen unabhängigen Mastodon-Servern, mit dem du dich im Fediverse beteiligen kannst.
Der Einstieg ins Fediverse für Autor:innen und Literaturmenschen ... The gateway into the fediverse for authors and all people interested in literature.

Verwaltet von:

Serverstatistik:

306
aktive Profile

#Sprachwissenschaft

1 Beitrag1 Beteiligte*r0 Beiträge heute
Fortgeführter Thread

12/ Also die Semantiker*innen beschäftigen sich mit Dingen, die es nicht gibt. Auch wenn es, wie wir jetzt herausgefunden haben, Einhörner gibt, werden sie sich sicher was neues Nicht-Existierendes suchen, mit dem sie dann ihre eingebetteten möglichen Welten bevölkern können. Vielleicht werden sie ja den Spracherwerbsforscher*innen das #Wug klauen.

psychology.fandom.com/wiki/Wug

Wir Syntaktiker*innen sind da besser: Wir beschäftigen uns mit Dingen, die es wirklich gibt. Ganz sicher! Nur leider sieht man sie manchmal nicht. Zum Beispiel ist am Ende des Satzes in der Abbildung ein Verb, das man aber leider nicht sehen kann. Aber es verhält sich wie ein Verb. Doch wirklich!

Fortgeführter Thread

8/ Es gibt auch Einhorn-Sätze im Kapitel. Zum Beispiel:

Jeder Affe glaubt, dass ein Einhorn schläft.

Das Interessante ist, dass es drei Lesarten gibt. (die generische nicht mitgezählt) Zwei mit verschiedenem Quantorenskopus und dann noch eine, in der der Existenzquantor unter glauben eingebettet ist.

Das ist wichtig, weil es Einhörner überhaupt nicht gibt. Die Affen können also an Einhörner glauben, ohne dass es spezifische Einhörner geben muss.

In dem Dominanzgraph in der Abbildung sind alle drei Analysen repräsentiert und der Skoperesolver findet die auch. \o/

Was sagt uns das alles über Semantiker*innen? Die beschäftigen sich mit Sachen, die es gar nicht gibt!!!!

💍 Kommunikation im digitalen Raum! 💬🌐
Diese interaktiven #H5P-Module vermitteln anhand von Fallstudien die Besonderheiten internetbasierter Kommunikation. Zudem wird in die sprachdatengestützte Analyse mit linguistischen Korpora eingeführt. Direkt nutzbar & ohne Anmeldung herunterladbar.

🔗 Mehr dazu: twillo.de/edu-sharing/componen

Fortgeführter Thread

7/ Kapitel 5 ist fertig. Ich glaube, es ist die erste Einführung in Minimal Recursion Semantics (#MRS) auf Deutsch. Nicht, dass das irgendwas wert wäre, es lesen ja eh alle Englisch.

Jedenfalls, habe ich Kapitel vier und fünf komplett umgestaltet. Kapitel 5 ist ganz neu und viel von Kapitel 6 ist jetzt in vier drin. Uff. Danach wird jetzt alles ganz einfach. Die letzten Kapitel müssten einfach umzuschreiben sein. Die implementierten Grammatiken sind vielleicht schwieriger. Mal gucken.

Jedenfalls könnt Ihr hier die fertigen Kapitel lesen.

hpsg.hu-berlin.de/~stefan/Pub/

Kommentare willkommen. Ich hoffe, man kann das so alles verstehen.

Der Code für das Buch und die TRALE-Grammatiken ist dort auch verlinkt. Ich werden in den nächsten Tagen die Anleitungen für das Installieren von TRALE aktualisieren. Wenn jemand das mal ausprobieren will.

hpsg.hu-berlin.deHead-Driven Phrase Structure Grammar (HPSG)Einführung in die Head-Driven Phrase Structure Grammar (HPSG)

ᐉ 𝗦𝗔𝗠𝗠𝗘𝗟𝗕𝗔𝗡𝗗 • 𝗘𝗿𝗶𝗻𝗻𝗲𝗿𝘂𝗻𝗴𝘀𝗸𝘂𝗹𝘁𝘂𝗿: 𝗭𝘄𝗶𝘀𝗰𝗵𝗲𝗻 𝗦𝗰𝗵𝘄𝗲𝗶𝗴𝗲𝗻 𝘂𝗻𝗱 𝗭𝗲𝘂𝗴𝗲𝗻𝘀𝗰𝗵𝗮𝗳𝘁

Studenten der Universität Augsburg befassen sich im Sammelband »Verstummen, Bezeugen, Vermitteln« mit Formen und Themen deutscher Erinnerungskulturen. Der Band ist ab sofort als Open-Access-Publikation verfügbar.

auxlitera.de/2025/03/09/erinne

#literaturaugsburg
#erinnerungskultur
#uniaugsburg
#openaccess
#augsburg
#sprachwissenschaft
#bayerischschwaben

Fortgeführter Thread

4/ So Kapitel 4 ist fertig.

hpsg.hu-berlin.de/~stefan/Pub/

Es gibt jetzt ARG-ST und SPR und COMPS. Ich hatte all die Jahre immer noch SUBCAT im Buch, wie es bei Pollard & Sag bis 1992 üblich war und letztendlich für das Deutsche auch OK. Aber irgendwann habe ich mich mit den Germanischen Sprachen beschäftigt und da braucht man dann ARG-ST und SPR und COMPS. Schön, dass die Bücher zum Germanischen und zu HPSG jetzt wieder konsistent werden.

Die computerverarbeitbare Grammatik habe ich auch angepasst.

hpsg.hu-berlin.deHead-Driven Phrase Structure Grammar (HPSG)Einführung in die Head-Driven Phrase Structure Grammar (HPSG)
Fortgeführter Thread

3/ Kapitel 3 ist auch fertig:

hpsg.hu-berlin.de/~stefan/Pub/

Da ist die Einführung der Argumentstrukturliste neu. Die gab es bisher in dem Buch nicht.

Ab jetzt wird es schwierig, denn zu jedem Kapitel gibt es eine Computer-Implementation und die muss ich auch noch anpassen. Ich werde eine unterspezifizierte Semantik verwenden, so dass wirklich alles neu wird. Na, mal sehen.

#OpenSource #OpenAccess #Linguistik #Syntax #Sprachwissenschaft #HPSG .

hpsg.hu-berlin.deHead-Driven Phrase Structure Grammar (HPSG)Einführung in die Head-Driven Phrase Structure Grammar (HPSG)
Antwortete im Thread

@einfachnurRoland >Guck mal hier: Das ist die Diskussion, die Linguist*innen mit KI-Wissenschaftler*innen führen:

arxiv.org/abs/2502.10934

Wenn es die Linguist*innen und die systematische Erforschung von Sprache nicht gäbe, könnten Informatiker*innen nie verstehen, was an ihren Systemen nicht funktioniert.

arXiv.orgFundamental Principles of Linguistic Structure are Not Represented by o3A core component of a successful artificial general intelligence would be the rapid creation and manipulation of grounded compositional abstractions and the demonstration of expertise in the family of recursive hierarchical syntactic objects necessary for the creative use of human language. We evaluated the recently released o3 model (OpenAI; o3-mini-high) and discovered that while it succeeds on some basic linguistic tests relying on linear, surface statistics (e.g., the Strawberry Test), it fails to generalize basic phrase structure rules; it fails with comparative sentences involving semantically illegal cardinality comparisons ('Escher sentences'); its fails to correctly rate and explain acceptability dynamics; and it fails to distinguish between instructions to generate unacceptable semantic vs. unacceptable syntactic outputs. When tasked with generating simple violations of grammatical rules, it is seemingly incapable of representing multiple parses to evaluate against various possible semantic interpretations. In stark contrast to many recent claims that artificial language models are on the verge of replacing the field of linguistics, our results suggest not only that deep learning is hitting a wall with respect to compositionality (Marcus 2022), but that it is hitting [a [stubbornly [resilient wall]]] that cannot readily be surmounted to reach human-like compositional reasoning simply through more compute.