mstdn.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
A general-purpose Mastodon server with a 500 character limit. All languages are welcome.

Administered by:

Server stats:

13K
active users

#eyetracking

2 posts1 participant0 posts today
Continued thread

I'm really no expert on #eyetracking but, if I understood Bernard Angele's talk correctly, it sure seems that the results of their study are not good news for manufacturers of expensive eye-trackers... (as long as you choose aggregate measures, have large samples, and can run a pilot study on a well-known effect to first do a power analysis).

Continued thread

Bernard Angele is back at the lectern #WoReLa1 with their own talk this time on "Low sampling rate is not an obstacle to making reading research more accessible". The #Quarto slides* are available here bangele.quarto.pub/worela2025/ and they include rather hilarious distorted maps of the world illustrating the geographical distribution of #eyetracking studies on reading. Less hilariously, it turns out that, up until recently, the vast majority of eyetracking studies were carried out in the US and West Europe on major European languages. Now studies on Chinese in China are changing the picture, but still eyetracking reading studies are still limited to very few languages.

* Also, it turns out that using #QuartoPub to host Quarto slides is not only useful to share slides with the audience and on social media, but also to easily switch computer when the presenter's laptop can no longer connect with the temperamental projector.

bangele.quarto.pubLow sampling rate is not an obstacle to making reading research more accessible

Wie unterscheiden sich Lehramtsstudierende und erfahrene Lehrkräfte im Erkennen von Unterrichtsstörungen? Ann-Sophie Grub, Antje Biermann und Roland Brünken analysieren Eye-Tracking-Studien zur professionellen Wahrnehmung von Klassenführung – mit Fokus auf „Noticing“ und „Reasoning“.
#ClassroomManagement #Lehrerbildung #ProfessionalVision #EyeTracking #Bildungsforschung
#peDOCS
⬇️
pedocs.de/frontdoor.php?source

Die GPN war klasse! Danke euch allen! 💜

Hier unser Vortrag:
FOSS-Eye-Tracking für Menschen mit ALS

media.ccc.de/v/gpn23-163-foss-

Außerdem, wer mitmachen will, gerne melden: eyes-on-disabilities.org/de/06

Was zum Beispiel gebraucht wird:
- Texte schreiben​
- Setups ausprobieren​
- Software einfacher machen
- Weitere Soft- und Hardware finden​
- Kopfbewegung lösen​
- 3D-Modellierung und –Druck​
- Mobile-Dev​

Wir halten einen Vortrag bei der GPN 🤩: cfp.gulas.ch/gpn23/talk/QXC9UX
2025-06-22 13:45–14:05, ZKM Medientheater

Außerdem besuchen wir nächsten Monat unser erstes Hospiz.

cfp.gulas.chFOSS-Eye-Tracking für Menschen mit ALS – Projektvorstellung "Eyes on Disabilities" 23rd GulaschprogrammiernachtWir wollen in unserem Projekt Menschen mit ALS unterstützen, indem wir Eye-Tracking als Kommunikationshilfe zugänglicher und günstiger machen, und das in gemeinnützig und Open-Source. In unserem Vortrag werden wir unser Projekt, die Erkrankung sowie Eye-Tracking als Technologie vorstellen. ALS und MS sind Krankheiten, die Betroffenen nach und nach die Kontrolle über ihren Körper nehmen. Am Ende bleibt meist nur die Augenbewegung übrig. Eye-Tracker sind Geräte, die die Augenbewegung aufzeichnen und als Eingabemethode nutzbar machen. Sie können somit als Kommunikationshilfe eingesetzt werden, zum Beispiel in Form einer Bildschirmtastatur, wo auf die Buchstaben geschaut wird, um zu tippen. Die Geräte sind keine Neuheit, sind aber als Reha-Geräte extrem überteuert, oder auf Gaming oder Marktforschung ausgelegt und somit für Betroffene nicht praktikabel. Wir möchten Eye-Tracker für Betroffene zugänglicher machen, indem wir passende Software und Hardware finden oder selbst entwickeln, Wissen vermitteln, oder vor Ort bei der Einrichtung helfen. Wir möchten, dass Menschen weniger bis gar kein Geld für eine Lösung ausgeben müssen. ALS: https://de.wikipedia.org/wiki/Amyotrophe_Lateralsklerose Eye-Tracking: https://de.wikipedia.org/wiki/Eye-Tracking Unsere Webseite: https://eyes-on-disabilities.org/de/

New #accessibility rollout from #Slack: simplified layout mode in the desktop app.

From the blog post[1], simplified layout mode "helps you focus by showing one section of Slack at a time," and "minimizes distractions which may benefit single-taskers and people using assistive technology."

This was originally built to "make Slack easier to use for #eyeTracking and #headMouse users," but has since been determined to also benefit "other switch users as well as: #screenReader users (by reducing the amount of stuff on screen at once), #neurodivergent people who find Slack overwhelming or distracting, and even people with limited screen real estate."[2]

[1] slack.com/help/articles/412145

[2] web-a11y.slack.com/archives/C0

Slack Help CenterUse simplified layout mode in SlackSimplified layout mode for the Slack desktop app helps you focus by showing one section of Slack at a time. This mode provides simplified layouts and minimizes distractions, which may benefit singl...

Нейрофизиология внимания: как алгоритмы и мозг обрабатывают первые 3 секунды видео

Биология клипового мышления: почему 400 мс решают всё Исследования MIT (2023) доказали: мозг принимает решение "смотреть/не смотреть" за 400-800 мс. Это результат эволюции — наши предки оценивали опасность за доли секунды.

habr.com/ru/articles/896198/

ХабрНейрофизиология внимания: как алгоритмы и мозг обрабатывают первые 3 секунды видеоПетр Жогов, эксперт по видеомаркетингу и когнитивным технологиям Биология клипового мышления: почему 400 мс решают всё Исследования MIT (2023) доказали: мозг принимает решение "смотреть/не смотреть"...

‼ Announcement: Online Unfold.jl workshop ‼

📅 09.05.2025
💶 Free!
👉🏼 github.com/s-ccs/workshop_unfo
❓ rERPs, mass univariate models & deconvolution!

If you are interested in combined #EEG / #EyeTracking, in natural experiments, sequential sampling models + EEG (e.g. DriftDiffusion), #VR+EEG, - this could be a useful workshop for you!

#EEG #linearmodels #statistics
#julialang

Organized with Romy Frömer (CHBH)
and the S-CCS lab (@uni_stuttgart)

👋 Wir begrüßen Junior-Professorin Dr. Priska Sprenger herzlich an der #PHHeidelberg.

🔢 Sie wird in der Abteilung #Mathematik lehren und ihre #Forschung zu mathematischen Lern- und Entwicklungsprozessen von #Kinder|n fortführen. Sprenger forscht interdisziplinär und nutzt innovative #Erhebung|smethoden wie #EyeTracking, um Wahrnehmungsprozesse zu untersuchen.

🔗 Mehr unter ph-heidelberg.de/presse-und-ko

www.ph-heidelberg.dePersonaliaDr. Priska Sprenger übernimmt Juniorprofessur für Mathematik und ihre Didaktik
SketchplanationsF-Shaped ReadingMany of us absorb and sift through huge quantities of information on the web daily. We've trained ourselves to quickly pull out the most important information and decide if the rest is worth our time. When this happens, which is most of the time, people commonly use F-Shaped Reading. What is F-Shaped Reading? F-Shaped Reading is a pattern seen in eye-tracking studies of people reading content on the web that seems to follow the shape of an F. That looks like scanning the top words most, maybe making it to the end of a headline. Then moving down the left-hand side and heading right again when we hit another sub-head or line that draws our attention. In languages that read right-to-left, you can see a reverse F-shape. We don't always read in an F-shape. There are several other common text-scanning patterns, such as spotted, layer-cake, marking, bypassing or commitment patterns—getting stuck in and reading the whole thing. However, an F-shaped reading, first identified around 2006, is still common and used on mobile devices. F-Shaped Reading is about reading content. It's not how we might scan a shiny new web page with fancy navigation and CTAs (Calls To Action). Why an F-Shape? F-Shaped Reading means that your headline and your first sub-head matter a lot. And also, the content on the left matters more as a way to draw people into your work. But it doesn't have to be this way. An F-shape arises because we're trying to be efficient and decide if this page is worth more of our time. It's hard to get that from a block of text, so we improvise—getting an idea of the content areas from the headlines and trying to see which content blocks, if any, are relevant to read by scanning quickly down the page. I'm not too proud to admit that you may be scanning this. Improving on F-Shaped Reading and Helping Our Readers F-Shaped Reading, to my knowledge, is from the NN Group, who also has a comprehensive article on it. They have a useful list of antidotes, which I paraphrase below, together with a few additions of my own: Put the most important information first Structure with headings and subheadings Front-load words in headings and bullets with the most information (check the first word of the titles in this post) Group related content visually — see 7 Gestalt principles Highlight important content Ensure links have information-bearing words (information scent)—rewrite to avoid "click here" Use lists Cut unnecessary content Avoid big blocks of text and use a sketch instead (Sketchplanation anyone?) =) Use visuals and captions as gateways to content Related Ideas to F-Shaped Reading Also see: Happy Talk Must Die Gestalt Principles The Blur Your Eyes Test Front-load names to cue attention Skeuomorph Micro-editing redundant words Let your data speak for itself Progressive enhancement—mobile first Mobile is snorkelling. Desktop is diving (less true these days) Dark patterns: using design to deceive

TOLLE NEUIGKEITEN:
Wir gehen bald regelmäßig in die Alltags- und Pflegeassistent. Wir möchten das Leben von Betroffenen von ALS und MS besser verstehen, und mit ihnen zusammen unsere Eye-Tracking-Lösungen weiterentwickeln. Wir freuen uns riesig auf die Menschen, die wir kennenlernen werden und hoffen, ihnen helfen zu können.

Den Kontakt ermöglicht uns die IFB-Stiftung. Danke für das Vertrauen: ifb-stiftung.de/

ifb-stiftung.deIFB-Stiftung