from Chris
hallo welt!
Read the latest public posts from Publish.MinistryOfInternet.eu.
from Chris
hallo welt!
from Goblinkindergarten
Der sechsseitige Gefahrenwürfel sorgt für Bedrohungen und verwaltet Ressourcen wie Licht, Rationen und Zeit. Er ist eine Spielmechanik, die den Spielfluss vorwärtstreibt und sicherstellt, dass auf Entscheidungen Konsequenzen folgen, während der Schreibaufwand niedrig gehalten wird.
Lass zum Beginn einer Runde einen Gefahrenwürfel werfen. Während einer Runde können Spieler*innen eine volle Aktion ausführen. Die allgemeine Belegung des Gefahrenwürfels ist:
1 | 2 | 3 | 4 | 5 | 6 |
---|---|---|---|---|---|
Rückschlag | Erschöpfung | Verbrauch | lokale Veränderung | Wahrnehmung | Vorteil |
W6 | Ergebnis | Interpretation |
---|---|---|
Zuflucht (Siedlung/ Stadt) | ||
1 | Rückschlag | Begegnung (regionale Tabelle) oder Unglück (siehe unten) |
2 | Erschöpfung | Mangel (1 Medizin, 2-3 Dürre, 4-5 Hungersnot, 6 Vertrauen) |
3 | Verbrauch | Verbrauche einen oder mehr Zustände der Zuflucht |
4 | lokale Veränderung | Jahreszeit schreitet voran |
5 | Wahrnehmung | Vorahnung auf kommende Katastrophe |
6 | Vorteil | Volle Erholung |
Wildnis | ||
1 | Rückschlag | Begegnung (regionale Tabelle) oder Straßen/Brückensperrung |
2 | Erschöpfung | Rast und Verbrauch einer Ration p.P oder 1 TP Schaden |
3 | Verbrauch | Wildnisresource wird verbraucht (z.B. Nahrung verfällt, Orientierung geht verloren) |
4 | lokale Veränderung | Wetterumschwung |
5 | Wahrnehmung | Spur oder Hinweis auf die nächste Begegnung |
6 | Vorteil | freie Runde |
Dungeon | ||
1 | Rückschlag | Begegnung (Zonentabelle) |
2 | Erschöpfung | Rast und Verbrauch einer Ration p.P oder 1 TP Schaden |
3 | Verbrauch | Dungeonresource wird verbraucht (Licht, Orientierung) |
4 | lokale Veränderung | Dungeon verändert sich (oder sonstige lokale Veränderung) |
5 | Wahrnehmung | Spur oder Hinweis auf die nächste Begegnung |
6 | Vorteil | freie Runde |
Kampf | ||
1 | Rückschlag | Gegner sind zuerst dran oder zusätzliche Begegnung |
2 | Erschöpfung | 1 TP Schaden, wenn im Nahkampf |
3 | Verbrauch | Kampfzustände werden entfernt (Licht, Brennen, usw.) |
4 | lokale Veränderung | Veränderung des Kampfplatzes (oder sonstige lokale Veränderung) |
5 | Wahrnehmung | Spur oder Hinweis auf die nächste Begegnung |
6 | Vorteil | freie Runde |
Runden bilden Aktionen ab, die im gegenwärtigen Kontext relevant sind, wie einen schier endlosen Sumpf zu erkunden. Zustände sind anhaltende Einflüsse oder Aspekte, wie die Erschöpfung von Abenteurer*innen. Zustände können Gebiete, Gruppen oder Individuen betreffen. Wie streng Zustände nachverfolgt werden, ist eine Frage des Stils. Token können dabei helfen. Die folgenden Listen von Runden sind als Vorschlag gedacht und erheben keinen Anspruch auf Vollständigkeit. Improvisiere weitere, die du für passend hälst.
Zufluchtsrunden bilden mehrere Tage oder Wochen ab, die zur Rast und Erholung genutzt werden.
Wildnisrunden bilden die Zeit ab, die für das Reisen und Lagern aufgewendet wird, ca. ein Tag und Nacht pro Runde. Um eine Wildnisrunde abzuschließen, muss eine Ration verbraucht oder Erschöpfung* in Kauf genommen werden, zusätzlich zum Werfen eines Gefahrenwürfels.
Wenn Charaktere zu Beginn einer Wildnisrunde bereits erschöpft sind, erhalten sie eine geringe Verletzung (1 TP). Bestimme zufällig, ob Rückschläge tagsüber oder nachts passieren.
Verirrt: Ein Weiterkommen ist nicht mehr möglich. Es muss ein Meilenstein oder anderes Landschaftsmerkmal erfolgreich gesucht werden, um den Zustand zu beseitigen.
Dungeonrunden bilden die Erforschung eines Bauwerks ab und sind zwischen mehreren zehn Minuten bis mehren Stunden lang, was eine sorgfältige und vorsichtige Erforschung eines feindseligen Ortes abbildet.
Kampfrunden bilden taktische Aktionen ab, die nur Sekunden bis Minuten dauern
Released under the Creative Commons Attribution 3.0 Unported license. Typeset using Pandoc and LaTeX .
Attribution: Necropraxis Productions Hazard System v0.3 (2017) http://www.necropraxis.com/hazard-system/
from W nieskończoności skryta...
Taki trochę roboczy wpis (głośno myślę), bo coraz bardziej zaśmiecam to miejsce takimi krótkimi formami, których w ogóle nie miało tu być. Nigdy wcześniej w mojej głowie takowe formy nie pojawiały się. Nie pojawiała się też myśl, żeby takie coś tworzyć. Jeszcze do niedawna pisałam tylko pamiętniki. bezsilność przepisałam tutaj tylko dlatego, że usunęłam swoje socjalmediowe konto i chciałam, żeby gdzieś został po tym ślad, bo nigdy wcześniej czegoś podobnego nie napisałam. Pierwotnie bezsilność pojawiła się właśnie na moich socjalmediach, 8 sierpnia, jako... no właśnie, w zasadzie nie wiem jako co... Chyba wiadomo w jakim byłam stanie i chyba nie dziwi, że tydzień później usunęłam swoje smkowe konto. Później tam wróciłam, jak rzadko kiedy, ale teraz nie o tym, to inna bajka...
A wracając do tematu, to miało być jednorazowe tylko, bo wydarzyło się raz. A teraz zdarza się tego więcej... i nie wiem co mam z tym robić. Wczoraj wieczorem znowu się coś do głowy przypałętało i nie chciało odejść, więc znowu coś jest. No i właśnie, gdzie by to wrzucić, bo tutaj to chyba nie jest miejsce, tu miało być o czymś innym. Chociaż w zasadzie to nie jest o czymś innym, to nadal o tym samym, o mnie, ale inaczej. Taka migawka emocji i myśli, jak utrwalona na fotografii chwila...
To co już tu jest, te krótkie wpisy, to już tu zostanie, ale myślę, gdzie by tu jednak wyemigrować z tym, co się jeszcze może pojawić. I znając siebie, jak znajdę już miejsce, jakieś rozwiązanie, i tam wszystko przepiszę i dodam to jedno nowe, to w mojej głowie nastąpi cisza... i skończą się migawki, jak kończy się klisza (błona) fotograficzna w aparacie...
edit: wszystko krótkie poszło tu: https://publish.ministryofinternet.eu/infinitka/
from Goblinkindergarten
Schurk*innen oder Dieb*innen, sind wohl die DND Klasse, die im Laufe der Jahre, die meisten Änderungen durchgemacht hat. Angefangen beim Namen.
Der “Dieb” in B/X, Retroklonen und vielen OSR Systemen ist eine hoch spezialisierte Klasse, die definiert ist durch ihre Fertigkeiten. Damals die einzige Klasse, die überhaupt spezielle Fertigkeiten hatte, nämlich Schlösser Öffnen, Fallen Entfernen, Taschendiebstahl, Schleichen, Fassadenklettern, Verstecken und Lauschen.
Dieb*innen waren keine der originalen Klassen aus ODND, sondern kam erst mit der Greyhawk Erweiterung. Für die “Erfindung” der Klasse gilt es Darrold Wagner und Gary Schwitzer zu danken, welche diesen Dank von Gary Gygax leider nie erfahren haben. Mehr zur Geschichte der Diebesklasse ist in diesem sehr informativen Video zu finden.
Diese Dieb*in der Originalen bis zur B/X-Version war gut dafür geeignet, um, nun ja, eine*n Dieb*in zu spielen. Weder war sie sehr kampftauglich, ausgestattet mit denselben oder nur etwas besseren Trefferwürfeln im Vergleich zu Magier*innen, noch konnte sie zaubern (bis es möglich wurde, Zauber von Schriftrollen zu wirken).
Mit dem Fortschreiten der Versionen kam den Dieb*innen weitere Rollen hinzu. Sie blieben weiterhin Spezialist*innen für besondere Aufgaben, auch wenn diese nicht unbedingt immer etwas mit langfingerigem Handwerk zu tun hatten. Weiterhin wurde die Rolle im Kampf verstärkt, mit Fokus auf hinterhältige Angriffe und leichte Waffen. Damit kam auch die Namensänderung, erst als Unterklasse des Rogue oder Schurken, später die Änderung Klassenbezeichnung an sich.
Der “Schurke” aus 5e ist in erster Line ein “Damage Dealer”, wenn man diesen Begriff aus Computerrollenspielen heranziehen will. Ähnlich den Magier*innen hält er wenig aus (wenn auch wesentlich mehr als diese oder der Dieb*innen in ODND), kann aber potenziell einen hohen Schaden anrichten. Klassische Diebesfähigkeiten sind eher nebensächlich.
Soviel zum Dieb*in/Schurk*in in DND. Was macht nun Beyond the Wall anders?
Im Gegensatz zu anderen Retroklonen/ OSR-Systemen, haben sich die Macher*innen von Beyond the Wall nicht dazu entschieden, einfach die ODND oder B/X Diebesklasse zu kopieren. Sie haben Schurk*innen als eigenständige Klasse eingeführt, ohne sie zu einer Kampfmaschine àla 5e zu machen.
Als Hommage an die Oldschool-Dieb*innen, leveln auch die BtW-Schurk*innen schneller als alle anderen Klassen, haben die besten Rettungswürfe und die höchste Initiative. In Anlehnung an 5e besitzen sie allerdings keine festgelegte Fertigkeitsliste (wobei sie mehr Fertigkeiten als andere Klassen erhalten) und sind mittelprächtig, was die Trefferpunkte angeht. Außerdem erhalten sie mehr Schicksalspunkte (die Metawährung oder Gummipunkte in BtW), um sich und andere vor dem Tod zu retten oder Proben neu zu würfeln.
Ist es also einfach ein Mix? Eindeutiges Jein. Von allen drei Klassen sind die Schurk*innen in BtW nichts Besonderes. Ja, sie haben mehr Fertigkeiten, aber die haben die anderen Klassen auch. Sie haben einen mittleren Trefferwürfel, können nicht zaubern und haben auch keine speziellen Fähigkeiten, die ihnen ansonsten im Kampf zum Vorteil gereichen (kein backstab). Das klingt jetzt natürlich sehr negativ. Was können die Schurk*innen jetzt eigentlich?
Antwort: Alles. Erdenklich. Andere.
Schurk*innen in BtW sind mehr eine Charakterschablone, mit der sich jegliche Art von Charakter*innen abbilden lässt, der kein*e strikte*r Zauberwirker*in oder Kämpfer*in ist. Das zeigt sich auch in den Charakterbüchern. Klar gibt es die klassischen Dieb*innen, aber auch Waldläufer*inne, Schausteller*innen und natürlich die Bindestrichcharaktere. Denkbar wären auch ein Gelehrte, Gaukler*innen, Schwindler*innen, Falschspieler*innen, Erfinder*innen, Geschäftsleute und viele mehr.
Beyond the Wall hat es geschafft Schuk¸*innen von seiner ursprünglichen Rolle, als Dieb, zu trennen, ohne ihn in eine neue zu pressen. Er ist eine flexible Charaktersandbox für Spielende, um sich kreativ auszutoben.
Der*die klassische Dieb*in war schon immer meine Lieblingsklasse, ob in Computer- oder Rollenspielen. Aber der*die BtW-Schurk*in hat hohes Potenzial ihnen den Rang abzulaufen.
from Aus Hypergrid und Umgebung
Seit gestern nacht ist das OSgrid offline. Und es wird auf unbestimmte Zeit offline bleiben. Mit etwas Verspätung hat das OSgrid die offizielle Verlautbarung nun auch ins offizielle Blog gestellt. Wie könnte es anders sein – der Grund ist immer noch der malade Asset-Server.
Im OSgrid dampft die Kacke ja schon länger, was den Asset-Server angeht. In den letzten Jahren hat es mehrere Versuche gegeben, das Problem zu beheben. Umzug auf stärkere Hardware. Andere Organisation. Danach kamen verschiedene Versuche, den Asset-Server irgendwie zu reparieren oder zu optimieren. Jeweils, um mehr Leistung rauszukitzeln. Brachte alles nichts.
Im Gegenteil: Mit jedem Umzug gingen Assets kaputt. Immer wieder hieß es: „Ja, die nächsten Monate müßt ihr damit leben, daß Assets nicht zur Verfügung stehen werden. Das ist ein Nebeneffekt. Aber danach wird alles tutti sein.“ Ein „danach“ gab es aber nie, denn jede Maßnahme endete mit mehr dauerhaft kaputten Assets.
Anfang Februar war dann klar: Was dem Asset-Server zu schaffen macht, sind die Unmengen an Assets, die sich seit 2007 angesammelt haben. Zum einen, so schätzten die Admins, werden mindestens 60% davon eh nicht mehr gebraucht. Zum anderen waren nicht wenige Assets eh kaputt. Und an genau diesen kaputten Assets blieb der seit Monaten laufende Reparaturprozeß ständig hängen, so daß er noch Jahre hätte laufen müssen, obwohl er eigentlich bald hätte durch sein müssen.
Das, so stellte sich heraus, ließ sich realistischerweise nur auf eine Art lösen: indem der Asset-Server einmal komplett leergeräumt und anschließend von den aktiven Nutzern wieder per IARs und OARs befüllt wird. Zum Putzen sollte das OSgrid etwa eine Woche offline bleiben. Die Gridbewohner sollten also zum einen ihre – ohnehin samt und sonders extern angehängten – Sims als OARs und zum anderen ihre Inventare als IARs sichern. Wer kein Land hat, konnte auf mindestens einer speziell dafür vorgesehenen Sim, die täglich gesichert wurde, Boxen aufstellen mit Sachen, die erhalten bleiben sollten.
Erst hatten die Leute etwa vier Wochen Zeit. Dann stoppte man die Ankündigung, um die Maßnahme noch einmal zu überdenken. Dann nahm man den Stop zurück und gab den Leuten sechs Wochen.
Von da an ging es mit dem OSgrid noch schneller bergab. Ich weiß nicht, ob es daran lag, daß etliche Nutzer sich gleichzeitig komplette Inventare mit zigtausend Objekten drin – von denen wahrscheinlich etliche oder gar alle wiederbeschaffbar wären und der Rest zur Not zu einem Avatar in einem anderen Grid ausgelagert werden könnte – als IARs rausschreiben wollten.
Jedenfalls luden Objekte und Texturen im OSgrid auf einmal fürchterlich langsam. Noch dazu stürzte das OSgrid auf einmal praktisch täglich ab. Und nach jedem Crash und Neustart waren mehr Assets kaputt. So manch ein IAR-Export lief nicht mal komplett durch, bevor das Grid wieder abstürzte und wieder mehr Assets kaputtmachte. Im Grunde waren alle Versuche, Content aus dem OSgrid zu sichern, zunehmend zwecklos, weil der Content mit großer Wahrscheinlichkeit eh im Eimer war.
Mir selbst war es kürzlich passiert, daß ich beim Login feststellte, daß alles, was an meinen OSgrid-Jupiter angehängt war, nicht mehr funktionierte. Alles. Den Body konnte ich aus einer Box holen, in der er noch intakt war. Aber die Haare waren eingestellt, die konnte ich nicht einfach aus einer Box holen. Und die Brille war nicht nur eingestellt, sondern modifiziert. Die mußte ein anderer Jupiter aus dem Hypergrid vorbeibringen.
Am vorgestrigen Montag war ein Punkt erreicht, wo selbst IARs, die die Admins exportierten, so kaputt waren, daß sie unbrauchbar waren. Das ganze OSgrid war im Grunde derartig instabil geworden, daß sie keine andere Wahl hatten, als das Grid von jetzt auf gleich offline zu nehmen.
Jetzt sind noch aufwendigere Sanierungsmaßnahmen anberaumt worden. Der Asset-Server wird früher oder später wahrscheinlich sowieso geputzt werden. Aber die Admins planen jetzt wohl auch einen aufwendigen Totalumbau des Asset-Server, um ihn zuverlässiger zu bekommen. Was genau sie da vorhaben, geht aus der Ankündigung nicht so wirklich hervor.
Auf jeden Fall ist wohl mit einer Auszeit von dem einen oder anderen Monat zu rechnen.
Wer sich jetzt ärgert, keine Sicherungen nach der Ankündigung gemacht zu haben: Mal ehrlich – je später ihr die gemacht hättet, desto kaputter wären die jetzt. Idealerweise solltet ihr ein ganzes Sortiment an noch älteren Sicherungen haben aus Zeiten, als noch nicht soviel im OSgrid kaputt war.
Und die beste Sicherung ist immer noch, seine Sachen nicht nur bei einem einzigen Avatar in einem einzigen Grid im Inventar zu haben.
#OpenSim #News
from Explorations of probabilistic thinking
There are many compelling theoretical reasons why Bayesian statistical methodology is superior to classical, “frequentist” methods. Under weak conditions, Bayesian estimates are “admissible”, to use a specialized decision-theoretic term. Bayesian methods base inference only on the data actually observed, rather than on the probability of data you might otherwise have seen, but didn’t (the basis for p-values). This makes the study designer’s intentions critical for calculating a p-value, which can lead to all manner of absurdities.
This begs the question: what are aspects of a problem that make a Bayesian approach well-suited for it? And what is it about the Bayesian approach that makes it so? And–most challenging–can I make an argument that a non-statistician would find useful?
I need to give a little technical background, and then I’ll offer an example.
We observe a data-generating process governed by unknown parameters collectively named $\theta$. We refer to the data collectively as $x$.
If likelihood weights $\theta$ values as more or less consistent with observed data, then finding the value that maximizes the likelihood could be a good statistical estimate. And it usually is: this is the maximum likelihood estimate (MLE); this approach has been massively successful.
You might also ask whether there are other $\theta$ values that give likelihood close to the maximum. Is the likelihood surface unimodal? If so, how quickly do values drop off as we move away from the maximizing point? This provides information about the precision of the estimate.
In fact, you could imagine developing an entire framework for assessing evidence and making estimates using only likelihood and eschewing p-values. Indeed, Richard Royall has done just this.
Like Royall’s construction, Bayesian methodology also builds an entire inference framework on likelihood, but with an additional ingredient: a “prior” probability distribution reflecting the state of knowledge about $\theta$ prior to seeing the recent data. This is not a sampling-based probability, or rate; it is probability representing subjective belief.
Note that we have two objects that span the space of all possible $\theta$ values and provide a weighting of such values: the prior and the likelihood. The Bayesian approach proceeds by taking the product of the two and finding a denominator that makes the product a proper probability distribution, the “posterior” distribution.
There is another very interesting wrinkle: for a given value of $\theta$, we have a sampling probability distribution for future $x$. Now we have a weighting over all possible $\theta$, in light of past data $x$. We can develop a “predictive” distribution for future data, based on past data, by doing the following:
What features of Bayesian methodology make it work well, and for what sort of problems? In my experience, they are these:
A note on stability: While maximum likelihood estimation usually works well, it can exhibit a “gullible” quality with sparse data or small data sets. Take a pathological example: estimate a binomial rate ($p$) based on only one observed data point $x$; suppose the observed $x$ is a success. No reasonable person would give creedence to a parameter estimate based on only one observation, but the MLE mathematically exists, and its value is 1.0.
A Bayesian posterior mean also exists, and depends on the prior distribution; if we adopt a uniform distribution from zero to 1.0–intuitively appealing, and also analytically tractable–we find that the posterior distribution has the Beta(2, 1) distribution. This distribution has mean 2/3.
We still shouldn’t give much creedence to this value, but note that the methodology is “hedging”, pulling the estimate towards the prior mean, 0.5. We refer to this as “shrinkage”, and it is inherent in calculating a weighted average over all possible values of $\theta$ rather than finding a single maximizing value.
As more data accumulates, the likelihood grows sharper, and the shrinkage decreases. For instance, based on the posterior distribution, the interval that splits 5% of posterior probability in an upper and lower tail (and is therefore like a confidence interval) ranges from 0.158 to 0.987. If we don’t require equal probabilities in the tails, the narrowest interval containing 95% ranges from 0.224 to 1.0. Either way, an appropriately wide range of plausible values.
Furthermore, we can structure how the shrinkage happens, if not its amount. Do we shrink towards zero a null value, such as zero (for model coefficients) or 0.5 (for probabilities)? If we have multiple parameters, do they all shrink towards a null value, or towards a central value that is not determined a priori? The latter can be accomplished with a hierarchical prior, where parameters of the prior distribution are drawn from a “parent” distribution.
Years ago I was pulled into a project to develop QC specifications for batches of incoming material. Since the project was new, there were not many batches available, fewer than 20. Moreover, the manufacturer had changed their process midway through the project, and it was not known whether this change had influenced the subsequent batches. We needed specifications on roughly 20 metrics, so we needed to have an analytical process that was widely applicable.
For each metric, we have a mean $\mu$2 pertaining to batches after the change, and $\mu$1 pertaining to before the change. Naturally, for projecting into the future, we’re interested in $\mu$2. It’s possible that $\mu$2 = $\mu$1. Similarly, we have $\sigma$2 and $\sigma$1, and it’s possible that $\sigma$2 = $\sigma$1. We deemed it unlikely that variance would change appreciably, and elected to assume a constant $\sigma$ barring strong evidence to the contrary, although we could have set up a shrinkage framework for two variances. In either case, the pre-change batches provide useful information about variability, and so are not discarded.
Note that if we elected to allow different variances, the frequentist would probably cast out the pre-change data as irrelevant to predicting future data, leaving a painfully small data set with which to set important specifications. A Bayesian can adopt a hierarchical prior in which the twgo variances are shrunk towards a common value, by a degree that is determined in light of the observed data. This isn’t entirely fair to frequentists; it is possible to contrive some sort of shrinkage estimation without using Bayesian methods. But determining the degree of shrinkage–and rationalizing that choice–remains a weak link.
I set up a Bayesian ANOVA framework with common variance but a hierarchical prior on the means, to allow the pre-change mean to differ from the post-change mean by degree determined by the data. I then drew samples from the predictive distribution for the post-change group, and calculated quantiles from this sample.
A few comments:
Hopefully this essay provides some intuition into what Bayesian statistics does well, and what sorts of problems are amenable. But in fairness, I should also note some challenging aspects:
The last point deserves a little discussion. This is perhaps the biggest criticism of Bayesian methods: subjectivity plays a role.
Practically, the predominant practice currently is to use very vague prior distributions, so that when the data set is large enough, details of the prior distribution become practically irrelevant. Having the structure of the Bayesian approach can still provide value, particularly with a hierarchical prior that imposes the desired form of shrinkage.
What if one has a critical question, yet is limited to a small data set, and the prior makes a difference? Then you don’t have enough data for the data alone to determine the conclusion. At least you know this is the case. If you must make a decision, then know that your expert opinion is going to play a role, so get the best experts you can and elicit their opinion carefully (i.e., fit a prior).
If a prior sensitivity analysis demonstrates that data is not decisive, and a frequentist analysis indicates that data is, which should you believe? I think using the Bayesian approach in this case would lead to better long-term decisions.
If you’re an analyst or someone working with an analyst, your problem could be particularly amenable to a Bayesian approach if it has any of the following characteristics:
from Cristianerías.
Le he pedido al ChatGPT un plan de crecimiento para la Iglesia Española Reformada Episcopal y me ha salido esto:
Para un desarrollo exitoso de la Iglesia Española Reformada Episcopal (IERE) en España, un país con una fuerte tradición católica, pero donde la cultura ha derivado hacia el agnosticismo y la secularización, es fundamental considerar el contexto histórico, social y cultural de la región. España tiene una relación compleja con la religión debido a los siglos de influencia de la Iglesia Católica Romana, que ha estado asociada tanto con momentos de poder como con control social. Por lo tanto, el plan debe ser sensible a estas dinámicas, buscando un enfoque inclusivo, respetuoso, y que marque una diferencia clara respecto al pasado.
Aquí te presento una versión revisada del plan, con un enfoque específico para la realidad española:
Este plan debe enfatizar que la IERE es una iglesia para el presente, no un refugio en el pasado. Su crecimiento dependerá de ofrecer una alternativa respetuosa, abierta y moderna a quienes buscan algo más allá de las estructuras tradicionales, a menudo asociadas con el poder y el control. La clave estará en cultivar un ambiente de espiritualidad auténtica, inclusión social y conexión profunda con las preocupaciones de la vida contemporánea.
*Quizás el ChatGPT no tenga muy en cuenta las limitaciones presupuestarias.
Luego le he pedido que elabore un plan quinquenal a nivel europeo, el resultado me resulta atractivo. Le he añadido unos resúmenes en lenguas auxiliares.*
Objetivo: Establecer un proyecto común entre la Iglesia Española Reformada Episcopal (IERE), la Iglesia Galicana, las iglesias veterocatólicas y la diócesis europea de la Iglesia Episcopal de Estados Unidos para crear nuevas iglesias de perfil católico-reformado en países de la Unión Europea tradicionalmente católicos, agnósticos u ortodoxos. Este proyecto busca ofrecer una alternativa espiritual para personas que no se sienten cómodas con el cristianismo predominante en sus países, evitando los modelos evangélicos o pentecostales y vinculándose a los valores europeos contemporáneos, como la justicia social, la igualdad, la reflexión filosófica y la inclusión.
Este plan quinquenal está diseñado para ofrecer una alternativa cristiana reformada moderna, reflexiva y profundamente comprometida con los valores europeos contemporáneos. A través de la creación de nuevas iglesias en la Unión Europea, este proyecto puede ayudar a las personas que no encuentran acomodo en las iglesias tradicionales a conectarse con una comunidad que se adapta a sus valores y preocupaciones, sin recurrir a modelos evangélicos o pentecostales, sino manteniendo una fe sólida y comprometida con el bienestar social y personal.
El plan quinquenal pro la Iglesia Española Reformada Episcopal (IERE), in collaboration con altere ecclesias reformate in Europa como le Iglesia Galicana, le iglesias veterocatolicas, le Igreja Lusitana, e le diocesis europea del Iglesia Episcopal de US (IEEU), ha como fin establir novas ecclesias in paises de Europa tradicionalmente catholic, ortodoxe o agnostico. Le projecto desidera offere un alternative spiritual que respeccta valores europee como justitia social, inclusion e reflexion teologic-social, sin aderir a modellos evangelicales o pentecostales.
Le plan se divide in quin annos:
Investigation e Alianzas: In le primo anno, se realisara un studio de contextos local in paises europan, identificante vacuos spirituals e creante un rete de cooperation inter ecclesias.
Iglesias Piloto: Durante le secunde anno, se creara ecclesias piloto in urbes clave, adaptante le culto e actividades al contexto cultural local.
Expansion Regional: A partir del tertio anno, se expandira le projecto a novas urbes, creando evenimentos publicos e fortalecera la presencia de las ecclesias reformate in Europa.
Consolidation e Sostenibilitate: Durante le quarto anno, se evaluara la estabilidad organisative e financiar de las ecclesias e se incentivara la participatio activa de los miembros.
Evaluacion e Expansion Futura: En el quinque anno, se evaluara el impacto del projecto, haciendo ajustes si es necesario, y se planificara su expansión en nuevos paises de Europa.
Este plan pretende crear un modelo ecclesial inclusivo y accesibile, basate en los valores europeos, y responder a las necesidades espirituales de muchas personas que no encuentran acomodo en el cristianismo predominante.
Plan quinquennial za Iglesia Española Reformada Episcopal (IERE), v spolupraci s drugim reformatskymi cerkvami v Evropi, ako Iglesia Galicana, veterokatolicke cerkvi, Igreja Lusitana i evropska dijecesis Iglesia Episcopal iz SAD (IEEU), ima za cilj osnivanje novih cerkvi u zemljama Evrope koje su tradicionalno katoličke, pravoslavne ili agnostičke. Proekt želi ponuditi duhovnu alternativu koja poštuje evropske vrednosti kao što su socijalna pravda, inkluzivnost i teološko-socijalna refleksija, bez prihvatanja evanđeoskih ili pentekostalskih modela.
Plan je podeljen na pet godina:
Istraživanje i formiranje saveza: U prvoj godini sprovešće se istraživanje lokalnih konteksta u evropskim zemljama, identifikovanje duhovnih praznina i formiranje mreže saradnje među crkvama.
Pilot crkve: Tokom druge godine, biće osnovane pilot crkve u ključnim gradovima, prilagođavajući bogosluženje i aktivnosti lokalnom kulturnom kontekstu.
Regionalna ekspanzija: Od treće godine, projekat će se širiti na nove gradove, organizovati javne događaje i jačati prisutnost reformskih crkava u Evropi.
Konsolidacija i održivost: Četvrte godine, evaluiraće se organizaciona i finansijska stabilnost crkava, a biće podsticana aktivna participacija članova.
Evaluacija i buduća ekspanzija: U petoj godini, meriće se uticaj projekta, izvršiće se prilagođavanja ako je potrebno i planiraće se dalji rast u novim zemljama Evrope.
Ovaj plan ima za cilj da stvori inkluzivni i pristupačni crkveni model, temeljen na evropskim vrednostima, i odgovori na duhovne potrebe mnogih ljudi koji ne nalaze mesta u dominantnom hrišćanstvu.
Denna femåriga plan för Iglesia Española Reformada Episcopal (IERE), i samarbete med andra reformerta kyrkor i Europa som Iglesia Galicana, veterokatolska kyrkor, Igreja Lusitana och den europeiska stiftelsen för den Amerikanska Episkopalkyrkan (IEEU), syftar till att etablera nya kyrkor i länder som traditionellt är katolska, ortodoxa eller agnostiska. Projektet strävar efter att erbjuda ett andligt alternativ som speglar europeiska värderingar som social rättvisa, inkludering och teologisk och social reflektion, utan att anta evangeliska eller pentekostala modeller.
Planen delas upp i fem år:
Forskning och Allianser: Under det första året kommer forskning att genomföras för att förstå de lokala sammanhangen i europeiska länder, identifiera andliga behov och skapa ett nätverk för samarbete mellan kyrkorna.
Pilotkyrkor: Under det andra året kommer pilotkyrkor att etableras i nyckelstäder, där gudstjänst och aktiviteter anpassas till det lokala kulturella sammanhanget.
Regional Expansion: Från och med det tredje året kommer projektet att expandera till nya städer, arrangera offentliga evenemang och stärka närvaron av reformerta kyrkor i Europa.
Konsolidering och Hållbarhet: Under det fjärde året kommer kyrkornas organisatoriska och finansiella stabilitet att utvärderas, och aktivt deltagande från medlemmar kommer att främjas.
Utvärdering och Framtida Expansion: Det femte året kommer att fokusera på att utvärdera projektets påverkan, göra nödvändiga justeringar och planera för fortsatt tillväxt i nya europeiska länder.
Planen syftar till att skapa en inkluderande och tillgänglig kyrklig modell, baserad på europeiska värderingar, och att möta de andliga behoven hos många människor som inte finner sin plats i det dominerande kristendomen.
from Aus Hypergrid und Umgebung
Vor ein paar Tagen flatterte mir dieser Post auf meinen Stream auf Hubzilla. Darin enthalten war eine Aufforderung zu einer Blogparade im Stil der „Blog Question Challenge“, aber auf Deutsch.
Da dachte ich mir: „Hey, du hast doch ein Blog, auch wenn da wenig passiert. Mach doch einfach mal mit!“
Also, ohne weitere Umschweife:
Warum hast Du ursprünglich mit dem Bloggen angefangen?
Ich wollte mal in größerem Rahmen über virtuelle Welten auf Basis von OpenSimulator schreiben, besonders für die deutschsprachige OpenSim-Community. Im Grunde gab’s da genug zu schreiben, und ich hätte immer noch einiges abzudecken.
Ganz besonders wollte ich Guides für Anfänger schreiben, aber auch für Fortgeschrittene, also mein inzwischen angesammeltes Wissen in etwas gießen, was ich immer mal vorlegen kann, wenn ich es brauche. Vor allem waren das die Sachen, die ich selbst entweder nur über etliche Ecken in Erfahrung bringen oder mir selbst beibringen mußte, weil die schlicht und ergreifend nirgendwo dokumentiert sind – und wenn doch, dann nur für Second Life. Ich hatte auch an ein Wiki gedacht, aber der Aufwand wäre mir zu groß gewesen, daher lieber ein Blog, das ich auch anders verwenden konnte.
Dazu sollten auch gelegentliche Newsposts, Kommentare und dergleichen kommen.
Welche Plattform nutzt Du für Deinen Blog und warum hast Du Dich dafür entschieden?
WriteFreely. Ist Teil des Fediverse, also von überall folgbar. Es ist vielleicht featuremäßig noch nicht auf dem Level von Plume, aber zumindest mit einigermaßen aktiver Entwicklung. Und selbst die Plume-Entwickler empfehlen WriteFreely, weil sie ja selbst zum Entwickeln nicht kommen.
Ich hätte problemlos auch einen neuen Kanal auf Hubzilla dafür anlegen können. Dann hätte ich auch Kommentare gehabt und einen eingebauten Filespace für z. B. Bilder. Aber WriteFreely ist puristischer und aufgeräumter, da lenkt weniger ab beim Lesen.
Hast Du schon auf anderen Plattformen gebloggt?
Wie gesagt, Plume. Eigentlich kann das mehr als WriteFreely, vor allem Sachen, die echt sinnvoll sind. Filespace für Bilder gibt’s da, außerdem kann es Kommentare. Es ist auch nicht ganz so holprig in der Bedienung, wobei man sich irgendwann auch an WriteFreely gewöhnt, wenn man das eine Weile benutzt hat.
Von Plume bin ich aber abgezogen, als die Instanz, auf der ich war, ohne Ankündigung geschlossen worden war. Eines Tages wollte ich zu meinem Blog, um dann festzustellen, daß die ganze Instanz futsch war. Zum Glück hatte ich alles noch einmal lokal, das mußte ich nur geringfügig für WriteFreely umbauen. Ich war mir auch nicht sicher, ob es so schlau ist, weiterhin etwas zu nutzen, was praktisch keine aktive Entwicklung hat.
Wie schreibst Du Deine Blogposts? Nutzt Du ein lokales Bearbeitungstool oder eine Panel/Dashboard-Funktion Deines Blogs?
Allgemein ReText. Ziemlich minimalistisch, aber tut, was er soll.
Ich hatte früher mal überall Ghostwriter installiert. Dann ist der aber in die KDE-Familie geholt worden. Als er mir auf dem Desktop bei einem Update als Abhängigkeiten praktisch eine komplette Plasma-5-Umgebung installieren wollte, habe ich mir Ersatz gesucht. Auf dem Hauptlaptop ist Ghostwriter noch drauf, da ist eh Plasma installiert.
Ich könnte auch direkt auf WriteFreely schreiben und das als Entwürfe abspeichern. Aber ich habe lieber lokale Kopien von allem, auch nach Veröffentlichung.
Wann fühlst Du Dich am meisten inspiriert zu schreiben?
Vor allem, wenn etwas passiert ist oder passieren soll, worüber es sich zu schreiben lohnt. Oder wenn ich wieder auf etwas stoße, was eigentlich in OpenSim weit verbreitetes Wissen sein sollte, was aber irgendwie keiner weiß.
Manchmal habe ich auch einfach Bock, an älteren Entwürfen weiterzuschreiben, die kein aktuelles Thema haben. Oder ich stoße auf etwas, was unbedingt erklärt gehört, und setze einen neuen Entwurf an.
Oder es sind einfach Gedanken zum Thema OpenSim, manchmal auch indirekt virtuelle Welten im allgemeinen. Beispielsweise das Thema Immersion, zu dem ich schon lange noch einiges mehr schreiben will.
Veröffentlichst Du Deine Texte sofort oder lässt Du sie erst eine Weile als Entwurf liegen?
Kommt drauf an. Wenn sie News sind, werden sie ziemlich schnell geschrieben und gehen sofort raus.
Andere Posts können auch mal sehr viel länger liegenbleiben, bis sie fertig sind. Aber wenn sie fertig sind, dann werden sie auch direktweg veröffentlicht.
Über welche Themen schreibst Du generell?
Nur OpenSim. Aber da über so einiges, was gerade an- oder mir einfällt.
Das kann zum Beispiel ein Feature oder ein Aspekt in OpenSim sein, bei dem ich keinen Bock habe, das immer und immer wieder neu zu erzählen. Dann setze ich mich hin und schreibe einen Post darüber, in dem ich das einmal erkläre.
Oder wenn irgendwas gerade passiert ist oder bald passieren soll, dann schreibe ich auch mal darüber und kommentiere das. Veranstaltungen decke ich aber nicht ab, das ist zu kurzfristig.
Für wen schreibst Du?
In erster Linie für deutschsprachige OpenSim-Nutzer. Aber auch für alle anderen, die interessiert sind, daher auch die Anfängerrubrik.
Was ist Dein Lieblingsbeitrag auf Deinem Blog?
Also, wenn ich mich da entscheiden soll, dann der erste über das große Gridsterben 2022. Kurioserweise sind gerade meine Posts über Grids, die schließen werden oder schon futsch sind, immer wieder interessant.
Hast Du schon Blogpausen eingelegt oder Blogs ganz aufgegeben?
Ich blogge sowieso extrem irregulär. Sollte man zwar nicht, aber mein Ziel ist nicht, möglichst viele Leute bei der Stange zu halten.
Was empfiehlst Du Menschen, die mit dem Bloggen anfangen wollen?
Gute Frage, nächste Frage.
Hast Du Zukunftspläne für Deinen Blog? Vielleicht ein Redesign, ein Wechsel der Plattform oder neue Features?
Da kann ich eh nicht viel machen, weil ich mein Blog nicht selbst hoste.
Ein Umzug kommt auch nicht in Frage, weil sich damit auch alle URLs meiner Posts ändern würden. Ich würde ja von einer öffentlichen Fediverse-Instanz auf eine andere gehen.
#OffTopic
from Aus Hypergrid und Umgebung
Daß der Assetserver im OSgrid ein Problemfall ist, ist ja inzwischen allgemein bekannt. Jetzt hat sich herausgestellt, wie kaputt der ist. Die aktuellen Reparaturmaßnahmen, die auch schon seit Monaten laufen, sind immer noch bei nur 20%.
Wenn man etwas anziehen oder anderweitig rezzen will, liegt die Wahrscheinlichkeit, daß es kaputt ist, auch schon mal bei über 50%, wenn man es schon länger hat. Es hat immer geheißen, das ist ein Nebeneffekt erst der Servermigration, jetzt der laufenden Reparatur, das geht in ein paar Monaten vorbei. Stand jetzt würde die Reparatur noch jahrelang so weitergehen.
Also hat sich die Gridadministration zu einem drastischen Schritt entschlossen, dem die kompletten Inventare aller Avatare zum Opfer fallen werden.
Wo das Problem liegt, ist identifiziert worden. Erstens ist das OSgrid locker das älteste aller OpenSim-Grids. Diesen Sommer wird es seinen 18. Gridgeburtstag feiern. Bis dahin wollen sie es wohl fit haben.
Aber in 18 Jahren hat sich so einiges an Kram angesammelt. Von diesen ganzen Assets ist zweitens die Mehrzahl nirgendwo mehr in Verwendung. Das sind häufig beispielsweise WIPs oder alte Stände oder dergleichen, Sachen, die so nie als Endprodukte vorgesehen waren. Das können auch Bauten sein, die mal für bestimmte Sims gebaut wurden, aber die Sims gibt’s nicht mehr. Will sagen, eigentlich kann das weg. Natürlich könnte man den Asset-Server manuell bereinigen. Aber der erkennt nur, was in-world gerezzt ist inklusive den Inhalten von Boxen bis zu einer gewissen Tiefe. Was in Inventaren ist, kann dabei nicht berücksichtigt werden.
Drittens und vor allem sind viele Assets schlicht und ergreifend komplett im Eimer. Ich rede hier nicht einfach von Sachen, bei denen Bestandteile fehlen aufgrund der Umschichterei oder die deswegen gänzlich abhanden gekommen sind – wobei das vermutlich auch zum Problem beiträgt, weil diese Sachen noch nicht wieder zusammengefunden haben.
Vielmehr rede ich besonders von Mesh, das aus Second Life geklaut wurde. Das ist ja früher in rauhen Mengen und auch mal entsprechend schlampig importiert worden, vor allem der Beifang vom Copybotten ganzer Sims, der dann in „Stuff“-Boxen landete. Gerade da hat man ja allerhöchstens das Nötigste gemacht und kein bißchen auf Zustand und Qualität geachtet. Solche kaputten Sachen sind es, die den Assetserver vom OSgrid ausbremsen, weil der verbissen versucht, die zu reparieren.
Oben drauf kommen Assets, die etwa seit der großen Wiederherstellungsaktion 2014/2015 nicht mehr in einem Stück sind. Oder solche, die bei Umzügen des Assetservers kaputtgingen, die dann auch nie jemand repariert hat. Oder auch uralte Skripte, die ganz einfach nicht mehr funktionieren. Und dergleichen.
Nun hat es sich als wenig praktikabel erwiesen zu hoffen, daß das noch irgendwie automatisiert reparabel ist.
Den Leuten zu sagen, sie sollen mal gucken, was sie an kaputtem Kram in den Inventaren haben, bringt auch nichts. Erstens weiß man das nicht unbedingt. Zweitens, wenn es aus dem Inventar gelöscht wird, existiert es als Assets weiter auf dem Server. Und drittens hat gerade das OSgrid Unmengen an Avataren, die schon ewig nicht mehr genutzt wurden. Da kann man nicht hoffen, daß die Eigentümer sich da einloggen und die Inventare händisch pflegen.
Jetzt soll das OSgrid aber wohl bis zum 18. Geburtstag im Sommer wieder fit werden. Also hat man sich vor ein paar Tagen zu einem harten Schnitt entschlossen, der die einzige noch gangbare Lösung ist. Und das ist, den Asset-Server komplett leerzuräumen.
Die Idee ist wie folgt: Die Nutzer sollen ihre Sims als OARs und, sofern sie dafür Land zur Verfügung haben, ihre Inventare als IARs sichern. Später sollen sie die dann wieder einspielen können. Damit soll auch der Asset-Server neu befüllt werden, und zwar nur mit den Assets, die auch wirklich gebraucht werden.
Und so sieht der Plan jetzt aus: Bis zum 21. März sollen die Einwohner des OSgrid ihre Inventare als IARs und ihre Sims als OARs sichern. Dann wird das OSgrid offline genommen. Es soll dann laut Plan eine Woche offline bleiben. In dieser Zeit wird der Asset-Server komplett gelöscht. Danach kommt es wieder online, und die IARs und OARs können wieder hochgeladen werden, wodurch der Asset-Server dann nur mit dem befüllt wird, was auch wirklich gebraucht wird.
Ziel des Plans ist es also, daß die OSgrid-Einwohner zurückkehren in ein sehr viel besser funktionierendes OSgrid. Fakt ist aber: Die Administration hat bei den Einwohnern sowieso schon viel Vertrauen verspielt. Mit dem Schritt, allen Einwohnern den kompletten Inhalt ihrer Inventare wegzunehmen, haben sie noch einen draufgesetzt. Sie behaupten zwar, hinterher läuft das OSgrid besser. Aber davor steht für die meisten der Verlust mehrerer Jahre an Arbeit und Contentsuche. Außerdem haben die OSgrid-Admins auch bei den vorherigen Maßnahmen das Blaue vom Himmel versprochen und nicht eingehalten.
Nicht wenige von denen, die Sims ans OSgrid angehängt haben – Land mieten kann man da ja nicht –, exportieren also jetzt schon ihre Sims als OARs, aber nicht, um sie Ende März oder Anfang April wieder ins OSgrid einzuspielen. Statt dessen packen sie die Gelegenheit beim Schopfe und ziehen mit den OARs einfach in andere Grids um. Interessanterweise profitieren davon gerade auch kommerzielle Grids.
Vor allem das Wolf Territories Grid von Lone Wolf wächst gerade wie verrückt. Zunächst einmal ist es ohnehin schon das größte Grid in OpenSim. Vor allem in puncto Fläche hat es das OSgrid schon lange überholt, und das, obwohl man im krassen Gegensatz zum OSgrid keine Sims anhängen, sondern nur Land mieten kann. Und die Wolf Territories gelten nicht gerade als billiges Grid.
Aber man bekommt etwas fürs Geld: Das Grid ist erst drei Jahre alt, wurde aber von vornherein auf immense Größe ausgelegt. Durch eine moderne Architektur und verteilte Server skaliert es wesentlich besser als das OSgrid, das älteste Grid überhaupt – gestartet 2007 –, das in Teilen auf uralter Technologie läuft. Beispielsweise muß man sich im OSgrid wie früher auch im Metropolis Metaversum von 2008 den Papierkorb im Inventar zusätzlich über das Webinterface leeren, und Gruppen im OSgrid funktionieren bis heute nicht über das Hypergrid. Überhaupt konnte das OSgrid nur so groß werden, weil jeder Simbetreiber seine Sims selbst hosten und extern anhängen muß. Und während das OSgrid als Testgelände der Entwicklung auf Vanilla-OpenSim in einer instabilen Bleeding-Edge-Entwicklerversion läuft, setzen die Wolf Territories auf den modernisierten und optimierten Softfork OpenSim Core ++, vormals OpenSim-NGC.
Viele begreifen auch: Wat nix kost’, is’ nix. Das Anhängen von Sims ist im OSgrid immer noch kostenlos – bis natürlich auf das eigene Hosting der Sim, und sei es zu Hause. Das OSgrid finanziert sich nur aus Spenden – zu denen vor allem auf der Lbsa Plaza gleich mehrfach aufgerufen wird – und durch eine jährliche Auktion, zu der kreative Bewohner neue Kreationen spenden, die dann vom OSgrid versteigert werden. Die Einnahmen gehen ausschließlich ans OSgrid, das sie vor allem für seinen maladen Assetserver braucht. Die Wolf Territories haben dagegen durch das Vermieten von Land eine sehr viel stabilere und verläßlichere Einnahmequelle.
Die Wolf Territories lassen IAR-Importe nur in äußersten Notfällen zu; das ist eine Einschränkung. Aber wer mit seinem Land vom OSgrid umzieht, hat auf dem eigenen Land Zugriff auf den Admin Mode, auch bekannt als God Mode, und kann seinem eigenen neuen Avatar in den Wolf Territories auch Sachen direkt zuschicken, die No-Transfer sind. Das heißt: Das Inventar wird Stück für Stück übertragen, zumindest das, was man auch wirklich behalten will und nicht neu beschaffen kann. Da könnte man sogar noch überprüfen, ob es noch intakt ist.
Fakt ist nämlich: Jetzt aktuell sind viele Sachen in den Inventaren von OSgrid-Avataren ohnehin kaputt. Häufig fehlen etwa Texturen, weil der Assetserver sie nicht zuordnen kann. Oder die Sachen sind zwar im Inventar eingetragen, aber der Assetserver kennt sie gar nicht mehr.
Das ist übrigens in vielen Fällen durchaus reparabel: Man muß zunächst einmal wissen, in welchem Grid diese Sachen noch intakt sind. Das geht am besten, wenn sie eben nicht aus dem OSgrid kommen, aber auch, wenn man die Sachen auch noch bei einem Alt außerhalb des OSgrid hat. Dann geht man in dieses andere Grid, zieht die im OSgrid defekten Sachen da an bzw. hängt sie an den Avatar und geht zurück ins OSgrid. Ein Weilchen sollte man sie noch anbehalten, dann sollten sie wieder funktionieren.
Zum einen kennt den Trick allerdings fast niemand. Zum anderen: Wer überprüft alle Assets vor dem Versenden an andere Avatare oder gar den kompletten Inhalt des eigenen Inventars vor dem Sichern eines IAR? Gerade bei IARs hat das zur Folge, daß man damit Unmengen an kaputtem Content sichert. Beim Zurückspielen eines IAR kann dafür gesorgt werden, daß Assets, die auf dem Assetserver schon vorhanden sind, nicht neu eingespielt werden, sondern statt dessen auf schon vorhandene Kopien verwiesen wird. Das ist aber kein Default, also wird das kaum jemand machen – es sei denn, im OSgrid oder anderswo machen die Admins das zum Default oder legen es gar fest, falls das gehen sollte.
Ein anderes Problem ist die Informationspolitik des OSgrid. Da setzt man nämlich nicht auf anerkannte freie Standards. Als Einwohner hinterlegt man zwar eine E-Mail-Adresse. Die wird aber nie für Mitteilungen genutzt. Ich selbst habe in knapp vier Jahren nicht eine einzige Mail vom OSgrid erhalten. Es gibt einen Newsletter, aber der wird im offiziellen Blog nur ganz unten erwähnt und verlinkt. Und eine so essentiell wichtige Mitteilung sollte niemals über etwas laufen, was opt-in ist. Ach ja, das Blog scheint keinen Feed zu generieren. Als wäre das noch nicht genug, ist das offizielle OSgrid-Forum mausetot, und alles an Kommunikation inklusive Support wird nur noch über Discord abgefackelt.
Das wird dazu führen, daß diejenigen, die nur selten online sind, von dieser ganzen Geschichte genau überhaupt nichts erfahren. Aber auch wenn man sich ab und an ins OSgrid einloggt, sieht man im Viewer unter „Upcoming Event“ etwas so Vages, daß man eher geneigt ist, es komplett zu ignorieren. Sehr viele Einwohner des OSgrid werden schlicht und ergreifend nichts von dieser ganzen Geschichte erfahren, und zwar gerade auch solche, die sonst aktiv in OpenSim sind, ihren OSgrid-Avatar aber nur selten nutzen. Ab Juni werden dann viele völlig überraschenderweise dastehen mit leerem Inventar, womöglich auch mit leergeputzter selbstgehosteter Sim und schlimmstenfalls ohne jegliche Sicherung.
Aber auch viele aktive Einwohner des OSgrid werden möglicherweise nicht Bescheid wissen. Die offiziellen OSgrid-Informationskanäle verlangen, daß man sich diese Informationen selbst beschafft. Nicht jeder dürfte das tun. Auf OpenSimWorld wurde das Ganze auch nur von einem ganz normalen Nutzer verbreitet und versinkt allmählich auf hintere Seiten. Und wenn man dann auch da nicht oder kaum aktiv ist – außer um gelegentlich eine Veranstaltung anzukündigen – und die eigene Bubble auch nicht Bescheid weiß, dann steht man am Ende auch total überrascht da mit immensen Verlusten an wichtigem, unersetzlichem Content.
Der einzige Hinweis in-world ist ein großes gelbes rotierendes Fragezeichen auf den Plazas im OSgrid. Wenn man es anklickt, bekommt man eine Notecard mit Anweisungen. Aber weder das Fragezeichen selbst noch die Notecard sagt direktweg im Klartext, worum es geht. Das Fragezeichen selbst wirkt noch nicht einmal wirklich interessant; die meisten werden es also ignorieren. Und auch nicht jeder im OSgrid kommt mindestens einmal auf einer der Plazas vorbei.
Es gibt auch eine Varsim, auf der diejenigen Avatare Sachen aus ihrem Inventar in Boxen einlagern können, die kein eigenes Land haben, und die täglich als OAR gesichert wird. Der Standort dieser Sim kann auch nur über dieses Fragezeichen in Erfahrung gebracht werden. Ich weiß auch nicht, ob die Sim für Hypergridder zugänglich ist.
Ein Besuch meiner In-World-Schwester Juno am gestrigen Donnerstag auf der Lbsa Plaza zeigte: Wer nicht gerade ein alter Hase ist, der sich entsprechende Maßnahmen selbst ausknobeln kann, und den offiziellen Informationen selbsttätig folgt, steht dieser ganzen Situation total hilflos gegenüber. So mangelhaft ist die Informationspolitik des OSgrid, vor allem das Vermögen, den Nutzern die Situation in einer Form zu erklären, die nicht nur Entwickler und Administratoren verstehen.
Das Herausschreiben gerade von OARs per Kommandozeile wird auch nur sehr rudimentär erklärt mit dem grundlegendsten möglichen Befehl. Der bewirkt allerdings, daß die Schöpfer und Eigentümer der Objekte auf der Sim nicht mitgespeichert werden. Wenn das OAR wieder eingespielt wird, gehört auf einmal alles auf der Sim demjenigen, der es eingespielt hat, und der ist dann auch der Schöpfer.
Genau das wird denjenigen auf die Füße fallen, die Rezzrechte auf anderer Leute Sims haben. Nach dem Wiedereinspielen des OAR gehören ihnen auf einmal ihre bisherigen Sachen nicht mehr. Da darf sich dann der Sim-Eigner dran machen, mit God Mode womöglich hunderte Objekte jemand anderem zu übertragen, wenn das denn überhaupt geht. Davon bin ich möglicherweise selbst auch betroffen.
Eine andere Nebenwirkung scheint von vielen geradezu herbeigesehnt zu werden – und das ist das Verschwinden von Content, der als veraltet gilt. Für einige fallen darunter schon Mesh-Sachen, die Mitte, Ende der 2010er aus Second Life gestohlen und – im Gegensatz zu Athena – nie überarbeitet wurden.
Ganz besonders beziehen sie sich aber auf den Großteil des legalen Content in OpenSim, insbesondere Layerkleidung. Die kann heutzutage noch sehr nützlich sein – beziehungsweise wieder, seit Bakes-on-Mesh auch in OpenSim angekommen ist. Aber „die Leute“ wollen ja nur die neuesten, besten, heißesten Mesh-Luxusartikel aus Second Life haben. Und wenn beispielsweise massenhaft Layer-Strümpfe und -Strumpfhosen verschwinden – was soll’s? Selfst feinbestrumpfte Damenbeine sind doch nicht annähernd so sexy wie nackte, oder? Das heißt, außer wenn die Strumpfbänder zu sehen sind, weil der Rocksaum noch höher liegt.
Wer sich als weiblicher Avatar für eine schnee- und eisbedeckte Weihnachtssim entsprechend warm anzieht, statt wie üblich mehr Haut freizulegen als nicht, macht in OpenSim ganz augenscheinlich ebenso etwas falsch, wie wer irgendetwas am Avatar trägt, das nicht aus Second Life geklaut ist.
Jedenfalls werde ich versuchen, so einiges an noch nützlicher, schwer zu bekommender Layerkleidung in noch mindestens einem anderen Grid anzubieten, damit sie erhalten bleibt.
Solange das OSgrid diese Maßnahme noch nicht durchgezogen hat, ist ja auch noch nicht klar, wie es danach mit dem Grid weitergehen wird. Möglicherweise wird es tatsächlich endlich wieder performanter. Aber vor allem angesichts der vielen Nutzer und Sims, die in die Wolf Territories umziehen, wird die große Zeit des OSgrid als der ewige Spitzenreiter in allen Disziplinen vorbei sein. Es wird nicht mehr das größte Grid nach Fläche sein, es wird möglicherweise gar wieder unter die Größe von Second Life fallen. Es wird auch endgültig nicht mehr das Grid mit den meisten aktiven Nutzern sein.
Vielleicht ist das gar nicht so schlecht, wenn man bedenkt, daß das OSgrid ja immer eigentlich eine Testumgebung für die Entwickler war und nur als „Leuchtturmgrid“ so groß geworden ist. Sich auf ein Grid zu verlassen, das eine instabile Entwicklerversion von OpenSim fährt, ist vielleicht nicht die schlaueste Idee.
#OpenSim #News
from W nieskończoności skryta...
Życie w spektrum wcale nie jest łatwe, gdy ma się do czynienia z ludźmi.¹
Jakiś czas temu (czyli już ponad rok) odkryłam bardzo ciekawą rzecz, znowu coś co ułatwiłoby mi życie. I jak zwykle trochę późno. Ponoć lepiej późno niż wcale. I gdy zaczynałam pisać ten tekst (czyli ponad rok temu!), to tak właśnie myślałam, że teraz już wiem, a skoro wiem – będzie mi łatwiej!
Hurra!
Guzik prawda!
Nic się nie zmieniło, nie będzie łatwiej! Albo raczej zmieniło się na tyle, że jak już wiem co się stało, to mam jeszcze większy meltdown, bo znowu widzę jak bardzo nie potrafię odnaleźć się wśród ludzi.
Chodzi o to, że czasami, z niektórymi ludźmi², od samego początku nie potrafię dojść do porozumienia. Prawie każda rozmowa z taką osobą to praktycznie ciągła irytacja. Do tej pory zawsze myślałam, że coś ze mną jest nie tak (no, właściwie to jest), bo nie potrafię normalnie rozmawiać z ludźmi.
Dotyczy to zarówno kontaktów bezpośrednich jak i tych przez internet. Gdy byłam dzieckiem to często, w odpowiedzi na moją irytację i złość, słyszałam od takiej osoby, że złość piękności szkodzi i tym podobne niezbyt fajne dla mnie teksty. Tak, to irytowało mnie jeszcze bardziej. W kontaktach bezpośrednich zawsze było widać, że taka osoba miała przy tym całkiem dobry humor, co mnie jeszcze bardziej irytowało. Często takie zachowanie doprowadzało mnie do płaczu, albo od razu – co kończyło dalsze „dyskusje”, albo później – w domu, w samotności...
Obecnie jeśli coś takiego mi się przytrafia, to tylko przez internet. Nie mam zbyt dużo kontaktów bezpośrednich z ludźmi, a ci ludzie z którymi się widuję, nie należą do omawianej grupy.
Po takiej rozmowie zawsze najpierw czuję się skrzywdzona. Bo wszystko co robi druga strona odbieram jako atak, wyśmiewanie się ze mnie, poniżanie mnie i to w dodatku publicznie, przy pozostałych znajomych. Bo w dosłownej interpretacji właśnie tak jest. Później przychodzi oświecenie i uczucie kompromitacji, bo znowu nie zrozumiałam o co chodzi. Ale skoro nie potrafię zorientować się o co chodzi w sytuacjach bezpośrednich, to tym bardziej przez internet, bo nie da się tak łatwo wyczuć ani intencji, ani humoru danej osoby. No dobra, może osoby neurotypowe to potrafią. Ja nie potrafię, o czym wielokrotnie się przekonałam.
Oczywiście w nowych socjalach moje drogi bardzo szybko skrzyżowały się z taką właśnie osobą – oł jaeee. Jak zwykle była irytacja i złość, potem żal i smutek, że znowu to się przytrafiło. Było też trochę poczucia winy, że powinnam była się zorientować, że się nakręcam i że nie powinnam była dalej odpowiadać, że znowu kogoś potraktowałam trochę źle, bo zawsze kończy się tym, że poirytowana na maksa zaczynam być po prostu agresywna. A później jest jeszcze meltdown, zawsze. A teraz w zasadzie to nie jeden meltdown, raczej dwa, a potem kolejne, za każdym razem, gdy o tym wspominam. Pierwszy meltdown jest bezpośrednią konsekwencją – czyli wyrządzono mi krzywdę, jak w dzieciństwie, drugi – gdy dotrze do mnie co się naprawdę wydarzyło. Wtedy meltdown jest użalaniem się nad sobą, nad tym jak bardzo nie pasuję do świata.
Dawniej, gdy trafiła się taka osoba, ciężko było się od niej uwolnić, bo to był np. ktoś ze szkoły, a do szkoły chodzić trzeba. W sieci o tyle jest łatwiej, że jak już się człowiek zorientuje, że trafił na taką osobę, to można po prostu taką osobę w jakiś sposób unikać, ignorować, wyciszyć lub całkiem zablokować.
No i właśnie niedawno (ha! znowu – ponad rok temu – fajnie wracać po roku do pisanego tekstu!) rozmawiałam sobie z kimś innym na temat takiego właśnie zachowania ludzi. Pierwsze moje zdziwienie pojawiło się, gdy usłyszałam, że takie osoby robią to specjalnie, po prostu się ze mną droczą. No więc ok, przyjęłam do wiadomości. Pojęcie znam, bo od zawsze mi tłumaczono, gdy z płaczem skarżyłam się na czyjeś zachowanie – no przecież on/oni się z tobą tylko droczą, nic się nie stało... I jakoś sobie szła dyskusja dalej, aż nagle dowiedziałam się, że to droczenie się polega na tym, że obie osoby wiedzą, co się dzieje, obie strony są świadome, że to są tylko żarty. Pewnie dlatego to się nazywa „droczenie się” a nie ,,droczenie kogoś”, czyli czynność wzajemna a nie czynność jednokierunkowa jak np. dręczenie. W przypadku dręczenia jasne jest, że to nie jest akcja wzajemna. Jest dręczyciel i osoba dręczona. Czasami dręczyciel i osoba dręczona to ta sama osoba więc można samemu się czymś dręczyć. Ale jeśli to są dwie różne osoby, to jest to działanie jednostronne i zawsze w jednym kierunku a nie wzajemne. A droczenie się to czynność wzajemna, w dodatku to taka zabawa.
Tylko że dla mnie, to ani nie jest wzajemne ani nie jest zabawne. Bo ja nie wiem, że akurat ten ktoś, to się akurat teraz ze mną droczy! Skąd ja mam takie rzeczy wiedzieć? Najgorsze jest to, że takie osoby bardzo dobrze wiedzą, na jakie tematy jestem bardziej wrażliwa i z premedytacją idą w te tematy, by jak najszybciej doprowadzić do mojej irytacji. A skoro ja nie wiem co się dzieje, to nie ma tu mowy o działaniu wzajemnym, jest tylko działanie jednostronne – jest dręczenie. Bo dla mnie zawsze to wygląda jak dręczenie, zawsze odbieram to jako znęcanie się nade mną. Bo inaczej nie potrafię. A przynajmniej nie od razu. Czasami nigdy nie jestem w stanie osiągnąć tej łaski oświecenia i zorientować się o co chodziło w danej sytuacji, czasami się zorientuję, a czasami, gdy się zacznę żalić, to ktoś mi po prostu to powie. A jak już się dowiem to pojawia się ten drugi meltdown, dużo gorszy niż ten pierwszy.
I teraz pojawia się kolejna dla mnie nowa rzecz. Otóż przed chwilą postanowiłam sobie sprawdzić w sieci czym tak właściwie jest to droczenie się. Pierwszy wyszukany przez wyszukiwarkę nagłówek: Jak droczyć się z facetem, żeby nie zepsuć namiętności? I już wszystko wiem, już nie muszę nigdzie klikać i niczego więcej szukać. Bo te osoby które się ze mną droczyły, to odkąd pamiętam zawsze były osobniki płci przeciwnej. Droczenie się to po prostu rodzaj flirtu – wiadomo, kto się lubi ten się czubi (znowu ten pieprzony zaimek zwrotny się – znowu wzajemność, czyli świadomość, co się dzieje).
Czy ja muszę pisać, że ja nie ogarniam flirtu? No bo jak mam ogarniać skoro wszystko, dosłownie każdą wypowiedź próbuję analizować w znaczeniu literalnym, dosłownym? Czy ja muszę pisać, jak bardzo się w takich sytuacjach kompromituję? Zawsze! Czy muszę pisać, że kiedyś, kogoś, kto płynnie przeszedł od normalnej rozmowy do flirtu, wprost zapytałam „Co ty pierdolisz?”, bo dosłownie przestałam rozumieć o czym ten ktoś mówił?
Tak, muszę! Bo dla osób neurotypowych to nie jest ani typowe ani oczywiste, tak samo jak dla mnie nie jest oczywiste, że ktoś ze mną się tylko droczy.
Rok temu, chciałam zakończyć ten wpis takim retorycznym apelem do fediludzików, że jeśli chcą się ze mną droczyć, to żeby dali mi najpierw znać o tym w DM, co bym z siebie nie robiła idiotki i że wtedy ja też będę się świetnie bawić...
Dziś jestem innego zdania – nie będę się świetnie bawić, bo nie umiem grać we flirt, jakikolwiek, zwłaszcza publicznie...
––– 1. czyli praktycznie zawsze. 2. ha, żeby tylko z niektórymi i żeby tylko czasami... No dobra ale ten konkretny problem to tylko z niektórymi
from Goblinkindergarten
..ist wohl einer der häufigeren Sätze in klassischen Fantasy- und OSR-Runden. Geäußert von Kämpferinnen, die nicht viel anderes machen können und sollen, aber auch Zauberkundige, die ihr Pulver verschossen, Diebe, die sich unglücklicherweise im Nahkampf wiedergefunden oder Klerikerinnen, die gerade niemandem zum heilen haben, finden sich in der Situation wieder, einfach stumpf draufzuhauen.
Aber ist der gegenseitige Schlagabtausch wirklich alles, was es in solchen Fällen zu tun gibt? Die Antwort modernerer Systeme darauf sind Fertigkeiten und Spezialisierungen, um Kämpfer*innen (und meist nur diese) härter, eleganter und gewitzter zuschlagen zu lassen. Aber brauche ich wirklich Training beim letzten alten Eremiten auf dem Gipfel eines Berges, bevor ich versuche, Aufmerksamkeit auf mich zu ziehen oder sie mit einem Wrestling-Manöver niederzuringen? Will ich gerade Kämpfer*innen, die die einfachste bzw. am einfachsten zu verstehende Klasse sein sollten, wirklich mit Fertigkeiten und Spezialisierungen überfrachten, nur um keinen stumpfen “Haus-drauf” zu spielen?
Viele OSR-Systeme bieten da mehr Freiheit, indem sie das alles erst gar nicht verregeln. Dieser Ansatz von “everything goes” fördert und fordert natürlich die Kreativität von Spieler*innen und Spielleitung. Eine Konsistenz über mehrere Spielrunden erfordert jedoch pedantische Buchführung und die Spieler*innen sind auf das Wohlwollen der Spielleitung angewiesen, wenn sie bestimmte kreative Dinge im Kampf machen wollen.
Außerdem stehen Spielerinnen vor dem Dilemma entweder Schaden zu machen oder eine andere Kampfaktion zu vollziehen, meist durch eine Attributsprobe bestimmt. Will ich also als Kämpferin wirklich eine Runde “opfern”, keinen Schaden anzurichten, obwohl genau das fett unterstrichen in meiner Jobbeschreibung steht?
“Why not both?” dachten sich wahrscheinlich auch die Leute bei Goodman Games für das System Dungeon Crawl Classics, die, meines Erachtens, eine der besten Lösungen für dieses Dilemma gefunden haben: “Mighty Deeds of Arms”.
Hierbei wird statt eines konstanten Angriffsbonus ein zusätzlicher Würfel zum W20 geworfen, der nicht nur den Bonus bestimmt, sondern bei einer 3 oder mehr auch einen “Mighty Deed”, eine kreative Kampfaktion zulässt, die vorher angekündigt wird, falls der Angriff auch trifft. Dieser “Deed Die” ist anfangs ein W3 und steigt in der Würfelkette mit der Stufe.
Um etwas Ähnliches auch in anderen OSR Settings nutzen zu können, ohne auf nur dafür auf die funky dice für DCC angewiesen zu sein, will ich hier ein einfaches System für “Kreativen Kampf” vorstellen:
Zusätzlich zu einem Angriffswurf können Spieler*innen eine kreative Kampfaktion ankündigen und dafür eine passende Attributsprobe ablegen:
Was sind kreative Kampfaktionen: – gezielter Angriff auf einen bestimmten Körperteil oder Ausrüstungsstück – den Gegner mit einem Tritt umzuwerfen – dem Gegner Sand in die Augen werfen (sofern in Reichweite) – durch manisches Lachen den Gegner in Angst versetzen
Was sind keine kreativen Kampfaktionen: – Angriff mit einer zweiten Waffe – alles, was ausschließlich zusätzlichen Schaden machen würde (was nicht heißt, dass kreative Kampfaktion nie Schaden anrichten)
Spieler*innen würfeln also wie gehabt einen W20 für den Angriff und einen W20 für die Attributsprobe, was vier mögliche Ergebnisse produziert:
Um ein Gefühl von Risiko und Belohnung schaffen, schlage ich folgende Reaktionen vor:
Proben | Angriffswurf gelingt | Angriffswurf misslingt |
---|---|---|
Attributsprobe gelingt | Schaden wird angerichtet und Aktion ausgeführt | Aktion wird ausgeführt, aber Spieler*in nimmt dabei Schaden |
Attributsprobe misslingt | Schaden wird angerichtet, aber Gegner bekommt die Gelegenheit zu einer Aktion | kein Schaden wird angerichtet und Gegner bekommt die Gelegenheit zu einer Aktion |
Das macht diese kreative Kampfaktion zu einem Mittel, welches wenig bis keine zusätzlichen Regeln, Charakter- oder Klassenaspekte benötigt. Die Qual der Wahl zwischen Angriff und Attributsprobe wird beseitigt. Gleichzeitig bleibt natürlich die Möglichkeit, beides separat zu machen, da ein Fehlschläge mit einem erhöhten Risiko einher gehen.
from Explorations of probabilistic thinking
This blog goes out to people who are not professional statisticians or data analysts, but who need to work with one. Or hire one. If this describes you, here’s something very important: you need to know about archetypes of statistical practice.
In particular, if you need support for a problem that does not directly involve clinical trials, you should be discerning of what skills you need, and you can’t assume that just any statistician will do.
So, what in the world is an archetype of statistical practice?
In my nearly-30-year career as a statistician working in industry, it’s struck me that there are three main patterns of statistical work: – The clinical statistician – The industrial statistician – The machine-learning or algorithmic statistician
These are work areas, which call for certain work practices or mental orientations. Any specific statistician naturally adopts the practice pattern for their area of work, or they naturally migrate to the work that fits their orientation pattern. I call these “archetypes” of statistical orientation.
A person can have more than one archetype, and some may be able to adapt their work pattern to the different work at hand. But some strongly live in one area predominately, and would perform poorly in a different context, if they don’t receive specific training.
You may be asking, “Where do data scientists fit into this system?” I first came up with this system long ago, before “data scientist” was a thing, so humor me and let me parse the statistical world first, and then I’ll make an attempt at placing data scientists into it.
A caveat: my career experience has been in the health field (diagnostic devices and, a bit, pharmaceuticals). If you’re coming from a different background, perhaps things appear a bit different to you? I’d be interested to hear your thoughts.
With that, the three archetypes follow.
The clinical statistician supports clinical studies interpreted in an inherently adversarial context, whether they’re supporting a research manuscript for publication or a drug application to health authorities. They make arguments concerning the appropriate degree of evidence contained in the data for or against a hypothesis, sufficient to convince a skeptical audience. Therefore they must make sure everything is in order and all critical assumptions are met.
“Biostatistics” is the subfield of statistics that focuses on clinical trials. There are challenges that arise uniquely in clinical trials, and general statisticians may not be that familiar with some of them.
To illustrate a situation in which argument is key, and it’s critical to not make mistakes: in graduate school I took a math course called “Real Analysis”, which is the theoretical development of calculus. For one exam we were given one hour to prove 10 statements. In that hour I finished proving three of them; for the others I wrote down some thoughts but did not fully prove the statements. I was careful to say what I was confident in and why.
For confidently proving only 30% of the statements, I earned an “A” on the exam. I demonstrated that I was not extremely creative in math, but I knew what followed from what, and the latter is a valuable skill. In fact, mathematics is an edifice in which one true statement is based on another, so it strongly depends on there being no wrong things in the framework. This carries over to arguing for a skeptical audience: say what you can, don’t say what you can’t, and above all, don’t say a wrong thing. A wrong thing could cause your whole case to crumble. And if they find you saying one wrong thing, and you’re unaware that it’s wrong, can they believe other things you’re saying?
I’ve seen clinical statisticians look at a careful post-hoc exploratory analysis (which can be critical to the business) and make a blanket statement that statistical inference in exploratory analyses can’t be relied upon. This is true, but quite unhelpful–more helpful would be: how compromised is the particular exploratory analysis? This is one example where an orientation is not wrong but inappropriate to the context.
The industrial statistician focuses on experiments with many controllable factors, such as in a lab experiment. Their goal is to optimize a product or process, or to develop a predictive model of a system. Here it is critical to determine the most important contributors to the process and to understand different sources of variability. Once the most important factors are identified and characterized, less-important factors are of little interest. Assessing evidence for relationships sufficient to convince a skeptical audience is not important; what is important instead is reaching findings that will move the project forward usefully, even if they’re imperfect approximations of reality.
There is a technology for handling a large number of predictor variables under experimental control, especially where every single observation is expensive (e.g., it requires an entire run of a pilot manufacturing line).
For instance, the field of “fractional factorial designs” can develop a useful local model for 5 controlled factors by collecting only 9 runs (8 runs that perturb all 5 factors and one run in the nominal “center” in order to detect whether a linear model is adequate); an additional 10th run at the center point again would be valuable in order to estimate pure error. This assumes that interactions involving 3 factors or more are trivial, which is realistic in most cases. 9 or 10 runs stands in contrast to the 25 = 32 runs one might naïvely expect as a minimal perturbation of 5 factors (not counting center points or replication). 32 runs will support estimation of all possible interactions up to 5-way, but it is highly, highly unlikely that all such interactions will be active. Finding a balanced subset of runs in 5-dimensional space is a nontrivial exercise, and a geometrically appealing one. This is a useful skill, and one that a clinical statistician could very well have no awareness of.
There is an analogy with numerical optimization routines. Note that such algorithms work iteratively, and at each iteration they make a local linear or quadratic approximation to the function of interest. It isn’t critical that the function be truly linear or quadratic; the approximation only needs to be good enough to move the search process forward. The same is true for modeling of experiment data: the model needs to be a good enough local approximation that it moves the project forward; it need not be correct.
In fact, industrial work is usually iterative, in its best form. In fact, a rule of thumb is to spend no more than 20% of your budget on your first experiment, because you fully expect subsequent experiments. Subsequent experiments can incorporate previous findings, and it is efficient not to waste resources on factors or estimates that, given prior data, can be neglected. In a sequential context, correctness is less important than in the clinical context, provided results are correct enough; after all, if the conclusions of one experiment are a little off, the next experiment will refine them.
There is an art to working with a team to elicit a list of all potential factors, develop a strategy to handle them, and to bring the team on board with the experimental design. Thus there is a bit that is ineffable and social in the practice of industrial statistics.
Statistics is about learning from data, and standard statistical methods develop this learning by making assumptions that might be more useful than true. Do errors follow a Gaussian (normal) distribution? Are relationships linear? And we begin to realize that these assumptions, while convenient, are not actually required or even the main idea. We can do about as well if we assume that a relationship is smooth, rather than linear, for instance. This direction of interest leads to semiparametric modeling, multivariate clustering, semiparametric density estimation, and predictive models that allow for arbitrary complexity of interaction (neural nets, random forest, support vector machines). This flavor of statistician also takes responsibility for assessing a model’s generalizability to future data.
However, the big dichotomy in statistics is between clinical and industrial; the machine-learning orientation is usually added to one of the others, when it is expressed at all.
Where is the boundary between data science and statistics? Is there one? Much ink has been spilled on this so it is probably foolish to pursue it here…but what the heck, completeness demands it. My own experience (with clinical biomarker exploration) suggests the following: – Data scientists are intentional about the craft of programming and managing data. While a few statisticians have intentionally nurtured their craft, the community doesn’t see it as a universal need. A randomly-selected data scientist is likely to be a better programmer than a randomly-selected statistician. – Data scientists take ownership of data pipelines and data handling, more so than statisticians. – Statisticians own the question of inference. If you’re making statistical inference, you’re doing statistics. Whether or not you consider yourself a statistician. – Data scientists tend to take more responsibility than statisticians for understanding the scientific background. – I see a bifurcation in the data science community: there are those whose analysis process is to use loops and a small set of hypothesis tests and plots, then interpret the pile of results that result. Others adopt machine-learning and clustering methods eagerly.
In the health-related industry, most statisticians work in the clinical area, and support the clinical archetype. This is very important work with its own idiosyncracies, and it’s good that these practitioners generally adopt the archetype appropriate to the work. Some of these practitioners may also be able to adopt one or more of the other archetypes when placed into a different context, while others may not.
The proportion of clinical statisticians among statisticians in health-related areas is so high that many in the industry don’t realize that there is anything else. They refer to all statisticians as “biostatisticians” and expect that clinical statisticians can address any statistical need. This is a big error and can lead to business and project issues.
It would be just as big of an error to place one of the other archetypes into a clinical role if they cannot adopt the clinical orientation. However, given that the clinical role is so prevalent and highly developed, this direction of error rarely happens, or at least it is caught right away. It is the clinical-to-other direction that is more likely to be undetected, and to lead to problems. All it takes is a blasé pointy-haired boss to put the wrong person into place and the stage for mayhem is set.
In essence, managers in health-related organizations need to know that not all statisticians are alike.
from Cleanzen Chicago Cleaning Services
At Cleanzen Chicago Cleaning Services, we understand how busy life can get. That’s why we’ve designed a platform to connect you with skilled independent cleaners who can take care of your home. Booking your cleaning takes just two minutes, and you’ll receive confirmation within an hour. We proudly serve Chicago and the neighboring suburbs, providing reliable and thorough cleaning services. With our satisfaction guarantee, you can feel confident knowing we’ll re-clean or refund your payment if you’re not happy. Let Cleanzen Chicago Cleaning Services handle your cleaning needs so you can enjoy more free time. Book today!
Hours of operation Mon – Sun 8AM to 10PM
Payment Types Accepted Credit Card, American Express (Amex), Visa, Mastercard, Discover
Services and Products Offered Regular Cleaning, Deep Cleaning, Move In/Out Cleaning, Post Renovation, Commercial Office Cleaning, Maid Services, Green Eco-Friendly Cleaning
Areas Served Chicago, Elgin, Wheeling, Aurora, Skokie, Niles, Glenview, Vernon Hills, Wilmette, Deerfield, Morton Grove, Buffalo Grove, Hoffman Estates, Naperville, Elmhurst, Algonquin, Lake Forest, Wicker Park, Hyde Park, Streeterville, Rogers Park, Albany Park, Northfield, Mundelein, Harwood Heights, Winnetka, Northbrook, Des Plaines, Glencoe, Prospect Heights, Mount Prospect, Rosemont, Barrington, Elk Grove Village, Oak Park, Lombard, Lake Zurich, Ukrainian Village, Logan Square, Lake View, South Loop, Jefferson Park, West Town, Gold Coast, Chicago Loop, Chicago West Loop, Chicago Lincoln Park, Evanston, Palatine, Arlington Heights, Schaumburg, Highland Park, Seattle Painters, Park Ridge, Norridge, Lincolnwood, Hinsdale, La Grange, West Dundee, Uptown, River North, Andersonville, Roscoe Village, Humboldt Park, Greektown, Old Town
Contact Us: Cleanzen Chicago Cleaning Services Address: 444 N Wabash Ave #500 Chicago, IL 60611 Phone: (312) 561-3420 Email: support@cleanzen.com Website: https://cleanzen.com/chicago Map: https://www.google.com/maps?cid=6306111083136810780
Social Links: https://www.facebook.com/people/Cleanzen-Chicago-Cleaning-Services/100063756235306/ https://www.yelp.com/biz/cleanzen-chicago-cleaning-services-chicago-3 https://twitter.com/CleanzenChicago https://foursquare.com/cleanzen5117063 https://en.gravatar.com/cleanzencleaningserviceschicagoil https://www.instagram.com/cleanzenchicago
from Explorations of probabilistic thinking
Jim Garrett
Over and over I’ve found my data analysis strategies to be contrary to those of many of my peers. One area of differing inclination is that, when given continuous data, I try very hard to analyze it as continuous, rather than binning it. My preference is, according to standard principles, the theoretically preferred approach: binning is discarding information and loss of information must lose statistical efficiency. Nevertheless, this textbook advice is almost universally ignored.
I’m going to argue here that binning is a bad practice, but not for statistical efficiency reasons. Instead, I argue for trying hard to analyze continuous data on the grounds of clarity. The more we meet Nature where she is, the more clearly we can understand her and make reasonable decisions.
Note: I’ve realized that this blogging platform doesn’t allow one to include figures, unless one has access to the server, which I don’t. I’m in the process of setting up my own web site, at which point I’ll move my blog there. In the meantime, in lieu of figures, I’ll include code to produce the figures. Perhaps this will offer a little tutorial benefit. At least, I’m trying to make lemonade out of a lemon.
Here’s some setup code:
library(rms)
library(mgcv)
## A crude hand-sketched example
template <-
data.frame(x = c(0, 4, 5, 6, 7, 8, 9, 10),
y = c(0, 0, 1, 3, 4, 4.25, 4.5, 4.75))
## A function to linearly interpolate
tempFun <-
approxfun(x = template$x,
y = template$y)
## Generate
set.seed(123)
datbin <- data.frame(x = runif(300, 0, 10))
## Transform template to probability scale, ranging from 0.1 to 0.8
invLogit <- function(r) 1 - 1 / (1 + exp(r))
LogitLow <- log(0.1 / 0.9) # -2.197225
LogitHigh <- log(0.8 / 0.2) # 1.386294
datbin$p <-
invLogit((LogitHigh - LogitLow) / tempFun(10) * tempFun(datbin$x) + LogitLow)
MedianBin <- median(datbin$x) # 4.778207
datbin$XGp <-
factor(ifelse(datbin$x >= MedianBin, "High", "Low"),
levels = c("Low", "High"))
set.seed(456)
datbin$YBin <- rbinom(nrow(datbin), size = 1, prob = datbin$p)
As mentioned, virtually any academic statistician will argue against binning categorical data on efficiency grounds, and yet the practice is pervasive. Why? I don’t know for sure, but my guesses are as follows.
First, our customers ask for it. Very often a statistician’s customer is a medical clinical researcher, and many clinical researchers are accustomed to seeing a comparison of discrete groups. In fact, many clinical researchers aren’t even aware that any analysis other than comparing groups is even possible, if the response is not continuous. For instance, if the response variable is binomial with a hypothesized probability p that depends on independent study factors, a non-statistician researcher may imagine that a probability is a property of a group, i.e., a proportion of the whole. To evaluate a probability of an outcome given a study factor, we must define a subgroup based on the factor and then count successful outcomes per subgroup. Modelers know that logistic regression can describe the probability p as changing continuously as a function of other factors: it’s possible for every single study subject to have their own distinct probability p.
Therefore a clinical researcher asks for a subgroup definition because they prefer to think that way or they’re unaware of alternatives. Next, the pliable statistical analyst may want to please his customer by fulfilling the request as quickly and directly as possible. This raises questions about what a statistical analyst’s ideal role in collaboration is, but that’s for another day….
Second, binning can simplify analysis. Continuous data cannot be depended upon to be nicely normally-distributed as in textbook cases. There can be non-normal distributions, skewness, outliers, etc. When relating to other variables, we similarly cannot rely on relationships being linear. All of these problems simply go away when we bin. Deciding not to bin is not a simple choice, but is rather a commitment to cultivate an entirely new toolbox of analysis strategies suitable for messy cases.
Given the analyst caught between customers demanding binning on the one hand, and maybe not fully confident about their continuous-data toolbox on the other hand, perhaps it’s no surprise that most analysts simply provide the customer with what the ask for.
Still, I challenge statistical analysts to start nurturing that toolbox. If you want to know how, watch this space.
Let’s consider the question of statistical efficiency and power with a simple hypothetical example. Suppose we are assessing a possible biomarker in a clinical trial, and the biomarker is assayed on 300 subjects. Biomarker values are uniformly distributed over a range. Suppose the clinical outcome is binary. An increased biomarker value contributes to an increased probability of clinical response, and the true relationship is per the piecewise-linear curve generated as follows:
plot(0:10,
invLogit((LogitHigh - LogitLow) / tempFun(10) * tempFun(0:10) + LogitLow),
type = "l",
ylim = c(0, 1),
main = "True probability of response",
xlab = "Biomarker value",
ylab = "Probability of response")
(This produces a piecewise-linear curve that is somewhat sigmoidal, starting from a probability of 0.1 (where it remains for some time), and then it increases rapidly to roughly 0.7. Then it continues increasing, but at a slower rate. Over the range of the curve (from 0 to 10), it reaches a maximum probability of 0.8.)
Even though the curve is crudely piecewise linear, it has some features that complicate real-world analysis:
We want to assess whether the biomarker is worth investigating further, and if so, the nature of the relationship. I’ll carry out three alternative strategies:
Should we include fitting a continuous model that assumes linearity? I think not, because we don’t know if that’s the case, and a non-linear relationship is quite plausible.
With alternative (1), Fisher’s Exact Test gives a p-value “< 2.2e-16
”. Statistical efficiency is not an issue here.
(The following code evaluates Fisher’s Exact Test with the X grouping against the binary outcome.)
fisher.test(datbin$XGp, datbin$YBin)
With the GAM–alternative (2)–we also find <2e-16
as a p-value against the null hypothesis of no relationship. The following code generates an estimate of this relationship:
GamMod.init <- gam(YBin ~ s(x), family = binomial, data = datbin)
summary(GamMod.init)
plot(GamMod.init,
trans = invLogit,
ylim = c(0, 1),
main = "Logit outcome vs biomarker",
xlab = "Biomarker",
ylab = "Logit of outcome probability")
(The figure shows a figure that tracks the true curve, but it is implausibly “wiggly”.)
This tracks the true curve but is too wiggly to be plausible. Manually forcing the smoothing parameter to be large enough so that the curve is almost monotonic, we find:
GamMod <- gam(YBin ~ s(x, sp = 0.05), family = binomial, data = datbin)
plot(GamMod,
trans = invLogit,
main = "Logit outcome vs biomarker",
xlab = "Biomarker",
ylab = "Logit of outcome probability")
(The code generates a less-wiggly curve that still tracks pretty well.)
The actual predicted probabilities are not very different between these estimates, actually, and they both give p-values of <2e-16
against the null model.
## initial model
summary(GamMod.init)
## Add a linear component to the initial model so that linear and non-linear
## components can be assessed separately.
GamMod.init.lin <- gam(YBin ~ x + s(x), family = binomial, data = datbin)
summary(GamMod.init.lin)
## smoother model
summary(GamMod)
(The initial and the smoother GAM models both show a p-value for the relationship betweeen X and outcome of <2e-16
. Additionally, a linear term is added to the initial model in order to assess the non-linear contribution separately. This shows that p-values for the linear and the non-linear contributions are both very small.)
Applying alternative (3), unpenalized spline regression, we obtain the following curve:
## Use rms package to enable nice ANOVA
RegModBin <- lrm(YBin ~ rcs(x, parms = 5), data = datbin)
## Use base or "stock" glm to support likelihood ratio test via base
## anova function
RegModBin.s <- glm(YBin ~ rcs(x, parms = 5), data = datbin)
## Plot
## Set of points on X axis for plotting
TmpSeq <- seq(0, 10, length = 200)
## Get predictions on logistic scale, then calculate confidence limits
## on that scale, then transform to probability scale
Preds <-
predict(RegModBin,
newdata = data.frame(x = TmpSeq),
type = "lp", se.fit = T)
## has components "linear.predictors" "se.fit"
CIReg <-
data.frame(Est = invLogit(Preds$linear.predictors),
Low = invLogit(qnorm(0.025,
mean = Preds$linear.predictors,
sd = Preds$se.fit)),
High = invLogit(qnorm(0.975,
mean = Preds$linear.predictors,
sd = Preds$se.fit)))
plot(range(TmpSeq), c(0, 1), type = "n",
main = "Outcome probability vs. biomarker",
xlab = "Biomarker",
ylab = "Outcome probability")
polygon(x = c(TmpSeq, rev(TmpSeq), TmpSeq[1]),
y = c(CIReg$Low, rev(CIReg$High), CIReg$Low[1]),
col = "thistle", border = NA)
lines(TmpSeq, CIReg$Est)
rug(datbin$x[datbin$YBin == 0])
rug(datbin$x[datbin$YBin == 1], side = 3)
In this plot the Y-axis is on the probability scale rather than the logit scale. This is substantially equivalent to either GAM model. Here we can give an informative ANOVA breakdown:
## Generate the ANOVA table
anova(RegModBin)
Factor Chi-Square d.f. P
x 69.85 4 <.0001
Nonlinear 9.89 3 0.0195
TOTAL 69.85 4 <.0001
## Likelihood ratio test using base R
anova(RegModBin.s, glm(YBin ~ 1, data = datbin))
This indicates that there is overwhelming evidence that the biomarker influences the outcome, and furthermore there is strong evidence of a nonlinear component, i.e., a departure from linearity on the logit scale. While this representation doesn’t show exactly how small the p-value is, a standard likelihood-ratio test yields <2e-16
, just as the other methods.
In summary, all three approaches indicate strong evidence that the biomarker influences the clinical response. This does not support the idea that the continuous approach is more powerful. The median split represents the biomarker with 1 degree of freedom, while the continuous approaches use roughly 4 degrees of freedom. They yield more information, but “cost” more. It’s a fair trade, but it’s not clear that one always has more power than the other.
Rather, the reason that I recommend a continuous approach is that, in one step, we (1) assess evidence for a non-null relationship and (2) gain a reasonable estimate of that relationship. Further, we do the latter without carrying out substantial optimization or multiple looks at the response, which compromises statistical reliability.
Now let’s think a little more about real life.
Here’s a true story illustrating how failure to look at continuous data can lead to self-imposed confusion and obfuscation, also cost real money, and delay important projects.
As the resident expert in clinical diagnostic assays in a large pharmaceutical company (that’s not saying a great deal when the company didn’t nurture such expertise), I was pulled into an apparent assay issue impinging on an oncology clinical trial. The assay measured gene copy number (GCN) for a specific gene; a GCN value above a specified cutoff was a study enrollment criterion. That is, it was a companion diagnostic assay (CDx) for the therapy under study. Two labs carried out testing for the study, each serving a different geographic region.
Recently there had been some operational issues with the assay which had required troubleshooting; the assay vendor had confirmed the issue, put a fix in place, and, for good measure, both labs repeated operator proficiency validations. Then patient screening for the study resumed. After some time, however, the trial team noticed that the “prevalence” (incidence of GCN over cutoff) was higher at one lab than the other. It was decided to pause study enrollment once again. zNote that for a pharmaceutical company, completing trials quickly is the coin of the realm; pausing a trial was a Very Serious Matter. Meetings were held, numbers were compiled, and still bigger meetings were held. Finally this expanding process grew to include a bystander previously unaware of the entire study, i.e., me.
When I joined my first meeting, it was chaired by the head of Oncology, which, for the company organization at the time, reported to the CEO. Lots of highly-paid senior people were there; this was one of those meetings where the cash clock ticked quickly.
I was given the information that had been compiled up to then. This included assay positivity counts at each site. I asked, “Where are the GCN numbers for each of the sites? What does the GCN distribution look like at each site?”
Such information had not been compiled!
Consider for a moment what this indicates about priorities and corporate culture. The company was expending significant resources, pausing a trial and using a top executive’s time. It would have been the simplest thing to organize GCN values–they were available in the clinical database, waiting to be visited. There’s no question that the values actually measured would give a more complete representation than the processed values. Yet this value was not widely shared. If this describes your organization too, you have work to do!
As an aside, there’s another aspect to this: when you’re troubleshooting a data-related issue, investigate the data process from first information acquisition to final result before you invest time in a lot of other approaches. At what point does the data begin to look anomalous? Or, if you prefer, start at the end and work towards the beginning. The point is to be systematic and to “scan” the whole process to come to an understanding of the state of things. Looking at continuous data often means looking upstream; I also have an expensive war story about this. The error is committed again and again.
But back to our story: in not much time the team pointed me to GCN numbers and I was able to determine that the clinical cutoff for GCN was very near the median GCN value. This is not necessarily an error, but it is definitely problematic: a small shift in the distribution of measured values, such as can easily happen with many assays, will induce a substantial change in positivity rate. I fitted density estimates; they had similar shapes but one was shifted slightly higher than the other. If I shifted the higher density down by the difference in medians, the densities lined up quite well, and furthermore the apparent positivity rates closely agreed.
This difference in median was smaller than the noise in the assay, so an assay scientist wouldn’t worry too much about it, and would certainly recommend against placing the assay in a context where a trivial change (relative to assay variability) would be interpreted gravely. Red flags and warnings should have gone up when the clinical cutoff was suggested.
The team decided to carry out a paired sample study. Regulatory requirements prevented either lab from sending clinical samples to the other lab, but the assay vendor could split samples, test them, and send them to each lab. Then we could compare each lab to the vendor. Long story short, it turned out there was a small difference between the vendor and both labs, and in the same direction, but this difference was not meaningful. The trial resumed. Frankly, while there was an observed difference, when interpreted with quantitative data and an understanding of variability, there was no real issue. By looking at processed data and not turning quickly to the underlying quantities when questions arose, the team had gotten themselves in very costly tizzy.
Here’s what I’ve taken away from these experiences:
For more on this topic, check out Frank Harrell Jr.’s essays How to Do Bad Biomarker Research and a chapter on Information Loss.
#continuousdata #dataanalysis #statistics
from bvideo
2024年12月13日【ZWTV中旺電視】南加州聖蹟寺舉辦《恭迎南無阿彌陀佛佛誕法會》
from bvideo
2024年12月13日【中天北美新聞】南加州聖蹟寺舉辦《恭迎南無阿彌陀佛佛誕法會》