Jump to content

Recommended Posts

Werbung (verschwindet nach Registrierung)

...kommt nun vielleicht doch schneller als erwartet. Offenbar arbeitet Adobe daran und es soll schon Ende des Jahres eine Beta geben:

https://petapixel.com/2017/07/25/adobe-project-nimbus-leaked-lightroom-cloud/

 

Ich mal gespannt, was da kommt und wie gut es funktioniert im Vergleich zu Lightroom auf dem Desktop.

Link to post
Share on other sites

Naja, so eine Lösung könnte ja gerade auf schwächerer Hardware bessere Performance bringen, weil aufwändige Grafikoperationen nicht mehr auf dem Client stattfinden.

 

Die Frage ist, ob man mit einem handelsüblichen DSL-Anschluss genügend Bandbreite hat, um flüssig arbeiten zu können. Natürlich müssen die RAW-Dateien vor der Bearbeitung auch erstmal hochgeladen werden, da braucht man schon einen ordentlichen Upstream.

Darüber hinaus werden wahrscheinlich viele Fotografen Bedenken hinsichtlich Zugriffsschutz haben.

 

Trotzdem eine interessante Entwicklung, wie ich finde.

Ein Ersatz für LR auf dem Desktop wird es aber für die meisten vorerst nicht sein, deshalb besteht sicher keine akute Gefahr, dass LR nicht mehr weiterentwickelt wird,

obwohl die CC2017 bzw. LR7 Version erstaunlich lange auf sich warten lässt.

Link to post
Share on other sites

Nachdem die Beschleunigung von Lightroom durch die GPU schon daran krankt, dass es so lange dauert, die Bilddaten vom RAM ins VRAM und zurück zu kopieren, frage ich mich, wie das bei einer Übertragung im Internet sein soll. Und wie will man eine direkte Vorschau bieten, während man einen Regler schiebt? Das könnte etwas für Leute sein, die unterwegs keinen eigenen Computer dabei haben, aber da ich praktisch immer einen Computer dabei habe, finde ich die Aussicht nicht so spannend. Ich frage mich eher, was Adobes Anstrengungen zur Beschleunigung von Lightroom bringen werden.

Link to post
Share on other sites

Hallo.

 

Ich selbst habe dafür keine Verwendung, aber die Bandbreite sehe ich als Hauptproblem für potentielle Interessenten. Mag ja sein, dass es in den USA anders ist, aber praktisch alle Datenleitungen für Privatkunden in Deutschland sind asynchron, mit hohen Download- und viel geringeren Uploadraten. Selbst beim schnellsten mir zur Verfügung stehenden Anschluss (Unitymedia mit 400 MBit Download) bekomme ich "nur" 10 MBit im Upload. Daran scheitert m. E. ja auch oft ein "Backup in die Cloud".

 

Selbst, wenn die "Smart Previews" verwendet würden, käme man doch schnell auf beträchtliche Datenmengen zum Upload. Und wer will schon Stunden warten, bevor er mit der Bearbeitung beginnen kann?

 

Grüße

Matthias

Link to post
Share on other sites

Ich glaube nicht, dass die RAWs bzw. Bilder zur Bearbeitung in eine "Cloud" geladen werden, ich glaube eher das die Anwendung den Zugriff auf den Rechner lokal hat .... alles andere lässt sich "egal wo" nicht performant realisieren. Es sei den, dass alle Bilder generell zuerst zu Adobe in ein wie auch immer geartetes Laufwerk geladen werden und dann alles bei Adobe durchgeführt wird. Technisch gesehen, wird die Sache wie die Microsoft Online Apps funktionieren welche man z.B. für die Bearbeitung von Dokumenten im OneDrive verwenden kann, aber auch Kopien lokal speichern kann.

 

/b! 

Link to post
Share on other sites

Werbung (verschwindet nach Registrierung)

Wenn ich den Text richtig verstehe sollen alle Bilder in der Cloud gespeichert werden. Dann sind natürlich auch die Ladezeiten gering. Die Creative Cloud gibt es ja schon länger, nur derzeit auf Grund der "freien" Größe ein WItz.

 

Einen sehr großen Vorteil sehe ich vor allem darin, dass der RAW Konverter mit Machine Learning sich selbst verbessern könnten. Z.B. das Würmchen Problem erkennen und den Schärfe Algorithmus entsprechend anpassen. Derzeit muss Adobe auf Feedback warten, das selbst testen und entwickeln. Wenn viele Bilder direkt in der Cloud entwickelt werden ist die allein Testmenge um ein Vielfaches größer.

Link to post
Share on other sites

Ich denke auch, dass Adobe die Intention verfolgt,  die Bilder in der Cloud zu verarbeiten bzw. in die Cloud zu "bekommen". Nur so ergibt die beschriebene Speicherplatz Größe von 1TB pro Benutzer einen Sinn.

Edited by Don Pino
Link to post
Share on other sites

Einen sehr großen Vorteil sehe ich vor allem darin, dass der RAW Konverter mit Machine Learning sich selbst verbessern könnten. Z.B. das Würmchen Problem erkennen und den Schärfe Algorithmus entsprechend anpassen. Derzeit muss Adobe auf Feedback warten, das selbst testen und entwickeln.

Und wie funktioniert maschinelles Lernen? Indem Feedback eingeholt und das Verfahren damit iterativ verbessert wird. Es gibt kein Lernen ohne eine Instanz, die sagt, ob ein Ergebnis besser oder schlechter als ein anderes ist.

Link to post
Share on other sites

Ich denke auch, dass Adobe die Intention verfolgt,  die Bilder in der Cloud zu verarbeiten bzw. in die Cloud zu "bekommen". Nur so ergibt die beschriebene Speicherplatz Größe von 1TB pro Benutzer einen Sinn.

Natürlich. So lange die Bilder nicht in der Cloud sind, könnten Adobes Server ja auch nicht auf die Raw-Daten zugreifen. Aber es müssen immer noch Voransichten in der jeweils gewählten Zoomstufe übertragen werden, damit man sieht, was man tut. Und irgendwo in der Walachei schnell mal einen Haufen Raw-Dateien entwickeln, das geht auch nicht unbedingt, denn erst einmal müssen die Dateien hochgeladen werden.

Link to post
Share on other sites

Diesen maschinelle Lernen der Software braucht kein Mensch wenn man weiß was man tut. Für ernsthafte Anwendungen taugt das Vorhaben meiner Meinung nach nicht, da alles erst hochgeladen werden muss. Instagramnutzer könnten evtl. davon profitieren. Mal schnell hier ein Filter drübergebügelt, gefällt nicht?! Ok, nächster Filter...-leider gibts dafür schon unzählige Apps.

Link to post
Share on other sites

Und wie funktioniert maschinelles Lernen? Indem Feedback eingeholt und das Verfahren damit iterativ verbessert wird. Es gibt kein Lernen ohne eine Instanz, die sagt, ob ein Ergebnis besser oder schlechter als ein anderes ist.

 

Wobei man das Feedback auch aus dem Ergebnis und den Arbeitsschritten (Verhalten) ableiten kann. Das ist ein Feedback, welches der Benutzer ohne zusätzlichen Aufwand gibt. Je größer die Datenbasis desto besser funktioniert das. Ein Beispiel dafür ist MS Office. Die Telemetrie Daten werde genutzt um das Arbeiten zu erleichtern. Z.B. oft genutzte Menüpunkt an eine hervorgehobene Stelle zu schieben, Klicks zu reduzieren oder die Mauskilometer. Vor 10 Jahren wurde dazu noch Studenten in Studien bei Standard Aufgaben beobachtet, was natürlich deutlich mühseliger ist.

 

Auch wenn sich mit grundlegenden Dingen wie ein Demosaicing am Ende sicher wieder Entwickler beschäftigen müssen, so kann man aus dem Benutzerverhalten eine ganze Menge Informationen vorauswerten. Wenn sich z.B. Besitzer einer bestimmten Kamera mit bestimmten Funktionen deutlich länger aufhalten als andere, so scheint es hier ja ein spezifisches Problem zu geben. 

 

Selbstverständlich ist ein direktes Feedback auch sinnvoll. Z.B. wenn man Alexa bestätigt, dass sie richtig verstanden hat, wird sie schneller lernen. Das bedeutet aber zusätzlichen Aufwand und der Benutzer kann ja auch ein falsches Feedback geben. Und die Qualität von Feedback ist auch oft fragwürdig.

Link to post
Share on other sites

Diesen maschinelle Lernen der Software braucht kein Mensch wenn man weiß was man tut. Für ernsthafte Anwendungen taugt das Vorhaben meiner Meinung nach nicht, da alles erst hochgeladen werden muss. Instagramnutzer könnten evtl. davon profitieren. Mal schnell hier ein Filter drübergebügelt, gefällt nicht?! Ok, nächster Filter...-leider gibts dafür schon unzählige Apps.

 

Es geht nicht darum das Bild automatisch zu entwickeln sondern die Software zu verbessern. Und das LR im Umgang mit Fuji-X Raws deutlich Luft nach oben hat kann man in unzähligen Beiträgen nachlesen. 

Link to post
Share on other sites

Wobei man das Feedback auch aus dem Ergebnis und den Arbeitsschritten (Verhalten) ableiten kann. Das ist ein Feedback, welches der Benutzer ohne zusätzlichen Aufwand gibt. Je größer die Datenbasis desto besser funktioniert das. Ein Beispiel dafür ist MS Office. Die Telemetrie Daten werde genutzt um das Arbeiten zu erleichtern. Z.B. oft genutzte Menüpunkt an eine hervorgehobene Stelle zu schieben, Klicks zu reduzieren oder die Mauskilometer. Vor 10 Jahren wurde dazu noch Studenten in Studien bei Standard Aufgaben beobachtet, was natürlich deutlich mühseliger ist.

 

Auch wenn sich mit grundlegenden Dingen wie ein Demosaicing am Ende sicher wieder Entwickler beschäftigen müssen, so kann man aus dem Benutzerverhalten eine ganze Menge Informationen vorauswerten. Wenn sich z.B. Besitzer einer bestimmten Kamera mit bestimmten Funktionen deutlich länger aufhalten als andere, so scheint es hier ja ein spezifisches Problem zu geben.

Ein so grobschlächtiges Feedback reicht nicht aus. Der Benutzer müsste irgendwie deutlich machen, dass er störende Artefakte sieht, und wie sollte er das tun? Vor allem wären direkte Vergleiche verschiedener Versionen nötig – nur „Ach, schon wieder Würmchen!“ reicht nicht.

 

Hier gäbe es eigentlich nur zwei Möglichkeiten: Entweder entwickelt der Hersteller Modelle dessen, was in einer bestimmten Kamera passiert, also wie deren Sensor die Welt sieht. Dann simuliert man damit die Raw-Daten für eine gegebene Vorlage und versucht dann das Ergebnis der Raw-Entwicklung an die Vorlage anzugleichen. Oder man simuliert das menschliche Sehvermögen so detailliert, dass man voraussagen kann, welche Strukturen als störende Artefakte angesehen werden. Beides wäre extrem anspruchsvoll.

 

Und das setzt natürlich voraus, dass man die bisher verwendeten Algorithmen durch neuronale Netze ersetzt – ohne dass sich die Performanz verschlechtert, versteht sich. Und zwar neuronale Netze, deren Arbeitsweise sich durch den Anwender steuern lässt, denn auf die Regler wollen wir ja nicht verzichten. Auch das ist keineswegs trivial. Algorithmen haben typischerweise Parameter, die wir mit den Reglern steuern – da ist dann vielleicht eine Übersetzung nötig, weil ein Parameter logarithmisch ist und wir einen linearen Regler wollen (oder umgekehrt), aber im Prinzip ist es einfach. Neuronale Netze haben keine solchen Parameter. Man müsste den Reglerwert als zusätzlichen Input einspeisen und die gewünschte Wirkung lernen lassen.

Link to post
Share on other sites

Ein so grobschlächtiges Feedback reicht nicht aus. Der Benutzer müsste irgendwie deutlich machen, dass er störende Artefakte sieht, und wie sollte er das tun? Vor allem wären direkte Vergleiche verschiedener Versionen nötig – nur „Ach, schon wieder Würmchen!“ reicht nicht.

 

Grundsätzlich richtig und Würmchen sind vielleicht auch ein suboptimales Beispiel an der Stelle. Dennoch kann man erstaunlich viel aus den Daten lesen, daher sind die ganzen großen Firmen ja auch so dahinter her. Es hilft in jedem Fall Probleme zu erkennen und einzugrenzen. Und am Ende des Tages auch zu priorisieren. Das ein so komplexes Problem wie die Würmchen automatisch gelöst wird ist wahrscheinlich noch Zukunftsmusik. Aber spinnen wir es mal weiter:

 

  • Auffällig viele X-Trans Benutzer halten sich lange mit "Details" auf
  • Bei näherer Analyse werden Unmengen an Versionen aus Schärfen, Rauschreduzierung etc. erstellt
  • Man kann nun recht einfach folgern, dass es hier ein Problem gibt
  • Vergleicht man nun die verworfenen Einstellungen mit den beibehaltenen und analysiert dazu noch die Bilder, kommt man schon recht nah an das Problem
  • Auch wenn heute vermutlich an dieser Stelle ein Mensch involviert werden muss, so hat dieser schon eine große Datenbasis auf der er seine Arbeiten aufbauen kann

Und bis zu diesem Punkt braucht er nicht ein einziges, direktes Feedback. Das ist auch ein enormer Zeitvorteil. 

 

P.S.: Das wäre eher ein Beispiel für Big Data (Bingo). Grundsätzlich sehe ich es aber als durchaus realistisch, dass Dinge wie Würmchen erkannt und automatisch korrigiert werden könnten. Dazu müsste man nur die verworfenen mit den beibehaltenen Fuji Bildern vergleichen, das wieder mit der ganz große Menge vergleichen. Solch auffällige Strukturen sollten schnell zu identifizieren sein. Durch die enorme Menge an RAW Daten in der Cloud könnte dann eine Optimierung gefunden werden. Genau hier steckt auch einer der Vorteile. Der Zugriff auf die Bild Daten. Telemetrie könnte man auch vom lokalen LR bekommen.

Edited by Winkelsucher
Link to post
Share on other sites

Es geht nicht darum das Bild automatisch zu entwickeln sondern die Software zu verbessern. Und das LR im Umgang mit Fuji-X Raws deutlich Luft nach oben hat kann man in unzähligen Beiträgen nachlesen. 

 

Schon klar, die werden das aber nicht wegen Fuji entwickeln. Hätten die ernsthaftes Interesse daran, wäre das bekannte "Problem" längst behoben. Das was du hier schreibst hört sich für mich nach autonomen Fahren an -> Zündung an, Gehirn aus. Software kann man bis zu einem gewissen Grad verbessern und Anwenderfreundlicher machen, manche Nutzer bleiben dann eben auf der Strecke oder bilden sich weiter.

 

Übrigens geht es bei dieser Software eben genau um die Bildbearbeitung und -verwaltung- nur eben Online. Wow, was ein Meilenstein.:

 

The idea of Project Nimbus is that it’s a photo editor in which your photos and edits are stored in the cloud, allowing you to easily go back and forth between desktop and mobile devices while reviewing and editing your photos.

 

(Die Idee hinter Projekt Nimbus ist ein Foto-Editor, der es dir erlaubt, deine bearbeiteten Fotos in der Cloud zu speichern und du jederzeit leicht zwischen deinem Desktoprechner oder mobilen Geräten wechseln kannst, um deine Fotos zu bearbeiten oder anzuschauen)

 

 

Ich weiß ich wiederhole mich aber um Fotografen zu entlasten sollte Lightroom flotter gemacht werden und nicht alter Käse neu verpackt werden; mit Schleifchen drum, auf dem "Cloud" steht. Derjendige der das nutzt wenn mehr als 3 Fotos bearbeitet werden müssen, dessen Workflow muss ich sehen.

 

 

"Wenn du Probleme mit Würmchen hast, dann bist du Pixelpeeper und musst zur Zeit leider Irident verwenden" hab ich bereits im Netz gelesen.

 

 

 

Alexa ist genauso ein Beispiel für ein schwachsinniges Gerät:

 

- Wenn ich sage: Alexa, spiel mit Jazz Musik, dann brauche ich ein Musik-Abo was wieder Zusatzkosten beinhaltet, oder sucht Alexa auf Youtube nach Jazzmusik? Und wer garantiert mir, dass ich dann Jazzmusik höre die mir gefällt? Ich muss dann nehmen was ich bekomme und bevor ich dann ständig "nächstes Lied" sage, leg ich mir meine Lieblings CD ein oder lass meine Youtube Playlist laufen.

 

 

Nicht das jemand denkt mich macht sowas sauer, nein, das ist lediglich meine Ansicht und mein Kommentar zu dem Thema. Obs einem passt oder net :rolleyes:

Edited by Taikido
Link to post
Share on other sites

  • Auffällig viele X-Trans Benutzer halten sich lange mit "Details" auf
  • Bei näherer Analyse werden Unmengen an Versionen aus Schärfen, Rauschreduzierung etc. erstellt
  • Man kann nun recht einfach folgern, dass es hier ein Problem gibt
  • Vergleicht man nun die verworfenen Einstellungen mit den beibehaltenen und analysiert dazu noch die Bilder, kommt man schon recht nah an das Problem
  • Auch wenn heute vermutlich an dieser Stelle ein Mensch involviert werden muss, so hat dieser schon eine große Datenbasis auf der er seine Arbeiten aufbauen kann
Und bis zu diesem Punkt braucht er nicht ein einziges, direktes Feedback. Das ist auch ein enormer Zeitvorteil. 

 

P.S.: Das wäre eher ein Beispiel für Big Data (Bingo).

 

Ja, eben. Das kann man machen, aber das ist Data Mining, nicht maschinelles Lernen. Ganz andere Baustelle.

 

Grundsätzlich sehe ich es aber als durchaus realistisch, dass Dinge wie Würmchen erkannt und automatisch korrigiert werden könnten. Dazu müsste man nur die verworfenen mit den beibehaltenen Fuji Bildern vergleichen, das wieder mit der ganz große Menge vergleichen. Solch auffällige Strukturen sollten schnell zu identifizieren sein.

Da bin ich mir nicht so sicher. Die Würmchen oder andere Demosaicing-Artefakte entstehen ja gerade deshalb, weil der Algorithmus Strukturen finden will, aber nicht über genug Daten verfügt, um sicher entscheiden zu können, dass diese Strukturen wirklich da sind. Das heißt, vom Standpunkt von Adobes Algorithmus aus gesehen sind da Würmchen – das ist die beste Hypothese, die er findet. Gäbe es einen zweiten Algorithmus oder sonst ein Verfahren, das einwenden könnte, „Nee, das sieht komisch aus, das sind bestimmt keine echten Details“, dann würde man den ersten Algorithmus vermutlich gar nicht erst anwenden. Und wenn das zweite Verfahren nicht nur kritisieren, sondern konstruktiv einen besseren Vorschlag machen könnte, würde man es statt des ersten einsetzen. Aber man hat es eben leider nicht – oder jedenfalls noch nicht.

Edited by mjh
Link to post
Share on other sites

Ich finde die Diskussion super spannend, glaube aber, dass ohne nähere Informationen derzeit nicht sagen lässt ob "Adobe Nimbus"...

 

... als geniale Foto KI-Zukunftslösung...

 

oder einfach nur...

 

....als Ersatz für für das eher selten genutzte Lightroom Mobile, quasi als Online Foto Optimierungs- und Verwaltung Software, fungieren soll.

 

Ich persönlich vermute zweiteres. Dies vor dem Hintergrund dass Adobe Client Software zwar von >90% aller Hobby- und Top Photografen genutzt wird,

deren kreativer Output aber noch auf der eigenen Festplatte oder auf Flickr, 500 px , Facebook und Co verteilt ist.

Adobe spielt in diesem Segment derzeit mit der hauseigenen Cloud noch eine sehr untergeordnete Rolle.

Edited by Don Pino
Link to post
Share on other sites

Adobe tanzt auf vielen Hochzeiten und lässt seine Entwickler auch mal Sachen ausprobieren. Wenn es sich bewährt, wird es in den Mainstream eingegliedert, sonst bleibt es ein Nischenprodukt oder wird komplett eingestellt.

Link to post
Share on other sites

Ich finde die Diskussion super spannend, glaube aber, dass ohne nähere Informationen derzeit nicht sagen lässt ob "Adobe Nimbus"...

 

... als geniale Foto KI-Zukunftslösung...

 

oder einfach nur...

 

....als Ersatz für für das eher selten genutzte Lightroom Mobile, quasi als Online Foto Optimierungs- und Verwaltung Software, fungieren soll.

 

Ich persönlich vermute zweiteres. Dies vor dem Hintergrund dass Adobe Client Software zwar von >90% aller Hobby- und Top Photografen genutzt wird,

deren kreativer Output aber noch auf der eigenen Festplatte oder auf Flickr, 500 px , Facebook und Co verteilt ist.

Adobe spielt in diesem Segment derzeit mit der hauseigenen Cloud noch eine sehr untergeordnete Rolle.

Das eine schließt ja das andere nicht aus. Adobe ist bereits heute im Bereich KI und Machine Learning aktiv:

http://www.adobe.com/de/sensei.html

Außerdem gibt es neben der Creative Cloud noch die Marketing Cloud, deren Module bereits heute überwiegend aus rein cloud-basierten Lösungen besteht. Da ist es naheliegend, dass auch die Kreativwerkzeuge in die Cloud wandern und damit besser und einfacher integriert werden können.

 

Aber auch für Privatnutzer finde ich es interessant. Ich muss meine Bildersammlung nicht mehr auf meinem eigenen Rechner speichern, mich um Datensicherung kümmern, ich kann eine Auto-Verschlagwortung nutzen (zumindest würde ich darauf wetten), kann sämtliche Settings und natürlich meine Bilder auf all meinen Geräten verwenden, ohne mir teure NAS-Lösungen hinzustellen, sie auf Mobilgeräten bearbeiten, kann weniger leistungsfähige Hardware nutzen, kann die Bilder direkt teilen, z.B. in Foren verlinken (falls wie bei Flickr automatisch verschiedenen Bildgrößen berechnet werden) usw.

 

Der Bilder-Upload ist eine Kröte, die man schlucken muss. Für mich wäre das kein Problem, da ich eine ziemlich schnelle DSL-Anbindung habe und nie große Bildermengen produziere, die ich dann eilig bearbeiten muss. Aber schließlich muss man sicher nicht den kompletten Upload abwarten, sondern kann mit der Bearbeitung der bereits hochgeladenen Bilder beginnen, wärend die Übertragung noch läuft.

Die Frage ist natürllch, ob man flüssig arbeiten kann. Ich halte das durchaus für möglich. Schließlich müssen die Bilder nur in der jeweiligen Bildschirmauflösung des Clients übertragen werden. Beim Reinzoomen und Verschieben des Bildausschnitts wird es natürlich anspruchsvoll, da große Datenmengen schnell über die Leitung müssen.

Andererseits funktioniert 4K-Videostreaming ja auch mit handelsüblichen DSL-Anschlüssen, ohne das es bei schnellen Bildfolgen ruckelt.

 

Ich bin jedenfalls gespannt. Auch darauf, ob dieses "Nimbus" Teil des CC-Foto-Abos werden wird und wieviel Cloud-Speicher man zu welchem Preis bekommen wird.

Natürlich ist auch abzuwarten, wie ersthaft Adobe das Thema vorantreibt und ob es nicht im ersten Wurf nur ein abgespecktes Spielzeug-LR wird. Würde mich allerdings wundern, da es das mit LR mobile ja bereits gibt.

Link to post
Share on other sites

 

Andererseits funktioniert 4K-Videostreaming ja auch mit handelsüblichen DSL-Anschlüssen, ohne das es bei schnellen Bildfolgen ruckelt.

 

 

Kann man leider nicht vergleichen. Die Videowiedergabe arbeitet mit Puffern. Daher merkst Du kleine Schwankungen nicht. Ein komplettes 4k Bild mit alle Informationen wird außerdem selten übertragen. Die Codec übertragen zwischen den Schlüsselbilder nur die Änderungen. Dann wird auch noch verlustbehaftet komprimiert, was bei der Bildbearbeitung nicht akzeptabel ist. 

 

Wenn ich z.B. an einem Belichtungsregler ziehe wird sich immer das gesamte Bild ändern. Also auch übertragen werden müssen. Das produziert zwangsläufig eine deutliche Verzögerung. Bei mobile Geräte ist die Auflösung geringen und der Benutzer akzeptiert solche Einschränkungen eher. Auf dem PC/Mac vermutlich nicht.

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...